توضیحات متا دوباره کوتاهتر می شوند! تغییرات جدید الگوریتم سئو در گوگل قبلا گفته میشد تگ متا توضیحات باید 170 کاراکتر باشد اما حالا بر این باوریم که طول این توضیحات باید کوتاه تر باشن. این سردرگمی قابل درکه اما گوگل ذهنیتش رو تغییر داده و هر زمان که ذهنیت گوگل در مورد چیزی تغییر می کنه ما هم باید با اون هماهنگ بشیم. خوب یا بد این راهیه که برای سئو و بهینه ساز, ...ادامه مطلب
سال ۲۰۱۳ بود که متخصصان رمزنگاری و امنیتی از سراسر دنیا دور هم جمع شدند تا یک رقابت برای ایجاد الگوریتم هش پسورد ترتیب دهند یا هدف اینکه یک یا چند الگوریتم را انتخاب کرده و به عنوان استاندارد توصیه شده در این زمینه معرفی کنند. در ۲۹ تیر ۹۴، الگوریتم Argon2 که توسط الکس بیریوکوف، دنیل دینو و دیمیتری خووراتوویچ از دانشگاه لوکزامبورگ طراحی شده بود، به عنوان برنده نهایی این مسابقه (PHC) انتخاب شد.آرگون ۲ دارای ۳ نسخه مختلف است: Argon2d : مقاوم در برابر حملات کرک توسط GPU Argon2i: بهینه شده برای مقاومت در برابر حملات side-channel Argon2id: این یک نسخه هیبرید است که از ترکیب ۲ نسخه قبلی استفاده می کند. با آمدن PHP 7.2 در آبان ۹۶، php حالا توابعی برای کار با هر دو نسخه ۲d و i را داراست. با اینحال، ۲d برای هش رمز عبور مناسب نیست. لاراول ۵.۶ که به نظر ماه آینده منتشر میشود نیز به صورت توکار از الگوریتم Argon2i پشتیبانی می کند البته به لطف Michael Lundbøl، و برای اینکه ببینید چطور آرگون ۲i به لاراول اضافه شده است می توانید این pull request را ببینید. شکل گذشته bcrypt همچنان پشتیبانی خواهد شد و به صورت پیش فرض نیز خواهد بود.ولی اگر روی پروژه جدید کار خواهید کرد و بعد از انتشار لاراول ۵.۶، شاید ارزش داشته باشد که آرگون۲ را هم تست کنید. منبع در همین رابطه : 16 سایت برتر آموزش آنلاین برنامه ن, ...ادامه مطلب
الگوریتم رتبهبندی سایتها در گوگل الگوریتم رتبهبندی گوگل قرار است بهزودی دچار تغییر شود و وبسایتها را بر اساس نسخهی موبایل آنها رتبهبندی کند. با رشد روزافزون کاربران گوشی هوشمند، موتورهای جستجو نیز توجه بسیاری به کاربران این دستگاهها نشان میدهند. حال در همین راستا، موتور جستجوی گوگل بهزودی وبسایتها را بر اساس نسخهی موبایل آنها اولویتبندی خواهد کرد. به این ترتیب وبسایتهای دارای نسخهی مخصوص موبایل، میتوانند در نتایج جستجو جایگاه بالاتری در صفحه به خود اختصاص دهند؛ البته این موضوع تنها در صورتی اتفاق میافتد که جستجو از طریق دستگاه موبایل انجام شده باشد. الگوریتم کنونی گوگل، وبسایتها را تنها بر اساس نسخهی دسکتاپ ردهبندی میکند. این موضوع باعث میشود که در برخی موارد، وبسایتهایی که نسخهای برای گوشی هوشمند در نظر نگرفتهاند، در صدر لیست قرار بگیرند. برای تشخیص وجود نسخهی مخصوص موبایلِ یک وبسایت، موتور جستجو گوگل به کدنویسی و نشانهگذاری آن وبسایت توجه خواهد کرد. گوگل برای صاحبان وبسایتها لیستی منتشر کرده است که از طریق آن میتوانند سازگاری وبسایتشان با گوشی هوشمند را تشخیص دهند. کیفیت محتوای نسخهی سازگار با گوشی هوشمند باید به همان اندازهی نسخهی دسکتاپ، باکیفیت باشد. دادههای ساختیافته و متادیتا باید در هر دو نسخهی وبسایت مورد استفاده قرار گرفت, ...ادامه مطلب
رسانه کلیک – محققان گوگل الگوریتم هوشمندی را پیاده سازی کرده اند که به صورت خودکار، و تنها در چندثانیه واترمارک تصاویر را بدون آسیب زدن به تصویر حذف می کند. یکی از راه هایی که عکاسان و وب سایت های فروش عکس برای جلوگیری از سوء استفاده افراد از تصاویر نمونه موجود در سایت استفاده می کنند قرار دادن متن و یا نشانه ای به صورت کم رنگ بر روی تصاویر به نام واترمارک (watermark) است. حذف واترمارک نیاز به دانش نرم افزارهای ویرایش عکس نظیر فتوشاپ دارد و در صورت پیچیده بودن واترمارک استفاده شده، کاری زمان بر و دشوار می باشد، همچنین در بیشتر موارد ممکن است بخش هایی از تصویر که در پشت واترمارک قرار بوده اند ,الگوریتم,جدید,گوگل,برای,حذف,واترمارک,تصاویر ...ادامه مطلب
هم رسان:یک دانشمند ایرانی الگوریتمی ساخته که نشان می دهد کلیک کردن روی لینک های مختلف چه اطلاعاتی از کاربر را فاش می کند. به گزارش هم رسان به نقل از انگجت، مهسا تازیکی محقق ایرانی دانشگاه پلی تکنیک فدرال لوزان( EPFL) الگوریتمی ساخته که نشان می دهد با کلیک کردن روی لینک های مختلف در مرورگرها چه ,محقق,ایرانی,الگوریتمی,برای,اطلاعات,ساخت ...ادامه مطلب
از اعضای گروه پینک فلوید گرفته تا بیتلز، همهشان مهمان مجموعه استودیوهای «ابی رود» (Abbey Road) در لندن برای ضبط آلبومهای موسیقیشان بودهاند. اما مرد پشت کیبورد، جایی که احتمالاً «جان لنون» آهنگ «روزی از زندگی» اش را در آنجا نواخته، «سیاوش مهدوی» نام دارد. مهدوی مدیر عامل یک استارتاپ تکنولوژیک در , ...ادامه مطلب
هم رسان: چه چیزهایی یک عکس را خوب می کند؟ یا اینکه چه عواملی برای یک عکس سلفی خوب لازم است؟ آیا گرفتن سلفی هم شکلی از هنر است و یا اینکه علم و دانشی در پس آن وجود دارد؟ به گزارش پایگاه خبری هم رسان به نقل از ابرگیزمو، محققان دانشگاه واترلو دریافته اند ترکیبی از هر دو مورد اشاره شده باعث بهبود عکس , ...ادامه مطلب
اگرچه تمامی موارد آریتمی قلب کشنده یا خطرناک نیستند، اما ریتم غیر طبیعی این عضو حیاتی می تواند نگران کننده باشد، به خصوص اینکه در برخی مواقع به نارسایی قلب یا سکته منجر می شود. جالب اینجاست که اکثر افراد دچار ریتم غیر عادی قلب، هیچ نشانه ای مبنی بر این وضعیت از خود بروز نمی دهند. حال تیمی از محققین , ...ادامه مطلب
محققین انگلیسی موفق به توسعه الگوریتمی شده اند که می تواند تغییرات چهره افراد را طی سال های آینده با دقتی مناسب حدس بزند. این گروه امیدوارند با استفاده از این الگوریتم یافتن کودکانی که چند سال از زمان گم شدن آنها می گذرد آسان تر شود. وقتی شخصی برای سال ها مفقود شده باشد، حتی عکسی از چهره او نیز دیگر, ...ادامه مطلب
بسیاری از روش های فیلترینگ نظراتی که این روزها در سرویس های آنلاین استفاده می شوند، به ترکیبی از واژه های ممنوعه، اصطلاحات رایج و ساختار جملات برای تشخیص محتوای نفرت پراکنی تکیه می کنند. اما محققان یاهو یک گام فراتر گذاشته و یادگیری ماشینی را برای انجام این کار به خدمت گرفته اند. با استفاده از تکنیک word embedding، که واژه ها را به عنوان یک کمیت برداری و نه صرفا مثبت یا منفی بودن بررسی می کند، سیستم جدید یاهو می تواند جملات دارای محتوای توهین آمیز را تشخیص بدهد، حتی اگر کلمات جمله به تنهایی معنای بدی نداشته باشند. به ادعای یاهو سیستم مورد بحث در آزمایشات صورت گرفته، 90 درصد مواقع در تشحیص ادبیات توهین آمیز در جملات موفق بوده است. اگرچه عملکرد این الگوریتم بسیار تحسین برانگیز است، اما نباید فراموش کرد که نفرت پراکنی کلامی موضوعی است که دائما در حال تغییر و تحول بوده و شاید حتی یک انسان هم نتواند به طور صد در صد توهین آمیز بودن یک جمله را تشخیص بدهد. Let's block ads! بخوانید, ...ادامه مطلب
یکی از متخصصین دانشگاه میامی الگوریتمی درست کرده است که می تواند پست های مرتبط با داعش را روی شبکه های اجتماعی اسکن کند و در نهایت ممکن است بتوان برای پیش بینی حملات تروریستی بعدی این گروه از آن استفاده کرد. دکتر نیل جانسون و تیمش در ژورنال ساینس تودی شیوه ی جستجوی مدل خود در میان پست های حدود یک سال گذشته ی شبکه ی اجتماعی Vkontakte به دنبال پشت های متمایل به داعش به چند زبان مختلف را شرح داده اند. داده های حاصل از این جستجو به جانسون و تیمش اجازه داد «مدلی آماری با هدف شناسایی الگوهای رفتاری حامیان آنلاین داعش» تهیه کنند. مدل دکتر جانسون به جای آنکه تمام پست های منتشر شده روی شبکه های اجتماعی را به دنبال اطلاعاتی از یک حمله ی احتمالی زیر و رو کند، به این نگاه می کند که گروه های کوچک و سازماندهی شده در راستای حمایت از کمپین های واقعی، در فضای مجازی چه رفتاری از خود نشان می دهند. بر اساس توضیحات نیویورک تایمز، این گروه ها موج فعالیت ها و تحرکات جدید تروریست ها را بازتاب می دهند و اگر فعالیت هایشان دنبال شود، احتمال می رود بتوان محل و هدف نهایی این تحرکات را پیدا کرد. مدل یاد شده، رخداد هایی نظیر وقایع سن برناردینو و یا اورلاندو که در آن یک یا دو نفر به تنهایی دست به کاری می زنند را پیش بینی نمی کند، اما می توان از آن برای توقف چنین موج هایی پیش از تبدیل شدنشان به یک حمله ی تروریستی تمام عیار استفاده کرد. پژوهش دکتر جانسون حدود ۱۰۰ هزار عضو از ۲۰۰ گروه کوچک مختلف را روی شبکه ی اجتماعی روسی Vkontakte مورد بررسی قرار داده است که طرفداران داعش مطالب خود را روی آن نیز منتشر می کنند؛ از بیانیه های افراط گرایانه گرفته تا توصیه هایی برای در امان ماندن از حمله ی پهپاد ها. بر طبق این یافته ها، افرادی که گرایش های رادیکال پیدا می کنند، هیچگاه به صورت انفرادی به فعالیت های خود ادامه نمی دهند، بلکه ظرف چند هفته سعی می کنند از طریق گروه های آنلاین به دیگر همفکران خود ملحق شوند. این گروه های کوچک مدام در حال تغییر و تحول هستند چرا که صفحاتشان به صورت پیوسته از سوی شبکه های اجتماعی مسدود می شود. به همین جهت تمایل دارند با گروه های بزرگ تر ادغام شوند تا گستره ی اثرگذاری شان را افزایش دهند. از طرف دیگر، متخصصان تروریسم و ارتباطات، کاربردپذیری مدل دکتر جانسون را زیر سؤال برده اند. پس ا, ...ادامه مطلب
گوگل خبر می دهد که الگوریتم موتور جستجوی خود را به نفع هیلاری کلینتون یا دیگر نامزدهای انتخابات ریاست جمهوری ایالات متحده تغییر نداده است. سخنگوی شرکت مذکور بیان نموده: «بخش تکمیل خودکار جستجوها (Autocomplete) به نفع هیچ نامزد ریاست جمهوری و یا رویداد خاصی تغییر نمی کند.» اما ماجرا چه بوده و چرا گوگل چنین بیانیه ای را منتشر کرده است؟ دو روز پیش یکی از کانال های یوتوب ویدیویی منتشر می کند که تکنولوژی autocomplete جستجوگر گوگل را به چالش می کشد و نشان می دهد که در قیاس با نتایج به دست آمده از بخش autocomplete جستجوگرهای بینگ و یاهو، گوگل در حال کتمان برخی حقایق در مورد شخص «هیلاری کلینتون»، نامزد احتمالی حزب دموکرات برای ریاست جمهوری سال جاری در ایالات متحده است. در ویدیوی فوق توضیح داده می شود که اگر شما بخواهید در خصوص «جرائم هیلاری کلینتون» (crimes) یا «اتهام» (indictment) وی جستجو کنید، پس از نگارش دو یا سه کاراکتر ابتدایی از کلمات indictment یا crimes، گوگل توسط تکنولوژی تکمیل خودکار جستجو برای کاربر، موارد دیگری را به جای آنها به شما پیشنهاد می دهد. یکی از مسئولین بخش جستجوی گوگل در توییتر و در جهت دفاع از الگوریتم جستجوی این شرکت، بیان نموده افرادی که در پی موارد منفی در مورد نامزد یاد شده هستند، معمولاً نام خانوادگی وی را تایپ نمی کنند و در این ویدیو به چنین مسئله ای پرداخته نشده است. در ویدیوی بالا توضیح داده می شود که برای سایر نامزدها نظیر «دونالد ترامپ» یا «برنی سندرز» چنین اتفاقی رخ نمی دهد و گوگل مشکلی با نمایش «نژادپرستی» ترامپ به شخص جستجو کننده ندارد. در این میان گوگل خبر می دهد که به طور کلی تلاش دارد تا پیشنهادات منفی احتمالی را در سیستم تکمیل خودکار جستجوها ارائه ندهد. سخنگوی گوگل در خصوص این مسئله بیانیه ای که در ادامه می خوانید را ارائه داده است. تکنولوژی Autocomplete در جستجوی گوگل از هیچ نامزد یا رویداد خاصی حمایت نمی کند. ادعاهای اخیر در خصوص این سیستم به علت عدم وجود درک صحیح از کارکرد آن بوده اند. الگوریتم Autocomplete ما نتایج احتمالی توهین آمیز و تحقیر آمیز را در ادامه نام یک شخص به نمایش نمی کشد. به طور کلی تر، حدس های Autocomplete بر اساس عوامل بسیاری، از جمله میزان محبوبیت آنها شکل می گیرند. Let's block ads! بخوانید, ...ادامه مطلب
نمره «ارزیابی خطر» ابزاری است که برای تعیین شانس ارتکاب به جرم در آینده توسط یک مجرم، مورد استفاده قرار می گیرد. این ابزار مدتی است که مورد توجه ویژه مراجع قضایی در آمریکا قرار گرفته و از آن برای طی کردن دیگر فرایندهای مربوط به سیستم قضایی و دستگیری افراد متهم استفاده می گردد. اما منتقدان به این سیستم مدت هاست که به نقد و نکوهش آن پرداخته اند و مدعی هستند که این شیوه صرفا کار را برای نظام پرمشغله قضایی آسان می کند و به اقلیت ها آسیب می زند. حالا یک گروه بازرسی غیرانتفاعی به نام ProPublica در تلاش است تا در اثبات این گفته، اطلاعاتی را ارائه نماید و در همین راستا دست به تحلیل نمره ارزیابی خطر بیش از 7 هزار مجرمی زده که ظرف دو سال اخیر در منطقه Broward County فلوریدا دستگیر شده اند تا دریابد که دو سال بعد از دستگیری چند تن از این افراد مجددا مرتکب جرایم جدید شده اند. نشریه متعلق به این گروه متاسفانه گزارشی ناامید کننده را از تحلیل های صورت گرفته در این رابطه منتشر کرده است. براساس اعلام ProPublica، الگوریتم به کار رفته در این منطقه، به شکلی نادرست جرائم آتی توسط متهمان سیاه پوست را محاسبه کرده و نرخ ارائه شده برای این افراد دو برابر سفیدپوستان بوده است. آنها حتی برای کنترل داده های نژادی خود از فاکتورهایی نظیر سوابق جنایی، جنسیت و سن استفاده کردند که متاسفانه باز هم مشخص گردید، شانس ارتکاب به جرم برای سیاه پوستان با استفاده از آن الگوریتم بیشتر از میزان واقعی اش محاسبه شده است. روی هم رفته در این نشریه آمده است که تنها 20 درصد از متهمانی که پیش بینی شده بود دست به اعمال مجرمانه بزنند مرتکب چنین کاری شدند. سیستم مورد استفاده برای این منظور نیز توسط شرکتی به نام Northpointe طراحی شده و آنطور که در ProPublica آمده این شرکت برای تعیین نرخ ارتکاب به جرم از نوعی پرسشنامه استفاده می کند که حاوی سوالاتی مانند این است: آیا تا بحال یکی از والدین شما در بازداشتگاه یا زندان نگهداری شده است؟ البته سوالات نژادی در این پرسشنامه وجود ندارند با این همه، برخی از آنها می توانند به این فاکتور مربوط باشند. گفتنی است که Northpointe تحلیل انجام گرفته توسط نشریه یاد شده را مورد مناقشه قرار داده است. علیرغم این مناقشات، ارزیابی خطر همانطور که در ابتدا گفته شد مورد توجه ویژه نهادهای قضایی در , ...ادامه مطلب
به نظر می رسد در ادامه ی اتهاماتی که مبنی بر سانسور کردن برخی موضوعات خاص توسط فیسبوک بر سر زبان ها افتاده بود، این شرکت سعی دارد کم کم چگونگی انتشار خبرها روی این شبکه ی اجتماعی را توضیح دهد. نایب رئیس تیم جستجوی فیسبوک، تام استاکی امروز طی مطلبی به شرح این موضوع پرداخت که در تعیین خبرهای قرار گرفته در بخش موضوعات داغ نیوزفید این سایت، نیروی انسانی نقشی کلیدی ایفا می کند. او در این مطلب نوشته است: «برای پذیرش موضوعاتی که بازتاب دهنده ی رویداد های واقعی دنیا هستند به بازبینی نیروی انسانی نیاز است. این نیروها به گونه ای آموزش می بینند که موضوعات به درد نخور یا تکراری، شایعات، و یا موضوعاتی که منابع کافی برایشان وجود ندارد را حذف کنند». این موضوع از یک طرف به معنای آن است که ادیتور های فیسبوک وظیفه دارند تمام موضوعاتی که الگوریتم این پلتفرم آنها را در حال داغ شدن تشخیص می دهد را بررسی و تأیید کنند؛ امری که قرار است از وارد شدن پای جهتگیری های مختلف به ماجرا جلوگیری کند و بازتاب دهنده ی نظرات بازدیدکننده ها باشد. اما از طرف دیگر معنایش آن است که ادیتورهای فیسبوک این اختیار را دارند که «به درد نخور» بودن یا با ارزش بودن یک موضوع را به انتخاب خودشان تعیین کنند. این به نظر کار آسانی می رسد؛ همه ی ما یک عالمه موضوع داغ روی فیسبوک دیده ایم که از نظر خودمان به درد نخور بوده اند. اما چنین اختیاری به ذات خود به ادیتور های فیسبوک نقش تعیین کننده ای در داغ شدن یا نشدن موضوعات مختلف می بخشد. آنها باید کافی بودن یا نبودن منابع و صحت یک موضوع را نیز تأیید کنند. این موضوع حداقل باید بتواند جلوی دیده شدن بیشتر خبرهای کذبی که در فیسبوک رواج می یابند را بگیرد. اما با در نظر گرفتن جمیع جوانب، می توان مطلب استاکی را مهر تأییدی بر ناقص بودن الگوریتم های فیسبوک دانست. در واقع آن چیزی که کاربران می بینند نسخه ی اصلاح شده ای است که توسط انسان پالایش شده است. همین مسئله است که باعث شده اتهام سانسور به فیسبوک وارد شود؛ در واقع توضیحات اخیر استاکی بخش اعظم اتهامات وارده را تأیید می کند. فیسبوک در حال حاضر هر گونه جلوگیری ادیتورهایش از داغ شدن برخی موضوعات را تکذیب می کند. استاکی می نویسد: «ما این گزارشات را کاملاً جدی می گیریم و با این وجود هیچ مدرکی دال بر صحت ادعاهای وارده از سوی منابع ناشناس, ...ادامه مطلب
آیا تصویری که به اشتراک گذاشته ام به اندازه کافی جذاب است؟ آیا توییتی که ارسال کردم بامزه بود؟ بهتر است باشند، چرا که در غیر این صورت، شاید از سوی اطرافیان مان دیده نشوند و توسط طبقه بندی های الگوریتمی در توییتر و اینستاگرام، به درجه های پایین تر اهمیت سقوط کنند. همین مسئله می تواند مشکلات بسیاری برای بازاریابان ایجاد کند و البته برای ما کاربران عادی هم، زندگی با شبکه های اجتماعی را پر استرس تر نماید. فیسبوک مدت هاست که این روند را در پیش گرفته و حالا اینستاگرام و توییتر نیز جهت بخشیدن جذابیت بیشتر به سرویس های خود، مخصوصا برای افرادی که به شکل دائم با آنها زندگی نمی کنند، به سوی طبقه بندی الگورتیمی گام هایی برداشته اند. پیش از این، شما یک جمله به ذهن تان می رسید یا آن را در جایی می خواندید و یا دیدگاهی را توسط توییتر به اشتراک می گذاشتید؛ دغدغه مسئله سازی هم وجود نداشت که خوانده شود یا نشود. به هر حال هر شخص مخاطبین گارانتی شده خودش را دارد که در هر صورت او را دنبال می کنند. اکنون ولی باید نگران باشید که آیا توییت شما به اندازه کافی جذاب بوده که وقتی مخاطب، اپ توییتر را در موبایلش باز می کند، توییت شما در همان ابتدای کار در برابرش قرار گیرد یا خیر. از سوی دیگر، حالا بهتر است کمتر و البته گزیده تر توییت کنید تا بیشتر مورد توجه قرار گیرید. حالا بهتر است از میان تصاویر خود، بهترین را برای به اشتراک گذاری در اینستاگرام انتخاب کنید. در غیر این صورت، در باتلاق ابهام فرو رفته و الگوریتم اینستاگرام، تصاویری را به مخاطبان شما نشان می دهد که تصور می کند برای آنها، اهمیت بالاتری دارند. چند سال پیش، زمانی که فیسبوک چنین رویه ای را در پیش گرفت، بسیاری از Page ها با مشکل کمبود مخاطب رو به رو شدند. حتی زمانی که کاربران به شکل مستقیم برای دریافت بروز رسانی های یک پیج، مشترک آن می شدند، باز هم محتوای تولید شده از سوی صفحه های مختلف به اندازه گذشته نمی رسید. اما علت چه بود؟ زمان کاربر برای مشاهده محتوا محدود است و صفحه های بسیاری با هم رقابت می کردند تا محتوای تولیدی خود را بالاتر و بهتر در برابر چشم خواننده قرار دهند. کسب و کارهای اینترنتی در همین راستا با مشکل مواجه شده و نمی توانستند ترافیک و بازدید مورد نظرشان را به دست آورند. تنها راه برای دریافت بازدید بیشتر، پرداخت مبالغی ب, ...ادامه مطلب