دیجیاتو آپارات

متن مرتبط با «الگوریتم» در سایت دیجیاتو آپارات نوشته شده است

توضیحات متا دوباره کوتاهتر می شوند! تغییرات جدید الگوریتم سئو در گوگل

  • توضیحات متا دوباره کوتاهتر می شوند! تغییرات جدید الگوریتم سئو در گوگل قبلا گفته میشد تگ متا توضیحات باید 170 کاراکتر باشد اما حالا بر این باوریم که طول این توضیحات باید کوتاه تر باشن. این سردرگمی قابل درکه اما گوگل ذهنیتش رو تغییر داده و هر زمان که ذهنیت گوگل در مورد چیزی تغییر می کنه ما هم باید با اون هماهنگ بشیم. خوب یا بد این راهیه که برای سئو و بهینه ساز, ...ادامه مطلب

  • لاراول ۵.۶ از الگوریتم هش رمز عبور جدید Argon2i پشتیبانی خواهد کرد!

  • سال ۲۰۱۳ بود که متخصصان رمزنگاری و امنیتی از سراسر دنیا دور هم جمع شدند تا یک رقابت برای ایجاد الگوریتم هش پسورد ترتیب دهند یا هدف اینکه یک یا چند الگوریتم را انتخاب کرده و به عنوان استاندارد توصیه شده در این زمینه معرفی کنند. در ۲۹ تیر ۹۴، الگوریتم  Argon2 که توسط الکس بیریوکوف، دنیل دینو و دیمیتری خووراتوویچ از دانشگاه لوکزامبورگ طراحی شده بود، به عنوان برنده نهایی این مسابقه (PHC) انتخاب شد.آرگون ۲ دارای ۳ نسخه مختلف است: Argon2d : مقاوم در برابر حملات کرک توسط GPU Argon2i: بهینه شده برای مقاومت در برابر حملات side-channel Argon2id: این یک نسخه هیبرید است که از ترکیب ۲ نسخه قبلی استفاده می کند. با آمدن PHP 7.2 در آبان ۹۶، php حالا توابعی برای کار با هر دو نسخه ۲d و i را داراست. با اینحال، ۲d برای هش رمز عبور مناسب نیست. لاراول ۵.۶ که به نظر ماه آینده منتشر میشود نیز به صورت توکار از الگوریتم Argon2i پشتیبانی می کند البته به لطف Michael Lundbøl، و برای اینکه ببینید چطور آرگون ۲i به لاراول اضافه شده است می توانید این pull request را ببینید. شکل گذشته bcrypt همچنان پشتیبانی خواهد شد و به صورت پیش فرض نیز خواهد بود.ولی اگر روی پروژه جدید کار خواهید کرد و بعد از انتشار لاراول ۵.۶، شاید ارزش داشته باشد که آرگون۲ را هم تست کنید. منبع در همین رابطه :   16 سایت برتر آموزش آنلاین برنامه ن, ...ادامه مطلب

  • الگوریتم رتبه‌بندی سایتها در گوگل

  • الگوریتم رتبه‌بندی سایتها در گوگل الگوریتم رتبه‌بندی گوگل قرار است به‌زودی دچار تغییر شود و وب‌سایت‌ها را بر اساس نسخه‌ی موبایل آن‌ها رتبه‌بندی کند. با رشد روزافزون کاربران گوشی‌ هوشمند، موتورهای جستجو نیز توجه بسیاری به کاربران این دستگاه‌ها نشان می‌دهند. حال در همین راستا، موتور جستجوی گوگل به‌زودی وب‌سایت‌ها را بر اساس نسخه‌ی موبایل آن‌ها اولویت‌بندی خواهد کرد. به این ترتیب وب‌سایت‌های دارای نسخه‌ی مخصوص موبایل، می‌توانند در نتایج جستجو جایگاه بالاتری در صفحه به خود اختصاص دهند؛ البته این موضوع تنها در صورتی اتفاق می‌افتد که جستجو از طریق دستگاه‌ موبایل انجام شده باشد. الگوریتم کنونی گوگل، وب‌سایت‌ها را تنها بر اساس نسخه‌ی دسکتاپ رده‌بندی می‌کند. این موضوع باعث می‌شود که در برخی موارد، وب‌سایت‌هایی که نسخه‌ای برای گوشی هوشمند در نظر نگرفته‌اند، در صدر لیست قرار بگیرند. برای تشخیص وجود نسخه‌ی مخصوص موبایلِ یک وب‌سایت، موتور جستجو گوگل به کدنویسی و نشانه‌گذاری آن وب‌سایت توجه خواهد کرد. گوگل برای صاحبان وب‌سایت‌ها لیستی منتشر کرده است که از طریق آن می‌توانند سازگاری وب‌سایتشان با گوشی هوشمند را تشخیص دهند. کیفیت محتوای نسخه‌ی سازگار با گوشی هوشمند باید به همان‌ اندازه‌ی نسخه‌ی دسکتاپ، باکیفیت باشد. داده‌های ساخت‌یافته و متادیتا باید در هر دو نسخه‌ی وب‌سایت مورد استفاده قرار گرفت, ...ادامه مطلب

  • الگوریتم جدید گوگل برای حذف واترمارک تصاویر

  • رسانه کلیک – محققان گوگل الگوریتم هوشمندی را پیاده سازی کرده اند که به صورت خودکار، و تنها در چندثانیه واترمارک تصاویر را بدون آسیب زدن به تصویر حذف می کند. یکی از راه هایی که عکاسان و وب سایت های فروش عکس برای جلوگیری از سوء استفاده افراد از تصاویر نمونه موجود در سایت استفاده می کنند قرار دادن متن و یا نشانه ای به صورت کم رنگ بر روی تصاویر به نام واترمارک (watermark) است. حذف واترمارک نیاز به دانش نرم افزارهای ویرایش عکس نظیر فتوشاپ دارد و در صورت پیچیده بودن واترمارک استفاده شده، کاری زمان بر و دشوار می باشد، همچنین در بیشتر موارد ممکن است بخش هایی از تصویر که در پشت واترمارک قرار بوده اند ,الگوریتم,جدید,گوگل,برای,حذف,واترمارک,تصاویر ...ادامه مطلب

  • محقق ایرانی الگوریتمی برای کشف اطلاعات فاش شده ساخت

  • هم رسان:یک دانشمند ایرانی الگوریتمی ساخته که نشان می دهد کلیک کردن روی لینک های مختلف چه اطلاعاتی از کاربر را فاش می کند. به گزارش هم رسان به نقل از انگجت، مهسا تازیکی محقق ایرانی دانشگاه پلی تکنیک فدرال لوزان( EPFL) الگوریتمی ساخته که نشان می دهد با کلیک کردن روی لینک های مختلف در مرورگرها چه ,محقق,ایرانی,الگوریتمی,برای,اطلاعات,ساخت ...ادامه مطلب

  • هوش مصنوعی و موسیقی: آیا برده الگوریتم‌ها می‌شویم؟

  • از اعضای گروه پینک فلوید گرفته تا بیتلز، همه‌شان مهمان مجموعه استودیوهای «ابی رود» (Abbey Road) در لندن برای ضبط آلبوم‌های موسیقی‌شان بوده‌اند. اما مرد پشت کیبورد، جایی که احتمالاً «جان لنون» آهنگ «روزی از زندگی» اش را در آنجا نواخته، «سیاوش مهدوی» نام دارد. مهدوی مدیر عامل یک استارتاپ تکنولوژیک در , ...ادامه مطلب

  • محققان الگوریتمی برای بهبود عکس های سلفی توسعه دادند

  • هم رسان: چه چیزهایی یک عکس را خوب می کند؟ یا اینکه چه عواملی برای یک عکس سلفی خوب لازم است؟ آیا گرفتن سلفی هم شکلی از هنر است و یا اینکه علم و دانشی در پس آن وجود دارد؟ به گزارش پایگاه خبری هم رسان به نقل از ابرگیزمو، محققان دانشگاه واترلو دریافته اند ترکیبی از هر دو مورد اشاره شده باعث بهبود عکس , ...ادامه مطلب

  • الگوریتم جدید دانشگاه استنفورد، 14 نوع آریتمی قلب را با دقت فوق العاده تشخیص می دهد

  • اگرچه تمامی موارد آریتمی قلب کشنده یا خطرناک نیستند، اما ریتم غیر طبیعی این عضو حیاتی می تواند نگران کننده باشد، به خصوص اینکه در برخی مواقع به نارسایی قلب یا سکته منجر می شود. جالب اینجاست که اکثر افراد دچار ریتم غیر عادی قلب، هیچ نشانه ای مبنی بر این وضعیت از خود بروز نمی دهند. حال تیمی از محققین , ...ادامه مطلب

  • توسعه الگوریتمی برای پیش بینی تغییر چهره افراد در گذر زمان با دقت بالا

  • محققین انگلیسی موفق به توسعه الگوریتمی شده اند که می تواند تغییرات چهره افراد را طی سال های آینده با دقتی مناسب حدس بزند. این گروه امیدوارند با استفاده از این الگوریتم یافتن کودکانی که چند سال از زمان گم شدن آنها می گذرد آسان تر شود. وقتی شخصی برای سال ها مفقود شده باشد، حتی عکسی از چهره او نیز دیگر, ...ادامه مطلب

  • محققان یاهو دقیق ترین الگوریتم تشخیص محتوای توهین آمیز در جملات را توسعه داده اند

  • بسیاری از روش های فیلترینگ نظراتی که این روزها در سرویس های آنلاین استفاده می شوند، به ترکیبی از واژه های ممنوعه، اصطلاحات رایج و ساختار جملات برای تشخیص محتوای نفرت پراکنی تکیه می کنند. اما محققان یاهو یک گام فراتر گذاشته و یادگیری ماشینی را برای انجام این کار به خدمت گرفته اند. با استفاده از تکنیک word embedding، که واژه ها را به عنوان یک کمیت برداری و نه صرفا مثبت یا منفی بودن بررسی می کند، سیستم جدید یاهو می تواند جملات دارای محتوای توهین آمیز را تشخیص بدهد، حتی اگر کلمات جمله به تنهایی معنای بدی نداشته باشند. به ادعای یاهو سیستم مورد بحث در آزمایشات صورت گرفته، 90 درصد مواقع در تشحیص ادبیات توهین آمیز در جملات موفق بوده است. اگرچه عملکرد این الگوریتم بسیار تحسین برانگیز است، اما نباید فراموش کرد که نفرت پراکنی کلامی موضوعی است که دائما در حال تغییر و تحول بوده و شاید حتی یک انسان هم نتواند به طور صد در صد توهین آمیز بودن یک جمله را تشخیص بدهد. Let's block ads! بخوانید, ...ادامه مطلب

  • ساخت الگوریتمی جدید توسط محققان برای پیش بینی حملات تروریستی داعش در آینده

  • یکی از متخصصین دانشگاه میامی الگوریتمی درست کرده است که می تواند پست های مرتبط با داعش را روی شبکه های اجتماعی اسکن کند و در نهایت ممکن است بتوان برای پیش بینی حملات تروریستی بعدی این گروه از آن استفاده کرد. دکتر نیل جانسون و تیمش در ژورنال ساینس تودی شیوه ی جستجوی مدل خود در میان پست های حدود یک سال گذشته ی شبکه ی اجتماعی Vkontakte به دنبال پشت های متمایل به داعش به چند زبان مختلف را شرح داده اند. داده های حاصل از این جستجو به جانسون و تیمش اجازه داد «مدلی آماری با هدف شناسایی الگوهای رفتاری حامیان آنلاین داعش» تهیه کنند. مدل دکتر جانسون به جای آنکه تمام پست های منتشر شده روی شبکه های اجتماعی را به دنبال اطلاعاتی از یک حمله ی احتمالی زیر و رو کند، به این نگاه می کند که گروه های کوچک و سازماندهی شده در راستای حمایت از کمپین های واقعی، در فضای مجازی چه رفتاری از خود نشان می دهند. بر اساس توضیحات نیویورک تایمز، این گروه ها موج فعالیت ها و تحرکات جدید تروریست ها را بازتاب می دهند و اگر فعالیت هایشان دنبال شود، احتمال می رود بتوان محل و هدف نهایی این تحرکات را پیدا کرد. مدل یاد شده، رخداد هایی نظیر وقایع سن برناردینو و یا اورلاندو که در آن یک یا دو نفر به تنهایی دست به کاری می زنند را پیش بینی نمی کند، اما می توان از آن برای توقف چنین موج هایی پیش از تبدیل شدنشان به یک حمله ی تروریستی تمام عیار استفاده کرد. پژوهش دکتر جانسون حدود ۱۰۰ هزار عضو از ۲۰۰ گروه کوچک مختلف را روی شبکه ی اجتماعی روسی Vkontakte مورد بررسی قرار داده است که طرفداران داعش مطالب خود را روی آن نیز منتشر می کنند؛ از بیانیه های افراط گرایانه گرفته تا توصیه هایی برای در امان ماندن از حمله ی پهپاد ها. بر طبق این یافته ها، افرادی که گرایش های رادیکال پیدا می کنند، هیچگاه به صورت انفرادی به فعالیت های خود ادامه نمی دهند، بلکه ظرف چند هفته سعی می کنند از طریق گروه های آنلاین به دیگر همفکران خود ملحق شوند. این گروه های کوچک مدام در حال تغییر و تحول هستند چرا که صفحاتشان به صورت پیوسته از سوی شبکه های اجتماعی مسدود می شود. به همین جهت تمایل دارند با گروه های بزرگ تر ادغام شوند تا گستره ی اثرگذاری شان را افزایش دهند. از طرف دیگر، متخصصان تروریسم و ارتباطات، کاربردپذیری مدل دکتر جانسون را زیر سؤال برده اند. پس ا, ...ادامه مطلب

  • گوگل تغییر الگوریتم جستجو به نفع «هیلاری کلینتون» را تکذیب کرد

  • گوگل خبر می دهد که الگوریتم موتور جستجوی خود را به نفع هیلاری کلینتون یا دیگر نامزدهای انتخابات ریاست جمهوری ایالات متحده تغییر نداده است. سخنگوی شرکت مذکور بیان نموده: «بخش تکمیل خودکار جستجوها (Autocomplete) به نفع هیچ نامزد ریاست جمهوری و یا رویداد خاصی تغییر نمی کند.» اما ماجرا چه بوده و چرا گوگل چنین بیانیه ای را منتشر کرده است؟ دو روز پیش یکی از کانال های یوتوب ویدیویی منتشر می کند که تکنولوژی autocomplete جستجوگر گوگل را به چالش می کشد و نشان می دهد که در قیاس با نتایج به دست آمده از بخش autocomplete جستجوگرهای بینگ و یاهو، گوگل در حال کتمان برخی حقایق در مورد شخص «هیلاری کلینتون»، نامزد احتمالی حزب دموکرات برای ریاست جمهوری سال جاری در ایالات متحده است. در ویدیوی فوق توضیح داده می شود که اگر شما بخواهید در خصوص «جرائم هیلاری کلینتون» (crimes) یا «اتهام» (indictment) وی جستجو کنید، پس از نگارش دو یا سه کاراکتر ابتدایی از کلمات indictment یا crimes، گوگل توسط تکنولوژی تکمیل خودکار جستجو برای کاربر، موارد دیگری را به جای آنها به شما پیشنهاد می دهد. یکی از مسئولین بخش جستجوی گوگل در توییتر و در جهت دفاع از الگوریتم جستجوی این شرکت، بیان نموده افرادی که در پی موارد منفی در مورد نامزد یاد شده هستند، معمولاً نام خانوادگی وی را تایپ نمی کنند و در این ویدیو به چنین مسئله ای پرداخته نشده است. در ویدیوی بالا توضیح داده می شود که برای سایر نامزدها نظیر «دونالد ترامپ» یا «برنی سندرز» چنین اتفاقی رخ نمی دهد و گوگل مشکلی با نمایش «نژادپرستی» ترامپ به شخص جستجو کننده ندارد. در این میان گوگل خبر می دهد که به طور کلی تلاش دارد تا پیشنهادات منفی احتمالی را در سیستم تکمیل خودکار جستجوها ارائه ندهد. سخنگوی گوگل در خصوص این مسئله بیانیه ای که در ادامه می خوانید را ارائه داده است. تکنولوژی Autocomplete در جستجوی گوگل از هیچ نامزد یا رویداد خاصی حمایت نمی کند. ادعاهای اخیر در خصوص این سیستم به علت عدم وجود درک صحیح از کارکرد آن بوده اند. الگوریتم Autocomplete ما نتایج احتمالی توهین آمیز و تحقیر آمیز را در ادامه نام یک شخص به نمایش نمی کشد. به طور کلی تر، حدس های Autocomplete بر اساس عوامل بسیاری، از جمله میزان محبوبیت آنها شکل می گیرند. Let's block ads! بخوانید, ...ادامه مطلب

  • الگوریتم پیش بینی جرم در آمریکا داده هایی مغرضانه را در مورد متهمان سیاهپوست ارائه می کند

  • نمره «ارزیابی خطر» ابزاری است که برای تعیین شانس ارتکاب به جرم در آینده توسط یک مجرم، مورد استفاده قرار می گیرد. این ابزار مدتی است که مورد توجه ویژه مراجع قضایی در آمریکا قرار گرفته و از آن برای طی کردن دیگر فرایندهای مربوط به سیستم قضایی و دستگیری افراد متهم استفاده می گردد. اما منتقدان به این سیستم مدت هاست که به نقد و نکوهش آن پرداخته اند و  مدعی هستند که این شیوه صرفا کار را برای نظام پرمشغله قضایی آسان می کند و به اقلیت ها آسیب می زند. حالا یک گروه بازرسی غیرانتفاعی به نام ProPublica در تلاش است تا در اثبات این گفته، اطلاعاتی را ارائه نماید و در همین راستا دست به تحلیل نمره ارزیابی خطر بیش از 7 هزار مجرمی زده که ظرف دو سال اخیر در منطقه Broward County فلوریدا دستگیر شده اند تا دریابد که دو سال بعد از دستگیری چند تن از این افراد مجددا مرتکب جرایم جدید شده اند. نشریه متعلق به این گروه متاسفانه گزارشی ناامید کننده را از تحلیل های صورت گرفته در این رابطه منتشر کرده است. براساس اعلام ProPublica، الگوریتم به کار رفته در این منطقه، به شکلی نادرست جرائم آتی توسط متهمان سیاه پوست را محاسبه کرده و نرخ ارائه شده برای این افراد دو برابر سفیدپوستان بوده است. آنها حتی برای کنترل داده های نژادی خود از فاکتورهایی نظیر سوابق جنایی، جنسیت و سن استفاده کردند که متاسفانه باز هم مشخص گردید، شانس ارتکاب به جرم برای سیاه پوستان با استفاده از آن الگوریتم بیشتر از میزان واقعی اش محاسبه شده است. روی هم رفته در این نشریه آمده است که تنها 20 درصد از متهمانی که پیش بینی شده بود دست به اعمال مجرمانه بزنند مرتکب چنین کاری شدند. سیستم مورد استفاده برای این منظور نیز توسط شرکتی به نام Northpointe طراحی شده و آنطور که در ProPublica  آمده این شرکت برای تعیین نرخ ارتکاب به جرم از نوعی پرسشنامه استفاده می کند که حاوی سوالاتی مانند این است: آیا تا بحال یکی از والدین شما در بازداشتگاه یا زندان نگهداری شده است؟ البته سوالات نژادی در این پرسشنامه وجود ندارند با این همه، برخی از آنها می توانند به این فاکتور مربوط باشند. گفتنی است که Northpointe تحلیل انجام گرفته توسط نشریه یاد شده را مورد مناقشه قرار داده است. علیرغم این مناقشات، ارزیابی خطر همانطور که در ابتدا گفته شد مورد توجه ویژه نهادهای قضایی در , ...ادامه مطلب

  • اعتراف فیسبوک به پالایش تعیین کننده نتایج الگوریتم هایش توسط نیروی انسانی

  • به نظر می رسد در ادامه ی اتهاماتی که مبنی بر سانسور کردن برخی موضوعات خاص توسط فیسبوک بر سر زبان ها افتاده بود، این شرکت سعی دارد کم کم چگونگی انتشار خبرها روی این شبکه ی اجتماعی را توضیح دهد. نایب رئیس تیم جستجوی فیسبوک، تام استاکی امروز طی مطلبی به شرح این موضوع پرداخت که در تعیین خبرهای قرار گرفته در بخش موضوعات داغ نیوزفید این سایت، نیروی انسانی نقشی کلیدی ایفا می کند. او در این مطلب نوشته است: «برای پذیرش موضوعاتی که بازتاب دهنده ی رویداد های واقعی دنیا هستند به بازبینی نیروی انسانی نیاز است. این نیروها به گونه ای آموزش می بینند که موضوعات به درد نخور یا تکراری، شایعات، و یا موضوعاتی که منابع کافی برایشان وجود ندارد را حذف کنند». این موضوع از یک طرف به معنای آن است که ادیتور های فیسبوک وظیفه دارند تمام موضوعاتی که الگوریتم این پلتفرم آنها را در حال داغ شدن تشخیص می دهد را بررسی و تأیید کنند؛ امری که قرار است از وارد شدن پای جهتگیری های مختلف به ماجرا جلوگیری کند و بازتاب دهنده ی نظرات بازدیدکننده ها باشد. اما از طرف دیگر معنایش آن است که ادیتورهای فیسبوک این اختیار را دارند که «به درد نخور» بودن یا با ارزش بودن یک موضوع را به انتخاب خودشان تعیین کنند. این به نظر کار آسانی می رسد؛ همه ی ما یک عالمه موضوع داغ روی فیسبوک دیده ایم که از نظر خودمان به درد نخور بوده اند. اما چنین اختیاری به ذات خود به ادیتور های فیسبوک نقش تعیین کننده ای در داغ شدن یا نشدن موضوعات مختلف می بخشد. آنها باید کافی بودن یا نبودن منابع و صحت یک موضوع را نیز تأیید کنند. این موضوع حداقل باید بتواند جلوی دیده شدن بیشتر خبرهای کذبی که در فیسبوک رواج می یابند را بگیرد. اما با در نظر گرفتن جمیع جوانب، می توان مطلب استاکی را مهر تأییدی بر ناقص بودن الگوریتم های فیسبوک دانست. در واقع آن چیزی که کاربران می بینند نسخه ی اصلاح شده ای است که توسط انسان پالایش شده است. همین مسئله است که باعث شده اتهام سانسور به فیسبوک وارد شود؛ در واقع توضیحات اخیر استاکی بخش اعظم اتهامات وارده را تأیید می کند. فیسبوک در حال حاضر هر گونه جلوگیری ادیتورهایش از داغ شدن برخی موضوعات را تکذیب می کند. استاکی می نویسد: «ما این گزارشات را کاملاً جدی می گیریم و با این وجود هیچ مدرکی دال بر صحت ادعاهای وارده از سوی منابع ناشناس, ...ادامه مطلب

  • فیدهای الگوریتمی در شبکه های اجتماعی، ما را به رقابت با هم فرا می خوانند

  • آیا تصویری که به اشتراک گذاشته ام به اندازه کافی جذاب است؟ آیا توییتی که ارسال کردم بامزه بود؟ بهتر است باشند، چرا که در غیر این صورت، شاید از سوی اطرافیان مان دیده نشوند و توسط طبقه بندی های الگوریتمی در توییتر و اینستاگرام، به درجه های پایین تر اهمیت سقوط کنند. همین مسئله می تواند مشکلات بسیاری برای بازاریابان ایجاد کند و البته برای ما کاربران عادی هم، زندگی با شبکه های اجتماعی را پر استرس تر نماید. فیسبوک مدت هاست که این روند را در پیش گرفته و حالا اینستاگرام و توییتر نیز جهت بخشیدن جذابیت بیشتر به سرویس های خود، مخصوصا برای افرادی که به شکل دائم با آنها زندگی نمی کنند، به سوی طبقه بندی الگورتیمی گام هایی برداشته اند. پیش از این، شما یک جمله به ذهن تان می رسید یا آن را در جایی می خواندید و یا دیدگاهی را توسط توییتر به اشتراک می گذاشتید؛ دغدغه مسئله سازی هم وجود نداشت که خوانده شود یا نشود. به هر حال هر شخص مخاطبین گارانتی شده خودش را دارد که در هر صورت او را دنبال می کنند. اکنون ولی باید نگران باشید که آیا توییت شما به اندازه کافی جذاب بوده که وقتی مخاطب، اپ توییتر را در موبایلش باز می کند، توییت شما در همان ابتدای کار در برابرش قرار گیرد یا خیر. از سوی دیگر، حالا بهتر است کمتر و البته گزیده تر توییت کنید تا بیشتر مورد توجه قرار گیرید. حالا بهتر است از میان تصاویر خود، بهترین را برای به اشتراک گذاری در اینستاگرام انتخاب کنید. در غیر این صورت، در باتلاق ابهام فرو رفته و الگوریتم اینستاگرام، تصاویری را به مخاطبان شما نشان می دهد که تصور می کند برای آنها، اهمیت بالاتری دارند. چند سال پیش، زمانی که فیسبوک چنین رویه ای را در پیش گرفت، بسیاری از Page ها با مشکل کمبود مخاطب رو به رو شدند. حتی زمانی که کاربران به شکل مستقیم برای دریافت بروز رسانی های یک پیج، مشترک آن می شدند، باز هم محتوای تولید شده از سوی صفحه های مختلف به اندازه گذشته نمی رسید. اما علت چه بود؟ زمان کاربر برای مشاهده محتوا محدود است و صفحه های بسیاری با هم رقابت می کردند تا محتوای تولیدی خود را بالاتر و بهتر در برابر چشم خواننده قرار دهند. کسب و کارهای اینترنتی در همین راستا با مشکل مواجه شده و نمی توانستند ترافیک و بازدید مورد نظرشان را به دست آورند. تنها راه برای دریافت بازدید بیشتر، پرداخت مبالغی ب, ...ادامه مطلب

  • جدیدترین مطالب منتشر شده

    گزیده مطالب

    تبلیغات

    برچسب ها