رسانه‌های اجتماعی از ارتباط ما با همسالان‌مان تقلید می‌کنند

تیمی از دانشمندان علوم اجتماعی با مطالعه روی کارکرد الگوریتم‌های رسانه‌های اجتماعی به این نتیجه رسیدند که این الگوریتم‌ها به جای اینکه تعامل کاربر را افزایش دهند، باید شرایطی را ایجاد کنند که کاربران از یکدیگر یاد بگیرند.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در جوامع جوامع ماقبل تاریخ، انسان‌ها تمایل داشتند از اعضای درون گروه یا از افراد معتبرتر یاد بگیرند، زیرا این اطلاعات به احتمال زیاد قابل اعتماد بود و منجر به موفقیت گروهی می‌شد. با این حال، با ظهور جوامع مدرن متنوع و پیچیده - و به ویژه در رسانه‌های اجتماعی - این سوگیری‌ها کمتر موثر می‌شوند. به عنوان مثال، شخصی که ما به صورت آنلاین با او در ارتباط هستیم ممکن است لزوما آدم قابل اعتمادی نباشد، زیرا افراد در رسانه‌های اجتماعی به راحتی می‌توانند تظاهر کنند.

تیمی از دانشمندان علوم اجتماعی در تحقیقات جدید خود توضیح می‌دهند که چگونه کارکرد الگوریتم‌های رسانه‌های اجتماعی با غرایز اجتماعی انسان برای تقویت همکاری -که می‌تواند منجر به قطبی‌سازی و اطلاعات نادرست در مقیاس بزرگ شود- نادرست است.

این تیم تحقیقاتی چندین نظرسنجی از کاربران توییتر و فیس‌بوک انجام دادند و نتیجه این مطالعه نشان داد که اکثر کاربران از محتوای سیاسی که می‌بینند خسته شده‌اند. ویلیام بردی، نویسنده اول، روانشناس اجتماعی دانشکده مدیریت کلوگ در نورث وسترن، می‌گوید: در واقع کاربران از اطلاعات نادرست خسته شده‌اند.

بیشتر بخوانید:

کدام کشور بیشترین ضریب نفوذ شبکه‌های اجتماعی را دارد؟ /بزرگ‌ترین گروه سنی اینترنت در ایران؛ ۳۵ تا ۴۴ سال

برادی می‌افزاید: ما می‌خواستیم یک بررسی سیستماتیک ارائه کنیم که نحوه تعامل روان‌شناسی انسانی و الگوریتم‌های رسانه‌های اجتماعی را به روشی درک کنیم که تاثیر آنها روی هم را متوجه شویم. یکی از چیزهایی که این تحقیق برای ما رو کرد، دیدگاه یادگیری اجتماعی است.

او همچنین می‌گوید: به عنوان روانشناس اجتماعی، دائما در حال مطالعه این هستیم که چگونه می‌توانیم از دیگران بیاموزیم. اگر بخواهیم بفهمیم الگوریتم‌ها چگونه بر تعاملات اجتماعی ما تأثیر می‌گذارند، این چارچوب اساساً مهم است.

انسان‌ها تمایل دارند از دیگران به گونه‌ای بیاموزند که معمولاً همکاری و حل مشکلات جمعی را ترویج می‌کند، به همین دلیل است که آنها تمایل دارند از افرادی که آنها را بخشی از گروه خود می‌دانند و افرادی که آنها را معتبر می‌دانند بیشتر بیاموزند. علاوه بر این، زمانی که سوگیری‌های یادگیری برای اولین بار در حال تکامل بودند، اولویت‌بندی اطلاعات دارای بار اخلاقی و عاطفی مهم بود، زیرا این اطلاعات به احتمال زیاد برای اجرای هنجارهای گروهی و تضمین بقای جمعی مرتبط هستند.

در مقابل، الگوریتم‌های رسانه‌های اجتماعی معمولاً اطلاعاتی را انتخاب می‌کنند که تعامل کاربر را افزایش می‌دهد تا درآمد تبلیغاتی را افزایش دهد. این بدان معناست که الگوریتم‌ها همان اطلاعاتی را تقویت می‌کنند که انسان‌ها تمایل دارند از آنها بیاموزند، و می‌توانند فیدهای رسانه‌های اجتماعی را با اطلاعاتی که محققان آن را معتبر، درون گروهی، اخلاقی و احساسی می‌نامند، بدون توجه به صحت محتوا یا بازنمایی نظرات یک گروه، بیش از حد اشباع کنند. در نتیجه، محتوای سیاسی افراطی یا موضوعات بحث‌برانگیز احتمال بیشتری دارد که تقویت شوند و اگر کاربران در معرض نظرات بیرونی قرار نگیرند، ممکن است با درک نادرستی از نظر اکثریت گروه‌های مختلف مواجه شوند.

برادی می‌گوید: اینطور نیست که الگوریتم برای ایجاد اختلال در همکاری طراحی شده باشد. فقط اهداف آن متفاوت است. و در عمل، وقتی این کارکردها را کنار هم قرار می‌دهید، با برخی از این اثرات بالقوه منفی مواجه می‌شوید.

برای رفع این مشکل، گروه تحقیقاتی ابتدا پیشنهاد می‌کند که کاربران رسانه‌های اجتماعی باید از نحوه عملکرد الگوریتم‌ها و اینکه چرا محتوای خاصی در فید آنها نشان داده می‌شود، آگاهی بیشتری داشته باشند. شرکت‌های رسانه‌های اجتماعی معمولاً جزئیات کامل نحوه انتخاب الگوریتم‌هایشان را برای محتوا فاش نمی‌کنند، اما ممکن است یک شروع توضیحی برای این باشد که چرا یک پست خاص به کاربر نشان داده می‌شود.

به عنوان مثال، آیا به این دلیل است که دوستان کاربر با محتوا درگیر هستند یا به این دلیل که محتوا به طور کلی محبوب است؟ خارج از شرکت‌های رسانه‌های اجتماعی، تیم تحقیقاتی در حال توسعه مداخلات خود هستند تا به مردم بیاموزند که چگونه مصرف کنندگان آگاه‌تر رسانه‌های اجتماعی باشند.

علاوه بر این، محققان پیشنهاد می‌کنند که شرکت‌های رسانه‌های اجتماعی گام‌هایی برای تغییر الگوریتم‌های خود بردارند و در نتیجه در تقویت جامعه مؤثرتر باشند. الگوریتم‌ها می‌توانند به‌جای اینکه صرفاً اطلاعات معتبر، درون گروهی، اخلاقی و احساسی را ترجیح دهند، به کاربرانی اولویت دهند که با مجموعه‌ای متنوع از محتوا تعریف می‌شوند. این تغییرات می‌تواند به تقویت اطلاعات جذاب ادامه دهد و در عین حال از نمایش بیش از حد محتوای قطبی یا شدید سیاسی در فیدها جلوگیری کند.

انتهای پیام/

کد خبر: 1193242

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =