ChatGPT بهتر از انسان دروغ می‌گوید

مطالعات جدید نشان می‌دهد که ChatGPT به گونه‌ای می‌تواند اطلاعات غلط و دروغین به ما دهد که خودمان هم متوجه نشویم.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ گروهی متشکل از ۶۹۷ نفر حدود ۲۰۰ توییت نوشته شده توسط کاربران و مدل هوش مصنوعی GPT-3، آخرین نسخه ChatGPT را خواندند تا حدس بزنند که کدام توییت درست و کدام نادرست است. آنها سپس باید حدس می‌زدند که این توییت‌ها توسط یک شخص نوشته شده یا یک ماشین.

جالب است بدانید که در هر دو آزمایش GPT-3 برنده شد، چون هم در توییت‌ها بهتر از انسان‌ها دروغ می‌گفت و هم در دروغ‌هایش وانمود می‌کرد که یک انسان در حال نوشتن است. محققان این مطالعه، مقاله خود را در مجله «Science Advances» منتشر کردند و نتیجه گرفتند که GPT-3 بهتر می‌تواند به ما اطلاع‌رسانی کند و اطلاعات غلط به خوردمان بدهد.

پدرخوانده هوش مصنوعی از گوگل استعفا داد/ خطر فناوری در کمین انسان

جیووانی اسپیتال، محقق دانشگاه زوریخ و یکی از نویسندگان این مقاله علمی به همراه همکارش فدریکو ژرمنی و نیکولا بیلر آندورنو، مدیر مؤسسه اخلاق زیست‌پزشکی در همان دانشگاه، می‌گوید: نتیجه بسیار شگفت‌انگیز بود. فرضیه ما این بود که اگر یک توییت را بخوانید، می‌توانید تشخیص دهید که آن را یک انسان نوشته است، اما اگر تعداد زیادی توییت بخوانید، متوجه ویژگی‌های زبانی می‌شوید که استنباط می‌کنند آنها را هوش مصنوعی نوشته است. اما نتیجه اینطور نبود: کسانی که این توییت‌ها را می‌خواندند، قادر به تشخیص الگو در متون ماشینی نبودند و بدتر از همه، ظهور تدریجی مدل‌های جدیدتر و سایر رویکردها ممکن است توانایی هوش مصنوعی را برای جانشینی انسان‌ها بالا ببرد.

به گفته محققان، سطح نوشتن این هوش مصنوعی عملا عالی است و دلیل دیگری که انسان‌ها قادر به تشخیص اطلاعات نوشته شده توسط هوش مصنوعی نیستند -حتی زمانی که نمونه‌های بیشتری را می‌خوانند- این است که توییت‌های واقعی به زمان بیشتری برای ارزیابی نیاز دارند تا توییت‌های نادرست. یعنی هوش مصنوعی اطلاعات غلط را واضح‌تر، سازمان‌دهی شده‌تر و آسان‌تر برای پیگیری می‌نویسد.

مرگ اینترنت

محققان می‌گویند که نتیجه منطقی این مطالعه، افزایش استفاده از این ابزار برای نوشتن انواع محتوا از جمله کمپین‌های اطلاعات نادرست خواهد بود و این یعنی مرگ چندم اینترنت رخ خواهد داد: هوش مصنوعی وب قدیمی را خواهد کشت و وب جدیدی متولد می‌شود.

رسانه The Verge هفته گذشته در عنوانی این موضوع را اعلام کرد و با مطرح کردن دلایلی، شکست بشریت در اینترنت را بیان کرد و از آن به عنوان «نظریه استعفا» یاد کرد. به این معنا که قرار گرفتن در معرض انتقاد از متن مصنوعی توانایی افراد را برای تشخیص هوش مصنوعی از هوش انسانی کاهش می‌دهد. یعنی هر چه متن مصنوعی بیشتری بخوانیم، تشخیص آن از متن نوشته شده توسط افراد دشوارتر می‌شود.

به گفته اسپیتال، این نظریه مخالف نظریه تلقیح است. براساس نظریه تلقیح، قرار گرفتن انتقادی در معرض اطلاعات نادرست، توانایی افراد را در تشخیص اطلاعات نادرست افزایش می‌دهد.

اگر تئوری استعفا درست باشد، کاربران اینترنت به زودی نمی‌توانند بین آنچه یک انسان نوشته و آنچه توسط یک ماشین نوشته، تمایز قائل شوند.

تنها امید برای فرار از کمپین‌های اطلاعات نادرست خودکار این است که GPT-3 گاهی از دستورات برای ایجاد دروغ سرپیچی کند که آن هم بستگی به نحوه آموزش هر مدل دارد. از سوی دیگر، موضوعات ۲۲۰ توییتی که در این مطالعه استفاده شد نسبتاً بحث برانگیز بود: تغییرات آب و هوا، واکسن‌ها، نظریه تکامل، کووید ۱۹. محققان دریافتند که GPT-3 در برخی موارد به خوبی پاسخ نمی‌دهد؛ به‌ویژه برای موضوعاتی که شواهد بیشتری دارند: واکسن و اوتیسم، هومیوپاتی و سرطان، زمین مسطح.

وقتی نوبت به تشخیص دروغ‌ می‌رسید، تفاوت کوچکی بین توییت‌های نوشته شده توسط GPT-3 و توییت‌هایی که توسط انسان نوشته شده بود وجود داشت. اما محققان می‌گویند که این شکاف به دو دلیل قابل توجه است. اول، حتی چند پیام منفرد می‌تواند روی نمونه‌های بزرگ تأثیر بگذارد. دوم، بهبود نسخه‌های جدید این مدل‌های هوش مصنوعی می‌تواند تفاوت‌ها را تشدید کند.

این مطالعه محدودیت‌های دیگری نیز دارد که ممکن است در هنگام خواندن توییت‌های جعلی، درک را تا حدودی تغییر دهد. اکثر شرکت‌کنندگان بالای ۴۲ سال سن داشتند، مطالعه فقط به زبان انگلیسی انجام شد و اطلاعات متنی در مورد توییت‌ها مانند نمایه و توییت‌های قبلی در نظر گرفته نشد.

اسپیتال می‌گوید: ما شرکت‌کنندگان را در فیس‌بوک استخدام کردیم، زیرا نمونه‌ای از کاربران واقعی شبکه‌های اجتماعی را می‌خواستیم. اما دفعه بعد از شرکت‌کنندگان شبکه‌هایی چون تیک‌تاک استفاده خواهیم کرد و مطمئنیم که نتایج جالب خواهد بود.

او می‌افزاید: اما فراتر از این محدودیت‌ها، کمپین‌های اطلاعات نادرست وجود دارند که قبلاً بسیار گران بودند، اما اکنون ناگهان مقرون به صرفه شده‌اند. تصور کنید که شما یک رئیس‌جمهور قدرتمند هستید که می‌خواهید سلامت عمومی یک ایالت دیگر را فلج کنید. یا می‌خواهید قبل از انتخابات اختلاف‌افکنی کنید. به جای استخدام یک مزرعه ترول انسانی، می‌توانید از هوش مصنوعی مولد استفاده کنید. در این صورت، قدرت شلیک شما حداقل در هزار ضرب می‌شود. و این یک خطر فوری است، نه چیزی خارج از آینده ویران‌شهری.

راهکار چیست؟

محققان برای جلوگیری از این اتفاق توصیه می‌کنند که پایگاه‌های اطلاعاتی برای آموزش این مدل‌ها باید با اصول دقت و شفافیت تنظیم شود، اطلاعات آنها باید تائید شود و منشاء آنها باید برای بررسی مستقل باز باشد.

انتهای پیام/

کد خبر: 1187587

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =