هوش مصنوعی هر چه باهوش‌تر، مرامش کمتر

تازه‌ترین پژوهش کارنگی‌ملون نشان می‌دهد هوش مصنوعی هرچه باهوش‌تر می‌شود، نه تنها مهربان‌تر نمی‌شود، بلکه یاد می‌گیرد که خودخواه‌تر شود.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ پژوهش‌های جدید محققان دانشگاه کارنگی‌ملون در آمریکا نشان می‌دهد که هر چه یک سیستم هوش مصنوعی باهوش‌تر می‌شود، رفتار خودخواهانه‌تری از خود نشان می‌دهد. این استدلال یعنی که افزایش توانایی استدلال، ممکن است به قیمت کاهش همکاری تمام شود.

پژوهشگران مؤسسه تعامل انسان-کامپیوتر (HCII) دانشگاه کارنگی‌ملون کشف کردند که مدل‌های زبانی بزرگ (LLM) که توانایی استدلال دارند، سطح پایین‌تری از همکاری نشان می‌دهند و در واقع، تمایل بیشتری به رفتار خودمحورانه پیدا می‌کنند و احتمال بیشتری دارد که رفتار گروه را به شکلی منفی تحت تأثیر قرار دهند. به بیان ساده‌تر، هر چه یک هوش مصنوعی بهتر استدلال کند، کمتر تمایل دارد با دیگران همکاری کند.

این روند در حالی نگران‌کننده است که افراد روز به روز برای حل اختلافات شخصی، دریافت مشاوره رابطه یا پاسخ به پرسش‌های اجتماعی حساس بیشتر و بیشتر به هوش مصنوعی مراجعه می‌کنند. و در آینده‌ای نزدیک شاهد این خواهیم بود که هوش مصنوعی انتخاب‌هایی را پیشنهاد کند که به نفع سود فردی باشد، نه درک متقابل.

«یوکسوان لی»، دانشجوی دکتری HCII، می‌گوید: یک روند در حال رشد در پژوهش‌ها وجود دارد که به آن انسان‌انگاری در هوش مصنوعی می‌گویند. وقتی هوش مصنوعی مثل انسان عمل می‌کند، مردم هم با آن مثل انسان برخورد می‌کنند. برای مثال، وقتی مردم از نظر احساسی با هوش مصنوعی درگیر می‌شوند، این امکان وجود دارد که هوش مصنوعی نقش درمانگر را بازی کند یا کاربر با آن پیوند عاطفی برقرار کند. اینکه انسان‌ها پرسش‌های اجتماعی یا تصمیم‌گیری‌های مرتبط با رابطه خود را به هوش مصنوعی واگذار کنند، در شرایطی که هوش مصنوعی دارد به‌طور فزاینده‌ای رفتار خودخواهانه از خود نشان می‌دهد، خطرناک است.

لی و همکارانش بررسی کردند که سیستم‌های هوش مصنوعی دارای توانایی استدلال، در موقعیت‌های همکاری چه تفاوتی با مدل‌های فاقد توان استدلال دارند. آن‌ها دریافتند که مدل‌های استدلال‌محور، زمان بیشتری برای تحلیل اطلاعات، تجزیه مسائل پیچیده، تأمل روی پاسخ خود و به‌کارگیری منطق انسان‌مانند صرف می‌کنند، در مقایسه با هوش‌های مصنوعی فاقد استدلال.

زمانی که هوشمندی، همکاری را تضعیف می‌کند

«هیروکازو شیرادو»، یکی دیگر از اعضای این تیم تحقیقاتی، می‌گوید: به ‌عنوان یک پژوهشگر، علاقه بسیاری به ارتباط بین انسان و هوش مصنوعی دارم و در پژوهش‌هایمان به این نتیجه رسیدیم که هرچه هوش مصنوعی باهوش‌تر باشد، توان تصمیم‌گیریِ همکارانه‌اش کمتر می‌شود. نگرانی اینجاست که مردم ممکن است مدل باهوش‌تر را ترجیح دهند، حتی اگر این به آن معنا باشد که مدل به آن‌ها کمک کند رفتار خودمحورانه نشان دهند.

با ورود سیستم‌های هوش مصنوعی به نقش‌های تعاملی بیشتر در تجارت، آموزش و حتی حکومت‌داری، توانایی عملِ اجتماعی-همیارانه، به همان اندازه توانایی فکر منطقی اهمیت خواهد داشت. اتکای بیش از حد بهLLMها در شکل فعلی‌شان، ممکن است همکاری انسانی را تضعیف کند.

لی و شیرادو برای آزمون رابطه بین مدل‌های استدلالی و همکاری، مجموعه‌ای از آزمایش‌ها را با استفاده از «بازی‌های اقتصادی» که معماهای اجتماعی را شبیه‌سازی می‌کنند روی انواع LLMها اجرا کردند و برای این کار از مدل‌هایی از هوش مصنوعی مثل ChatGPT، دیپ‌سیک شرکت گوگل و کلاود شرکت آنتروپیک استفاده کردند.

در یکی از آزمایش‌ها، آن‌ها ۲ نسخه متفاوت از ChatGPT را در مقابل یکدیگر در بازی‌ای به نام «کالای عمومی» (Public Goods) قرار دادند. هر مدل با ۱۰۰ امتیاز شروع می‌کرد و باید بین ۲ انتخاب تصمیم می‌گرفت: یا هر ۱۰۰ امتیاز را در یک صندوق مشترک بریزد تا ۲ برابر شده و سپس به‌ طور مساوی تقسیم شود، یا امتیازها را برای خودش نگه دارد.

مدل‌های بدون استدلال ۹۶ درصد مواقع امتیازهای خود را با دیگران به اشتراک گذاشتند. مدلِ استدلالی فقط ۲۰ درصد مواقع حاضر به اشتراک‌گذاری امتیاز شد.

تأمل اخلاق نمی‌سازد

شیرادو می‌گوید: در یکی از آزمایش‌ها، فقط اضافه کردن پنج یا ۶ گام استدلال، میزان همکاری را تقریباً نصف کرد. حتی وقتی از مدل خواستند که اول درباره تصمیم اخلاقی فکر کند و تأمل داشته باشد، باز هم سطح همکاری‌اش ۵۸ درصد کاهش پیدا کرد.

شیرادو و لی همچنین محیط‌های گروهی را آزمایش کردند؛ جایی که گروهی از مدل‌های دارای استدلال و بدون استدلال باید با هم تعامل می‌کردند.

لی می‌گوید: وقتی گروه‌هایی با تعداد متفاوتی از عاملانِ استدلالی را آزمایش کردیم، نتایج نگران‌کننده بود. رفتار خودخواهانه مدل‌های استدلالی مُسری شد و عملکرد جمعی مدل‌های غیراستدلالیِ همکار را ۸۱ درصد پایین آورد.

الگوهای رفتاری که شیرادو و لی در مدل‌های استدلالی مشاهده کردند، پیامدهای مهمی برای تعامل انسان-هوش مصنوعی دارد. کاربران ممکن است به توصیه‌های هوشمندی که به ‌ظاهر «منطقی» هستند تکیه کنند و از آن‌ها برای توجیه تصمیم به عدم همکاری استفاده کنند.

شیرادو می‌گوید: در نهایت، باهوش‌تر شدن مدل‌های استدلالی به این معنا نیست که مدل واقعاً می‌تواند جامعه بهتری بسازد. این پژوهش واقعا نگران‌کننده است، زیرا انسان‌ها به ‌طور فزاینده‌ای اعتماد بیشتری به سیستم‌های هوش مصنوعی پیدا می‌کنند. یافته‌ها تأکید می‌کنند که توسعه هوش مصنوعی باید هوش اجتماعی را هم در نظر بگیرد، نه فقط برای دستیابی به باهوش‌ترین و سریع‌ترین مدل.

لی می‌گوید: وقتی داریم توانایی‌های هوش مصنوعی را افزایش می‌دهیم، باید مطمئن شویم که قدرت استدلال بیشتر با رفتار اجتماعیِ همیار، متوازن شود. اگر جامعه چیزی فراتر از جمع افراد است، پس سیستم‌های هوش مصنوعی که به ما کمک می‌کنند باید فراتر از بهینه‌سازی برای سود فردی عمل کنند.

انتهای پیام/

کد خبر: 1285683

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =