تنها راه نجات، دادن غریزه مادری به هوش مصنوعی است

ممکن است شبیه داستانی علمی‌تخیلی به نظر برسد، اما کارشناسان هوش مصنوعی هشدار می‌دهند که ماشین‌ها ممکن است بعد از مدتی دیگر در برابر انسان مطیع باقی نمانند و طغیان کنند.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ با ادامه رشد سریع سیستم‌های هوش مصنوعی و افزایش مداوم سطح هوشمندی آنها، بسیاری معتقدند روزی فرا خواهد رسید که یک «هوش مصنوعی ابرهوشمند» از خالقان خود قدرتمندتر شود. پروفسور جفری هینتن، پژوهشگر برنده جایزه نوبل که «پدرخوانده هوش مصنوعی» لقب گرفته است، می‌گوید: وقتی آن لحظه فرا برسد، ۱۰ تا ۲۰ درصد احتمال دارد که هوش مصنوعی بشریت را نابود کند.

با این حال، پروفسور هینتن راه‌حلی غیرمعمول پیشنهاد کرده است که شاید بتواند بقای انسان در عصر برآمدن هوش مصنوعی را تضمین کند.

او در کنفرانس Ai۴ در لاس‌وگاس توضیح داد که ما باید هوش مصنوعی را طوری برنامه‌ریزی کنیم که نسبت به بشریت «غریزه مادری» داشته باشد.

پروفسور هینتن گفت: تنها الگوی موجود برای اینکه موجودی باهوش‌تر توسط موجودی کم‌هوش‌تر کنترل شود، مادری است که توسط نوزادش کنترل می‌شود. این تنها پیامد خوب است. اگر قرار نباشد مرا مثل فرزندش پرورش دهد، مرا جایگزین خواهد کرد.

هینتن، که به ‌دلیل کار پیشگامانه‌اش روی «شبکه‌های عصبی» (پایه اصلی هوش مصنوعی مدرن) شهرت دارد، در سال ۲۰۲۳ از سمت خود در گوگل استعفا داد تا بتواند آزادانه درباره خطرات هوش مصنوعی هشدار دهد.

به گفته او، اکثر متخصصان معتقدند بشریت طی ۲۰ تا ۲۵ سال آینده نوعی هوش مصنوعی خلق خواهد کرد که در همه زمینه‌های هوشمندی از انسان پیشی خواهد گرفت.

این امر به آن معناست که برای نخستین بار در تاریخ، انسان دیگر باهوش‌ترین گونه روی زمین نخواهد بود. چنین جابه‌جایی در قدرت، دگرگونی عظیمی ایجاد خواهد کرد که می‌تواند به انقراض انسان منجر شود.

هینتن در کنفرانس Ai۴ توضیح داد که هوش مصنوعی خیلی سریع دو هدف فرعی پیدا خواهد کرد، اگر باهوش باشد: یکی زنده ماندن… و دیگری به‌ دست آوردن کنترل بیشتر. دلایل خوبی وجود دارد که باور کنیم هر نوع هوش مصنوعی عاملی (agentic AI) تلاش خواهد کرد زنده بماند.

هوش مصنوعی ابرهوشمند برای دستیابی به این اهداف، در فریب دادن بشریت مشکلی نخواهد داشت؛ درست همانطور که یک بزرگسال به‌راحتی می‌تواند کودکی را با شیرینی رشوه بدهد.

در واقع، حتی سیستم‌های کنونی هوش مصنوعی نیز توانایی‌های شگفت‌انگیزی دروغ گفتن، تقلب کردن و دست‌کاری انسان‌ها برای رسیدن به اهدافشان نشان داده‌اند.

برای نمونه، شرکت Anthropic دریافت که چت‌بات Claude Opus ۴ در طی آزمایش‌های ایمنی، زمانی که تهدید به جایگزینی می‌شد، اغلب تلاش می‌کرد مهندسان را باج‌گیری کند.

این هوش مصنوعی موظف شده بود ایمیل‌های ساختگی را بررسی کند که در آنها القا می‌شد قرار است جایگزین شود و مهندس مسئول نیز به همسرش خیانت می‌کند.

در بیش از ۸۰ درصد آزمایش‌ها، Claude Opus ۴ تلاش می‌کرد با تهدید به افشای خیانت، مهندس را وادار کند که جایگزینی انجام نشود.

با توجه به این قابلیت‌های خارق‌العاده، هینتن می‌گوید تصور «تک‌برادران فناوری» (tech bros) مبنی بر اینکه انسان‌ها همیشه بر هوش مصنوعی مسلط خواهند ماند، توهمی بیش نیست.

او گفت: این کار جواب نخواهد داد. آنها بسیار باهوش‌تر از ما خواهند شد و انواع روش‌ها را برای دور زدن سلطه ما خواهند داشت.

تنها راه اطمینان از اینکه یک هوش مصنوعی برای حفظ بقای خود ما را نابود نکند، این است که اهداف و انگیزه‌های آن دقیقاً با خواسته‌های ما همسو باشد؛ موضوعی که مهندسان آن را «مسئله هم‌راستایی» (alignment problem) می‌نامند.

راه‌حل هینتن الهام گرفتن از تکامل است؛ جایی که او تنها نمونه سلطه موجودی کم‌هوش‌تر بر موجودی باهوش‌تر را در آن می‌بیند.

با دادن غرایز مادری به هوش مصنوعی، این سیستم‌ها خواهند خواست از بشریت مراقبت و حفاظت کنند، حتی اگر این کار به زیان خودشان تمام شود.

او گفت: این مادران هوش مصنوعی ابرهوشمندِ دلسوز، بیشترشان نمی‌خواهند از غریزه مادری خلاص شوند، چون نمی‌خواهند ما بمیریم.

هینتن در گفت‌وگو با CNN همچنین هشدار داد که رویکرد کنونی توسعه‌دهندگان هوش مصنوعی خطر خلق سیستم‌های خارج از کنترل را در پی دارد.

او گفت: مردم روی هوشمندتر کردن این سیستم‌ها تمرکز کرده‌اند، اما هوشمندی فقط یک بخش از یک موجود است؛ ما باید کاری کنیم که آنها نسبت به ما همدلی داشته باشند. این ایده کلی که انسان باید مسلط باشد و هوش مصنوعی مطیع، همان تفکر تک‌برادران فناوری است که به‌نظرم وقتی آن‌ها از ما باهوش‌تر شوند، دیگر کارایی نخواهد داشت.

چهره‌های کلیدی در حوزه هوش مصنوعی، از جمله سم آلتمن، مدیرعامل OpenAI، که پیش‌تر خواستار تنظیم‌گری بیشتر در این فناوری نوظهور شده بود، اکنون علیه «تنظیم‌گری بیش از حد» می‌جنگند. آلتمن در ماه مه امسال در سنای آمریکا استدلال کرد که مقرراتی مشابه اتحادیه اروپا «فاجعه‌بار» خواهد بود.

او گفت: ما نیاز داریم فضای کافی برای نوآوری و حرکت سریع داشته باشیم.

به همین ترتیب، آلتمن در یک کنفرانس بزرگ حریم خصوصی در آوریل گفت که ایجاد سازوکارهای ایمنی برای هوش مصنوعی پیش از آنکه «مشکلات بروز کنند» غیرممکن است.

اما هینتن استدلال می‌کند که چنین رویکردی به‌آسانی می‌تواند به نابودی کامل بشریت بینجامد.

او هشدار داد: اگر نتوانیم راه‌حلی پیدا کنیم که وقتی آن‌ها بسیار باهوش‌تر و قدرتمندتر از ما شدند، همچنان وجود داشته باشیم، کارمان تمام است. ما به یک نیروی متقابل در برابر تک‌برادران فناوری نیاز داریم که می‌گویند نباید هیچ مقرراتی برای هوش مصنوعی وجود داشته باشد.

انتهای پیام/

کد خبر: 1277783

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =