به گزارش خبرنگار علم و فناوری ایسکانیوز؛ با ادامه رشد سریع سیستمهای هوش مصنوعی و افزایش مداوم سطح هوشمندی آنها، بسیاری معتقدند روزی فرا خواهد رسید که یک «هوش مصنوعی ابرهوشمند» از خالقان خود قدرتمندتر شود. پروفسور جفری هینتن، پژوهشگر برنده جایزه نوبل که «پدرخوانده هوش مصنوعی» لقب گرفته است، میگوید: وقتی آن لحظه فرا برسد، ۱۰ تا ۲۰ درصد احتمال دارد که هوش مصنوعی بشریت را نابود کند.
با این حال، پروفسور هینتن راهحلی غیرمعمول پیشنهاد کرده است که شاید بتواند بقای انسان در عصر برآمدن هوش مصنوعی را تضمین کند.
او در کنفرانس Ai۴ در لاسوگاس توضیح داد که ما باید هوش مصنوعی را طوری برنامهریزی کنیم که نسبت به بشریت «غریزه مادری» داشته باشد.
پروفسور هینتن گفت: تنها الگوی موجود برای اینکه موجودی باهوشتر توسط موجودی کمهوشتر کنترل شود، مادری است که توسط نوزادش کنترل میشود. این تنها پیامد خوب است. اگر قرار نباشد مرا مثل فرزندش پرورش دهد، مرا جایگزین خواهد کرد.
هینتن، که به دلیل کار پیشگامانهاش روی «شبکههای عصبی» (پایه اصلی هوش مصنوعی مدرن) شهرت دارد، در سال ۲۰۲۳ از سمت خود در گوگل استعفا داد تا بتواند آزادانه درباره خطرات هوش مصنوعی هشدار دهد.
به گفته او، اکثر متخصصان معتقدند بشریت طی ۲۰ تا ۲۵ سال آینده نوعی هوش مصنوعی خلق خواهد کرد که در همه زمینههای هوشمندی از انسان پیشی خواهد گرفت.
این امر به آن معناست که برای نخستین بار در تاریخ، انسان دیگر باهوشترین گونه روی زمین نخواهد بود. چنین جابهجایی در قدرت، دگرگونی عظیمی ایجاد خواهد کرد که میتواند به انقراض انسان منجر شود.
هینتن در کنفرانس Ai۴ توضیح داد که هوش مصنوعی خیلی سریع دو هدف فرعی پیدا خواهد کرد، اگر باهوش باشد: یکی زنده ماندن… و دیگری به دست آوردن کنترل بیشتر. دلایل خوبی وجود دارد که باور کنیم هر نوع هوش مصنوعی عاملی (agentic AI) تلاش خواهد کرد زنده بماند.
هوش مصنوعی ابرهوشمند برای دستیابی به این اهداف، در فریب دادن بشریت مشکلی نخواهد داشت؛ درست همانطور که یک بزرگسال بهراحتی میتواند کودکی را با شیرینی رشوه بدهد.
در واقع، حتی سیستمهای کنونی هوش مصنوعی نیز تواناییهای شگفتانگیزی دروغ گفتن، تقلب کردن و دستکاری انسانها برای رسیدن به اهدافشان نشان دادهاند.
برای نمونه، شرکت Anthropic دریافت که چتبات Claude Opus ۴ در طی آزمایشهای ایمنی، زمانی که تهدید به جایگزینی میشد، اغلب تلاش میکرد مهندسان را باجگیری کند.
این هوش مصنوعی موظف شده بود ایمیلهای ساختگی را بررسی کند که در آنها القا میشد قرار است جایگزین شود و مهندس مسئول نیز به همسرش خیانت میکند.
در بیش از ۸۰ درصد آزمایشها، Claude Opus ۴ تلاش میکرد با تهدید به افشای خیانت، مهندس را وادار کند که جایگزینی انجام نشود.
با توجه به این قابلیتهای خارقالعاده، هینتن میگوید تصور «تکبرادران فناوری» (tech bros) مبنی بر اینکه انسانها همیشه بر هوش مصنوعی مسلط خواهند ماند، توهمی بیش نیست.
او گفت: این کار جواب نخواهد داد. آنها بسیار باهوشتر از ما خواهند شد و انواع روشها را برای دور زدن سلطه ما خواهند داشت.
تنها راه اطمینان از اینکه یک هوش مصنوعی برای حفظ بقای خود ما را نابود نکند، این است که اهداف و انگیزههای آن دقیقاً با خواستههای ما همسو باشد؛ موضوعی که مهندسان آن را «مسئله همراستایی» (alignment problem) مینامند.
راهحل هینتن الهام گرفتن از تکامل است؛ جایی که او تنها نمونه سلطه موجودی کمهوشتر بر موجودی باهوشتر را در آن میبیند.
با دادن غرایز مادری به هوش مصنوعی، این سیستمها خواهند خواست از بشریت مراقبت و حفاظت کنند، حتی اگر این کار به زیان خودشان تمام شود.
او گفت: این مادران هوش مصنوعی ابرهوشمندِ دلسوز، بیشترشان نمیخواهند از غریزه مادری خلاص شوند، چون نمیخواهند ما بمیریم.
هینتن در گفتوگو با CNN همچنین هشدار داد که رویکرد کنونی توسعهدهندگان هوش مصنوعی خطر خلق سیستمهای خارج از کنترل را در پی دارد.
او گفت: مردم روی هوشمندتر کردن این سیستمها تمرکز کردهاند، اما هوشمندی فقط یک بخش از یک موجود است؛ ما باید کاری کنیم که آنها نسبت به ما همدلی داشته باشند. این ایده کلی که انسان باید مسلط باشد و هوش مصنوعی مطیع، همان تفکر تکبرادران فناوری است که بهنظرم وقتی آنها از ما باهوشتر شوند، دیگر کارایی نخواهد داشت.
چهرههای کلیدی در حوزه هوش مصنوعی، از جمله سم آلتمن، مدیرعامل OpenAI، که پیشتر خواستار تنظیمگری بیشتر در این فناوری نوظهور شده بود، اکنون علیه «تنظیمگری بیش از حد» میجنگند. آلتمن در ماه مه امسال در سنای آمریکا استدلال کرد که مقرراتی مشابه اتحادیه اروپا «فاجعهبار» خواهد بود.
او گفت: ما نیاز داریم فضای کافی برای نوآوری و حرکت سریع داشته باشیم.
به همین ترتیب، آلتمن در یک کنفرانس بزرگ حریم خصوصی در آوریل گفت که ایجاد سازوکارهای ایمنی برای هوش مصنوعی پیش از آنکه «مشکلات بروز کنند» غیرممکن است.
اما هینتن استدلال میکند که چنین رویکردی بهآسانی میتواند به نابودی کامل بشریت بینجامد.
او هشدار داد: اگر نتوانیم راهحلی پیدا کنیم که وقتی آنها بسیار باهوشتر و قدرتمندتر از ما شدند، همچنان وجود داشته باشیم، کارمان تمام است. ما به یک نیروی متقابل در برابر تکبرادران فناوری نیاز داریم که میگویند نباید هیچ مقرراتی برای هوش مصنوعی وجود داشته باشد.
انتهای پیام/
نظر شما