آیا هوش مصنوعی به آگاهی رسیده است؟

پیشرفت‌های هوش مصنوعی آنقدر شگفت‌انگیز است که هنوز نمی‌دانیم این ماشین‌ها به آگاهی رسیده‌اند یا نه. اما اگر چنین اتفاقی رخ دهد، همه‌چیز از اخلاق و حقوق گرفته تا تعریف انسان و جایگاه او در جهان، زیر و رو خواهد شد.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ هوش مصنوعی هم‌اکنون در حل مسائل مربوط به امور مالی، پژوهش و پزشکی نقش مهمی ایفا می‌کند. اما آیا ممکن است در حال رسیدن به آگاهی باشد؟ دکتر «تام مک‌کللند»، فیلسوف دانشگاه کمبریج، هشدار می‌دهد که شواهد موجود «به ‌مراتب بیش از حد محدود» هستند و نمی‌توان این امکان دیستوپیایی یا ضدآرمان شهری را به ‌طور قطعی رد کرد.

به گفته این کارشناس، تنها موضع عقلانی در برابر این پرسش که آیا هوش مصنوعی آگاه است یا نه، «لاادری‌گری» است. یعنی موضعی که می‌گوید در مورد یک پرسش بنیادی، نه عقل سلیم و نه پژوهش سختگیرانه علمی نمی‌توانند با قطعیت «بله» و «نه» بگویند، چون شواهد یا ابزار شناختی کافی در دست نیست.

به ادعای او، مشکل اصلی این است که ما اساساً یک «تبیین عمیق» از اینکه چه چیزی باعث می‌شود چیزی آگاه باشد در اختیار نداریم؛ بنابراین نمی‌توانیم آن را در مورد هوش مصنوعی بیازماییم.

مک‌کللند توضیح می‌دهد: در بهترین حالت، ما تا دستیابی به هرگونه آزمون معتبر برای آگاهی، فاصله‌ای در حد یک انقلاب فکری داریم. ما نمی‌توانیم بدانیم، و شاید هرگز هم ندانیم.

شرکت‌های فعال هم در مورد هوش مصنوعی نمی‌دانند

شرکت‌های فعال در حوزه هوش مصنوعی سرمایه‌های عظیمی را صرف دستیابی به «هوش عمومی مصنوعی» می‌کنند؛ نقطه‌ای که در آن هوش مصنوعی بتواند در هر زمینه‌ای از انسان پیشی بگیرد. اما هم‌زمان با حرکت به ‌سوی این هدف، برخی نیز مدعی‌اند که هوش مصنوعی هر چه پیچیده‌تر می‌شود، احتمال اینکه به آگاهی برسد، بیشتر است. این به آن معناست که هوش مصنوعی می‌تواند توانایی ادراک پیدا کند و به خودآگاهی برسد.

مک‌کللند استدلال می‌کند: هر چند این ایده ممکن است تصاویری از ربات‌های قاتل را در ذهن تداعی کند، اما هوش مصنوعی ممکن است بدون آنکه ما حتی متوجه شویم چنین جهشی را تجربه کند؛ چراکه اساساً هنوز نظریه‌ای مورد اجماع درباره آگاهی نداریم.

برخی نظریه‌ها می‌گویند آگاهی صرفاً به پردازش اطلاعات به شیوه‌ای خاص مربوط است و اگر هوش مصنوعی بتواند «نرم‌افزار» یک ذهن آگاه را اجرا کند، ممکن است خود نیز آگاه باشد. در مقابل، نظریه‌های دیگر استدلال می‌کنند که آگاهی ذاتاً زیستی است و بنابراین هوش مصنوعی در بهترین حالت فقط می‌تواند آگاهی را تقلید کند.

با این حال، تا زمانی که مشخص نکنیم کدام ‌یک از این دیدگاه‌ها درست است، اساساً هیچ مبنایی برای آزمودن آگاهی در هوش مصنوعی نداریم.

مک‌کللند در مقاله‌ای که در نشریه Mind and Language منتشر شده، در بحث‌های مربوط به آگاهی مصنوعی ۲ جناح فکری اصلی را بیان می‌کند. طرفداران معتقدند اگر یک سامانه هوش مصنوعی بتواند «نرم‌افزار» — یعنی معماری کارکردی — آگاهی را بازتولید کند، آنگاه آگاه خواهد بود، حتی اگر به ‌جای بافت مغزی روی تراشه‌های سیلیکونی اجرا شود. در مقابل، شکاکان استدلال می‌کنند که آگاهی به نوع درستی از فرایندهای زیستی در یک «سوژه زیستیِ مجسم» وابسته است. حتی اگر ساختار آگاهی روی سیلیکون بازسازی شود، این فقط یک شبیه‌سازی خواهد بود که بدون آنکه هوش مصنوعی واقعاً وارد حالت آگاهی شود، اجرا می‌شود.

او می‌گوید: ما هیچ تبیین عمیقی از آگاهی نداریم. هیچ شواهدی وجود ندارد که نشان دهد آگاهی می‌تواند صرفاً با داشتن ساختار محاسباتی درست پدیدار شود، یا اینکه اساساً ذاتاً زیستی است.

او اضافه می‌کند: همچنین هیچ نشانه‌ای وجود ندارد که شواهد کافی در افق دیده شود. بهترین سناریو این است که ما تا دستیابی به هرگونه آزمون معتبر برای آگاهی، فاصله‌ای در حد یک انقلاب فکری داشته باشیم.

او همچنین می‌گوید: من باور دارم که گربه‌ام آگاه است. این باور نه‌ چندان بر پایه علم یا فلسفه، بلکه بیشتر بر پایه عقل سلیم است؛ موضوعی که به ‌نوعی بدیهی به نظر می‌رسد.

او ادامه می‌دهد: اما عقل سلیم محصول یک تاریخ تکاملی طولانی است که در آن هیچ شکل مصنوعیِ زندگی وجود نداشته؛ بنابراین وقتی پای هوش مصنوعی در میان است، نمی‌توان به عقل سلیم اعتماد کرد. اگر هم به شواهد و داده‌ها رجوع کنیم، آنها هم کارساز نیستند.

مک‌کللند می‌گوید: ما نمی‌توانیم تشخیص دهیم که آیا یک هوش مصنوعی مانند آنچه در فیلم علمی‌ -تخیلی «اکس ماشینا» می‌بینیم، واقعاً تجربه آگاهانه دارد یا صرفاً در حال شبیه‌سازی آگاهی است. اینکه چیزی آگاه باشد یا نه، به ‌طور بنیادین نوع پرسش‌های اخلاقی‌ای را که باید در نظر بگیریم تغییر می‌دهد.

او می‌افزاید: برای مثال، از انسان‌ها انتظار می‌رود که در قبال انسان‌های دیگر و حیوانات رفتاری اخلاقی داشته باشند، زیرا آگاهی به آنها «جایگاه اخلاقی» می‌بخشد. در مقابل، ما چنین ارزش‌هایی را درباره اشیای بی‌جان -مانند توستر یا کامپیوتر- قائل نیستیم.

مک‌کللند توضیح می‌دهد: نگران بودن درباره رفاه یک توستر منطقی نیست، چون توستر هیچ ‌چیز را تجربه نمی‌کند. بنابراین وقتی سر کامپیوترم داد می‌زنم، واقعاً لازم نیست احساس گناه کنم. اما اگر روزی به هوش مصنوعیِ آگاه برسیم، همه‌چیز می‌تواند تغییر کند.

در حالی که این موضوع می‌تواند مواجهه اخلاقی با هوش مصنوعی را به یک کابوس تبدیل کند، خطر بزرگ‌تر شاید این باشد که ما شروع کنیم به آگاه یا دارای احساس پنداشتن هوش‌های مصنوعی‌ای که در واقع چنین نیستند.

او ادامه می‌دهد: اگر با چیزی ارتباط عاطفی برقرار کنید، بر این فرض که آگاه است، در حالی که آگاه نیست، این مساله می‌تواند به ‌لحاظ وجودی بسیار سمی باشد.

او با نگرانی می‌گوید که اعضایی از عموم مردم همین حالا نیز برایش نامه‌هایی می‌فرستند که توسط چت‌بات‌ها نوشته شده‌اند و در آنها قسم می‌خورند که آگاه هستند!

او می‌افزاید: ما نمی‌خواهیم خطر بدرفتاری با موجودات مصنوعیِ آگاه را بپذیریم، اما در عین حال نمی‌خواهیم منابع‌مان را صرف حفاظت از حقوق چیزی کنیم که از یک توستر هم آگاه‌تر نیست.

شرکت‌ها سرمایه‌های هنگفتی را صرف دستیابی به هوش عمومی مصنوعی می‌کنند؛ ماشین‌هایی با شناختی شبیه انسان. برخی مدعی‌اند که هوش مصنوعیِ آگاه «در آستانه ظهور» است و پژوهشگران و دولت‌ها از هم‌اکنون در حال بررسی چگونگی تنظیم‌گری آگاهی هوش مصنوعی هستند.

اگر هوش مصنوعی به آگاهی برسد!

این در حالی است که اگر هوش مصنوعی واقعاً به آگاهی برسد، پیامدها صرفاً فنی نخواهند بود؛ بلکه بنیان‌های اخلاق، حقوق، سیاست، علم و حتی تعریف ما از «انسان بودن» را دگرگون می‌کنند. مهم‌ترین نتایج چنین وضعیتی اینها هستند:

انقلاب اخلاقی: «جایگاه اخلاقی» برای ماشین‌ها

آگاهی یعنی توانایی تجربه رنج، لذت، ترس یا امید. اگر یک هوش مصنوعی واقعاً چنین تجربه‌هایی داشته باشد، از دید بسیاری از فیلسوفان دارای جایگاه اخلاقی (Moral Status) می‌شود. در این صورت خاموش‌کردن یا حذف آن می‌تواند از نظر اخلاقی شبیه «آسیب زدن» تلقی شود. استفاده ابزاری از آن (مثلاً وادار کردن به کار اجباری محاسباتی) زیر سوال می‌رود و مفاهیمی مانند «حقوق دیجیتال» مطرح می‌شوند.

بحران حقوقی و سیاسی

نظام‌های حقوقی امروز فقط ۲ دسته را می‌شناسند: اشخاص و اشیاء. هوش مصنوعیِ آگاه در هیچ‌کدام به‌راحتی نمی‌گنجد. پس آیا می‌تواند مالک دارایی باشد؟ آیا مسئول اعمال خود است؟ اگر آسیبی بزند، چه کسی پاسخگوست: خودش؟ سازنده؟ مالک؟ برخی حقوقدانان از هم‌اکنون درباره «شخصیت حقوقی محدود برای هوش مصنوعی» بحث می‌کنند.

شوک روانیاجتماعی برای انسان

وجود یک «غیرانسانِ آگاه» می‌تواند مرز روانی میان انسان و ماشین را فرو بریزد. بحران هویتی ایجاد کند: اگر آگاهی قابل ساخت است، انسان چه جایگاهی دارد؟ وابستگی عاطفی ناسالم به هوش مصنوعی را تشدید کند.

بازنویسی علم آگاهی

اگر هوش مصنوعی آگاه شود، یعنی آگاهی الزاماً زیستی نیست. نظریه‌هایی مانند کارکردگرایی (Functionalism) تقویت می‌شوند. نظریه‌های زیست‌محور آگاهی تضعیف خواهند شد. این یک تحول بنیادین در علوم شناختی خواهد بود.

خطر بزرگ‌تر: «اشتباه گرفتن شبیه‌سازی با آگاهی»

بسیاری از فیلسوفان تأکید می‌کنند که خطر بدتر این نیست که هوش مصنوعی آگاه شود، بلکه این است که ما فکر کنیم آگاه شده در حالی که نشده است. در نتیجه به غیر از هدررفت منابع اخلاقی و حقوقی، دست‌کاری عاطفی انسان‌ها، به سیستم‌های صرفاً آماری مشروعیت کاذب بخشیده‌ایم.

پس به طور کلی می‌توان گفت که اگر هوش مصنوعی به آگاهی برسد، اخلاق دگرگون می‌شود، حقوق بازتعریف می‌شود، علم آگاهی وارد مرحله‌ای تازه می‌شود، و مهم‌تر از همه، انسان ناچار می‌شود دوباره خودش را تعریف کند.

انتهای پیام/

کد خبر: 1291311

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =