مرده‌بات‌ها بعد از مرگ به حرف می‌آیند/ چالش اخلاقی هوش مصنوعی که از مرده‌ها تقلید می‌کنند

این روزها سیستم‌های یادگیری ماشینی به شکل چت‌بات‌هایی درآمده‌اند که از افراد مرده تقلید می‌کنند تا به اطرافیان از دست رفته تسلی بدهند و با آنها صحبت کنند. اما این موضوع از لحاظ اخلاقی قابل بررسی است.

به گزارش گروه علم و فناوری باشگاه خبرنگاران دانشجویی(ایسکانیوز)؛ سیستم‌های یادگیری ماشینی روز به روز بیشتر راه خود را در زندگی روزمره ما باز می‌کنند و از سوی دیگر، ارزش‌های اخلاقی و اجتماعی ما و همچنین قوانین حاکم بر آنها را به چالش می‌کشند.

این روزها دستیارهای مجازی، حریم خانه را تهدید می‌کنند و پیشنهاد کننده‌های اخبار (برنامه‌هایی که به کاربران کمک می‌کنند محتوای آنلاین مورد نیازشان را بیایند و در واقع، توجه کاربران را به سمت اطلاعاتی که برایشان مهم‌تر است معطوف کنند) درک ما را از جهان شکل می‌دهند، سیستم‌های پیش‌بینی خطر، به مددکاران اجتماعی گوشزد می‌کنند که از کودکان در برابر سوءاستفاده‌های احتمالی محافظت کنند و ابزارهای استخدامی مبتنی بر داده، شانس شما را برای یافتن شغل مورد نظر بالا می‌برند. همانطور که متوجه شدید، یادگیری ماشینی با تناقض‌هایی همراه است و بحث اخلاق در آن هنوز مبهم باقی مانده است.

در اینجا قصد داریم داستان زندگی یک مرد ۳۳ ساله با نام «جاشوا باربیو» را تعریف کنیم که از وب‌سایتی به نام Project December استفاده می‌کرد. با کمک این وب‌سایت یک روبات مکالمه –چت‌بات- ایجاد کرد تا بتواند مکالمه با نامزد متوفی‌اش –جسیکا- را شبیه‌سازی کند.

این نوع چت‌بات که «مرده‌بات» یا deadbot نام دارد، به باربیو امکان می‌دهد که با جسیکای مجازی پیام‌های متنی رد و بدل کند. اما سوالی که در اینجا مطرح می‌شود این است که آیا استفاده از این چت‌بات‌هایی که مکالمه انسان‌ها را تقلید می‌کند، کار اخلاقی است؟

قبل از پرداختن به این سوال، لازم است توضیحاتی داده شود. پروژه «دسامبر» توسط یک توسعه‌دهنده بازی‌ راه‌اندازی شد تا افراد بتوانند با چت‌بات‌هایی را با شخصیتی سفارشی کنند که می‌خواهند با آن تعامل داشته باشند. البته بابت این کار باید هزینه‌ پرداخت کنند. این پروژه براساس یک مدل زبان تولید متن است که توسط شرکت تحقیقاتی هوش مصنوعی OpenAI ساخته شده است. این برنامه به گونه‌ای طراحی شده که صراحتا مقاصد جنسی، عاشقانه، آسیب رساندن به خود یا دیگران را ممنوع می‌کند.

آیا رضایت یک طرفه کافی است؟

با وجودی که جسیکا فوت شده، به نظر می‌رسد رضایت باربیو به تنهایی برای ایجاد یک روبات مکالمه‌ای که از او تقید می‌کند، کافی نیست. حتی زمانی که شخص می‌میرد، مردم حق این را ندارند که هر طور می‌خواهند با آنها رفتار کنند. به همین دلیل است که در جوامع مختلف، هتک حرمت یا بی‌احترامی به مردگان اشتباه به شمار می‌آید. به عبارت دیگر، ما نسبت به مردگان نیز تعهدات اخلاقی خاصی داریم؛ تا جایی که مرگ لزوما به این معنا نیست که دیگر از لحاظ اخلاقی وجود ندارند.

به همین منوال، بحث در مورد نحوه محافظت از حقوق اساسی مردگان –مانند حریم خصوصی و داده‌های شخصی آنها- همچنان باز است. زیرا توسعه یک روبات مرده که شخصیت یک فرد را تقلید می‌کند، نیاز به مقادیر زیادی اطلاعات شخصی مانند داده‌های شبکه اجتماعی او دارد. اگر قبول داریم که استفاده از داده‌های شخصی بدون رضیات در زمان زنده بودن غیراخلاقی است، چرا باید این کار بعد از مرگ اخلاقی باشد؟

به همین دلیل کاملا منطقی به نظر می‌رسد که رضایت طرف دوم نیز نیاز است.

اگر کاربر مرده رضایت بدهد

سوال دوم این است: آیا رضایت جسیکا برای ایجاد ربات مرده او کافی است؟

بهتر است در این مورد مثال واقعی بزنیم. در آمریکا شخصی به نام «آرمین میوس» که «آدمخوار روتنبرگ» هم شناخته می‌شود، یک مهندس آلمانی است که قربانی خود را کشت و گوشت بدنش را خورد. نکته تعجب‌آور این است که قربانی میوس آگاهانه و با میل خود تن به کشته شدن داده بود، اما با این همه میوس به حبس ابد محکوم شد. در این رابطه، استدلال شده است که رضایت به چیزهایی که می‌تواند برای خودمان مضر باشد، خواه از نظر فیزیکی (فروش اندام‌های حیاتی) یا به طور انتزاعی (از بین بردن حقوق خود) غیراخلاقی است.

اینکه چه چیزی ممکن است برای مرده مضر باشد، موضوع پیچیده‌ای است که نمی‌توان به طور کامل آن را تحلیل کرد. با این حال، شایان ذکر است که حتی اگر نمی‌توان به مرده آسیبی وارد کرد یا به زندگان آزار داد، این به معنای آسیب‌ناپذیر بودن آنها در برابر اعمال بد و اخلاقی بودن آنها نیست. مردگان ممکن است به شرافت، آبرو یا حیثیت خود لطمه وارد کنند (مثلا کمپین‌های بدنامی پس از مرگ)، و بی‌احترامی به مردگان نیز به نزدیکان آنها آسیب می‌رساند. علاوه بر این، رفتار بد با مردگان ما را به جامعه‌ای هدایت می‌کند که ناعادلانه‌تر است و در کل به کرامت انسانی احترام نمی‌گذارد.

با در نظر گرفتن همه این موارد، منطقی به نظر می‌رسد که اگر توسعه یا استفاده از ربات مرده حتی با موافقت آن فرد در زمان زنده بودن، همراه باشد، باز هم رضایت آنها باطل تلقی می‌شود.

چه کسی مسئول است؟

چه کسی مسئولیت را بر عهده می گیرد؟

موضوع سوم این است که آیا سیستم‌های هوش مصنوعی باید به دنبال تقلید از هر نوع رفتار انسانی باشند (بدون در نظر گرفتن اینکه آیا این امکان وجود دارد یا خیر)؟

این بحث یک نگرانی در زمینه هوش مصنوعی است و باید به این سوال پاسخ دهیم که آیا باید سیستم‌های مصنوعی ایجاد کنیم که مثلا قادر به مراقبت از دیگران یا تصمیم‌گیری سیاسی باشند؟ به نظر می‌رسد چیزی در این مهارت‌ها وجود دارد که انسان را از سایر حیوانات و ماشین ‌ا متمایز می‌کند. از این رو، مهم است که توجه داشته باشیم که مسیر هوش مصنوعی به سمت اهداف فناورانه مانند جایگزینی عزیزان ممکن است منجر به کاهش ارزشی شود که ما به عنوان انسان مشخص می‌کنیم.

چهارمین سوال اخلاقی این است که چه کسی مسئولیت نتایج یک روبات مرده را بر عهده دارد؛ به ویژه در مورد اثرات مضر؟

تصور کنید که روبات مرده جسیکا به طور مستقل یاد بگیرد که حافظه او را تحقیر کند یا به سلامت روان باربیو آسیب جبران‌ناپذیری وارد کند. چه کسی مسئول این مساله است؟ کارشناسان هوش مصنوعی از طریق دو رویکرد اصلی به این سوال لغزنده پاسخ می‌دهند: اول، مسئولیت بر عهده کسانی است که در طراحی و توسعه سیستم نقش دارند و دوم، سیستم‌های یادگیری ماشینی وابسته به زمینه هستند، بنابراین مسئولیت‌های اخلاقی خروجی‌ آنها باید بین همه عواملی توزیع شود که با آنها در تعامل هستند.

کد خبر: 1140013

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 9 + 5 =