به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در راستای بروز جنجالهایی بر سر خطرات آینده هوش مصنوعی، دولت جو بایدن سعی کرده که چارچوبهای پیشگیرانهای برای سیستمهای هوش مصنوعی تعریف کند تا از این خطرات پیشگیری کند. برخی از دستورالعملها مستلزم نظارت شخص ثالث بر عملکرد سیستمهای هوش مصنوعی تجاری است که البته جزئیاتی در مورد اینکه چه کسی این فناوری را ممیزی میکند یا شرکتها را مسئول نگه میدارد، ذکر نشده است. با این اوصاف هفت غول فناوری از جمله آمازون، گوگل، متا و مایکروسافت که در زمینه توسعه هوش مصنوعی پیشگام هستند، با موافقت با این دستورالعمل و چارچوبها، گام مهمی در جهت مدیریت وعده و خطرات متعدد ناشی از این فناوری برداشتند.
جلسه جو بایدن با غولهای فناوری در مورد خطرات هوش مصنوعی
بایدن اعلام کرد که دولت او تعهدات داوطلبانه هفت شرکت آمریکایی را تضمین کرده است تا از ایمن بودن محصولات هوش مصنوعی آنها قبل از انتشار اطمینان حاصل کنند.
بایدن گفت: ما باید نسبت به تهدیداتی که فناوریهای نوظهور میتوانند ایجاد کنند، شفاف و هوشیار باشیم. رسانههای اجتماعی به ما نشان دادند که فناوریهای قدرتمند میتوانند بدون وجود چارچوب، آسیبهایی را وارد کنند. پس این تعهدات یک گام امیدوارکننده است. با این حال، تا رسیدن به محل امن دنیای فناوری راه درازی در پیش داریم.
این در حالی است که سرمایهگذاریهای تجاری در توسعه ابزارهای مبتنی بر هوش مصنوعی مولد روز به روز بیشتر میشود. این ابزارها میتوانند متنهای متقاعدکنندهای شبیه انسان بنویسند و تصاویر و رسانههای جدیدی تولید کنند که با توجه به جذابیت عمومی و همچنین توانایی آنها در فریب دادن مردم و انتشار اطلاعات نادرست خطرات این فناوری را صدچندان میکنند.
آزمایشهای امنیتی دولتی
کاخ سفید در بیانیهاش اعلام کرد که شرکتهای OpenAI، سازنده چتجیپیتی و استارتاپهای آنتروپیک و اینفلکشن، به غیر از چهار غول ذکر شده، متعهد شدهاند که آزمایشهای امنیتی دولت را انجام دهند تا از خطرات عمده این ابزار مانند امنیت زیستی و سایبری محافظت کنند. گفتنی است که آزمایشهای امنیتی تا حدودی توسط کارشناسان مستقل و خارج از خود شرکتها انجام خواهد شد.
این آزمایش همچنین پتانسیل آسیبهای اجتماعی، مانند تعصب و تبعیض و خطرات نظری بیشتری را در مورد سیستمهای هوش مصنوعی پیشرفته بررسی خواهد کرد که از میان آنها میتوان به مواردی چون کنترل سیستمهای فیزیکی یا کپی کردن از خودشان یا «تکثیر» اشاره کرد.
این شرکتها همچنین متعهد به روشهایی برای گزارش آسیبپذیریها به سیستمهای خود و استفاده از واترمارک دیجیتال برای کمک به تمایز بین تصاویر واقعی و تولید شده توسط هوش مصنوعی به نام دیپفیک شدند.
به گفته کاخ سفید، این شرکتها به طور عمومی نقصها و خطرات موجود در فناوری خود، از جمله تأثیرات بر انصاف و تعصب را گزارش خواهند کرد. با این حال، به نظر میرسد که تعهدات داوطلبانه راهی فوری برای پرداختن به خطراتی است که کنگره آمریکا براساس آن میخواهد قوانین تنظیمکنندهای برای هوش مصنوعی تصویب کند. بر این اساس نیز قرار است مدیران این شرکتها به زودی در کاخ سفید گرد هم آیند و با جلساتی که با شخص جو بایدن خواهند داشت، خود را متعهد به پیروی از استانداردها کنند.
البته برخی همانند آمبا کاک، مدیر اجرایی موسسه AI Now، معتقد است که مذاکره پشت درهای بسته با مدیران این شرکتها کافی نیست و نیاز به بحثهای عمومی و بسیار گستردهتری وجود دارد. در واقع، مسائل و موضوعاتی در این زمینه نهفته است که شرکتها دیگر نمیتوانند داوطلبانه به آنها متعهد شوند، زیرا نتایج آن به صورت کاملا مستقیم روی مدلهای کسبوکارشان تاثیر میگذارد.
براد اسمیت، رئیس مایکروسافت، در یک پست وبلاگی نوشت که شرکت او تعهداتی دارد که فراتر از تعهد کاخ سفید است، از جمله حمایت از مقرراتی که رژیم صدور مجوز برای مدلهای بسیار توانمند ایجاد میکند.
اما برخی از کارشناسان و رقبای مبتدی نگران هستند که نوع مقرراتی که ارائه میشود بیشتر به نفع غولهایی مانند OpenAI، گوگل و مایکروسافت تمام شود و شرکتهای کوچکتر به دلیل هزینههای بالای ساخت سیستمهای هوش مصنوعی درگیر محدودیتهای قانونی شوند و نتوانند پیشرفتی داشته باشند.
تشکیل هیاتی از سازمان ملل
چارچوب کاخ سفید اشاره میکند که فقط برای مدلهایی اعمال میشود که در مجموع قدرتمندتر از مرزهای صنعتی فعلی هستند و توسط مدلهای موجود مانند نسخه چهارم جیپیتی شرکت OpenAI و تولید کننده تصویر DALL-E 2 و نسخههای مشابه آنتروپیک، گوگل و آمازون تنظیم شدهاند.
این در حالی است که قانونگذاران اتحادیه اروپا در حال مذاکره درباره قوانین هوش مصنوعی هستند که فقط برای برنامههایی که بالاترین میزان خطر را دارند، محدودیت ایجاد میکند.
آنتونیو گوترش، دبیرکل سازمان ملل متحد به تازگی اعلام کرده که سازمان ملل «مکانی ایدهآل» برای اتخاذ استانداردهای جهانی است و هیاتی را منصوب کرد که تا پایان سال درباره گزینههای حکمرانی جهانی هوش مصنوعی گزارش دهد.
گوترش همچنین گفت که از درخواستهای برخی کشورها برای ایجاد یک نهاد جدید سازمان ملل برای حمایت از تلاشهای جهانی برای اداره هوش مصنوعی با الهام از مدلهایی مانند آژانس بینالمللی انرژی اتمی یا هیات بیندولتی تغییرات آب و هوایی استقبال میکند.
انتهای پیام/
نظر شما