غول‌های فناوری با چارچوب‌های هوش مصنوعی کاخ سفید موافقت کردند

آمازون، گوگل، متا، مایکروسافت و چند شرکت فناوری دیگر با چارچوب‌های هوش مصنوعی کاخ سفید موافقت و اعلام کردند که به صورت داوطلبانه از این قوانین پیروی خواهند کرد.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در راستای بروز جنجال‌هایی بر سر خطرات آینده هوش مصنوعی، دولت جو بایدن سعی کرده که چارچوب‌های پیشگیرانه‌ای برای سیستم‌های هوش مصنوعی تعریف کند تا از این خطرات پیشگیری کند. برخی از دستورالعمل‌ها مستلزم نظارت شخص ثالث بر عملکرد سیستم‌های هوش مصنوعی تجاری است که البته جزئیاتی در مورد اینکه چه کسی این فناوری را ممیزی می‌کند یا شرکت‌ها را مسئول نگه می‌دارد، ذکر نشده است. با این اوصاف هفت غول فناوری از جمله آمازون، گوگل، متا و مایکروسافت که در زمینه توسعه هوش مصنوعی پیشگام هستند، با موافقت با این دستورالعمل و چارچوب‌ها، گام مهمی در جهت مدیریت وعده و خطرات متعدد ناشی از این فناوری برداشتند.

جلسه جو بایدن با غول‌های فناوری در مورد خطرات هوش مصنوعی

بایدن اعلام کرد که دولت او تعهدات داوطلبانه هفت شرکت آمریکایی را تضمین کرده است تا از ایمن بودن محصولات هوش مصنوعی آنها قبل از انتشار اطمینان حاصل کنند.

بایدن گفت: ما باید نسبت به تهدیداتی که فناوری‌های نوظهور می‌توانند ایجاد کنند، شفاف و هوشیار باشیم. رسانه‌های اجتماعی به ما نشان دادند که فناوری‌های قدرتمند می‌توانند بدون وجود چارچوب‌، آسیب‌هایی را وارد کنند. پس این تعهدات یک گام امیدوارکننده است. با این حال، تا رسیدن به محل امن دنیای فناوری راه درازی در پیش داریم.

این در حالی است که سرمایه‌گذاری‌های تجاری در توسعه ابزارهای مبتنی بر هوش مصنوعی مولد روز به روز بیشتر می‌شود. این ابزارها می‌توانند متن‌های متقاعدکننده‌ای شبیه انسان بنویسند و تصاویر و رسانه‌های جدیدی تولید کنند که با توجه به جذابیت عمومی و همچنین توانایی آنها در فریب دادن مردم و انتشار اطلاعات نادرست خطرات این فناوری را صدچندان می‌کنند.

آزمایش‌های امنیتی دولتی

کاخ سفید در بیانیه‌اش اعلام کرد که شرکت‌های OpenAI، سازنده چت‌جی‌پی‌تی و استارتاپ‌های آنتروپیک و اینفلکشن، به غیر از چهار غول ذکر شده، متعهد شده‌اند که آزمایش‌های امنیتی دولت را انجام دهند تا از خطرات عمده‌ این ابزار مانند امنیت زیستی و سایبری محافظت کنند. گفتنی است که آزمایش‌های امنیتی تا حدودی توسط کارشناسان مستقل و خارج از خود شرکت‌ها انجام خواهد شد.

این آزمایش همچنین پتانسیل آسیب‌های اجتماعی، مانند تعصب و تبعیض و خطرات نظری بیشتری را در مورد سیستم‌های هوش مصنوعی پیشرفته بررسی خواهد کرد که از میان آنها می‌توان به مواردی چون کنترل سیستم‌های فیزیکی یا کپی کردن از خودشان یا «تکثیر» اشاره کرد.

این شرکت‌ها همچنین متعهد به روش‌هایی برای گزارش آسیب‌پذیری‌ها به سیستم‌های خود و استفاده از واترمارک دیجیتال برای کمک به تمایز بین تصاویر واقعی و تولید شده توسط هوش مصنوعی به نام دیپ‌فیک شدند.

به گفته کاخ سفید، این شرکت‌ها به طور عمومی نقص‌ها و خطرات موجود در فناوری خود، از جمله تأثیرات بر انصاف و تعصب را گزارش خواهند کرد. با این حال،‌ به نظر می‌رسد که تعهدات داوطلبانه راهی فوری برای پرداختن به خطراتی است که کنگره آمریکا براساس آن می‌خواهد قوانین تنظیم‌کننده‌ای برای هوش مصنوعی تصویب کند. بر این اساس نیز قرار است مدیران این شرکت‌ها به زودی در کاخ سفید گرد هم آیند و با جلساتی که با شخص جو بایدن خواهند داشت، خود را متعهد به پیروی از استانداردها کنند.

البته برخی همانند آمبا کاک، مدیر اجرایی موسسه AI Now، معتقد است که مذاکره پشت درهای بسته با مدیران این شرکت‌ها کافی نیست و نیاز به بحث‌های عمومی و بسیار گسترده‌تری وجود دارد. در واقع، مسائل و موضوعاتی در این زمینه نهفته است که شرکت‌ها دیگر نمی‌توانند داوطلبانه به آنها متعهد شوند، زیرا نتایج آن به صورت کاملا مستقیم روی مدل‌های کسب‌وکارشان تاثیر می‌گذارد.

براد اسمیت، رئیس مایکروسافت، در یک پست وبلاگی نوشت که شرکت او تعهداتی دارد که فراتر از تعهد کاخ سفید است، از جمله حمایت از مقرراتی که رژیم صدور مجوز برای مدل‌های بسیار توانمند ایجاد می‌کند.

اما برخی از کارشناسان و رقبای مبتدی نگران هستند که نوع مقرراتی که ارائه می‌شود بیشتر به نفع غول‌هایی مانند OpenAI، گوگل و مایکروسافت تمام شود و شرکت‌های کوچک‌تر به دلیل هزینه‌های بالای ساخت سیستم‌های هوش مصنوعی درگیر محدودیت‌های قانونی شوند و نتوانند پیشرفتی داشته باشند.

تشکیل هیاتی از سازمان ملل

چارچوب کاخ سفید اشاره می‌کند که فقط برای مدل‌هایی اعمال می‌شود که در مجموع قدرتمندتر از مرزهای صنعتی فعلی هستند و توسط مدل‌های موجود مانند نسخه چهارم جی‌پی‌تی شرکت OpenAI و تولید کننده تصویر DALL-E 2 و نسخه‌های مشابه آنتروپیک، گوگل و آمازون تنظیم شده‌اند.

این در حالی است که قانونگذاران اتحادیه اروپا در حال مذاکره درباره قوانین هوش مصنوعی هستند که فقط برای برنامه‌هایی که بالاترین میزان خطر را دارند، محدودیت ایجاد می‌کند.

آنتونیو گوترش، دبیرکل سازمان ملل متحد به تازگی اعلام کرده که سازمان ملل «مکانی ایده‌آل» برای اتخاذ استانداردهای جهانی است و هیاتی را منصوب کرد که تا پایان سال درباره گزینه‌های حکمرانی جهانی هوش مصنوعی گزارش دهد.

گوترش همچنین گفت که از درخواست‌های برخی کشورها برای ایجاد یک نهاد جدید سازمان ملل برای حمایت از تلاش‌های جهانی برای اداره هوش مصنوعی با الهام از مدل‌هایی مانند آژانس بین‌المللی انرژی اتمی یا هیات بین‌دولتی تغییرات آب و هوایی استقبال می‌کند.

انتهای پیام/

کد خبر: 1191049

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =