به گزارش خبرنگار علم و فناوری ایسکانیوز به نقل از نیچر؛ کشورهای اتحادیه اروپا در حال تصویب اولین مجموعه قوانین جامع جهان برای تنظیم هوش مصنوعی هستند. این کشورها سختگیرانهترین قوانین جهان را در مورد پرخطرترین مدلهای هوش مصنوعی وضع میکنند که برای اطمینان از ایمن بودن سیستمهای هوش مصنوعی و احترام به حقوق اساسی و ارزشهای اتحادیه اروپا طراحی شده است.
به گفته «ریشی بوماسانی»، محقق حوزه تاثیر اجتماعی هوش مصنوعی در دانشگاه استنفورد کالیفرنیا، این اقدام اروپا از نظر شکلدهی به نحوه تفکر ما در مورد مقررات هوش مصنوعی و ایجاد یک سابقه تاریخی در این زمینه اهمیت ویژهای دارد.
کشورهای اروپایی با توجه به رشد سریع ابزارهای هوش مصنوعی تصمیم به وضع قوانین مربوط به این فناوری گرفتند. کارشناسان معتقدند که امسال نه تنها شاهد عرضه نسخههای جدیدی از مدلهای هوش مصنوعی مولد مانند ChatGPT شرکت OpenAI خواهیم بود، بلکه خواهیم دید که سیستمهای موجود در کلاهبرداری و انتشار اطلاعات نادرست مورد استفاده قرار میگیرند. منظور از هوش مصنوعی مولد یا هوش مصنوعی زایشی نوعی هوش مصنوعی است که در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه است. مدلهای هوش مصنوعی مولد الگوها و ساختار دادههای آموزشی ورودی خود را یاد میگیرند و سپس دادههای جدیدی تولید میکنند.
البته کشورهای دیگر نیز در راستای رشد هوش مصنوعی و نگرانیهای مربوط به آن شروع به وضع قوانینی برای محدود کردن این فناوری هستند. به طور مثال، کشور چین از مجموعهای از قوانین برای هدایت استفاده تجاری از هوش مصنوعی استفاده میکند. همچنین جو بایدن، رئیس جمهور آمریکا، در اکتبر گذشته اولین دستور اجرایی هوش مصنوعی را امضا کرد که از سازمانهای فدرال میخواهد برای مدیریت خطرات هوش مصنوعی اقدام کنند.
دولتهای اروپایی قانون هوش مصنوعی را در دوم فوریه تصویب کردند و این قانون اکنون نیاز به امضای نهایی از سوی پارلمان اروپا به عنوان یکی از سه شاخه قانونگذاری اتحادیه اروپا دارد و انتظار میرود که این اتفاق تا ماه آوریل (2 ماه دیگر) رخ دهد. اگر متن این قوانین همانطور که ناظران سیاست انتظار دارند، بدون تغییر باقی بماند، این قانون در سال 2026 لازمالاجرا خواهد شد.
با این حال، تصویب این قوانین از سوی محققان با واکنشهای متفاوتی همراه شده است؛ برخی از این اقدام به دلیل پتانسیلش در تشویق «علم باز» استقبال میکنند، ولی برخی نگرانند که این عمل نوآوری را خفه کند. منظور از علم باز، دانش در دسترس و شفافی است که از طریق شبکههای تعاملی به اشتراک گذاشته میشود و توسعه مییابد.
مجله «نیچر» بررسی کرده که چگونه این قوانین روی تحقیق تاثیر میگذارد.
رویکرد اتحادیه اروپا چیست؟
اتحادیه اروپا تصمیم گرفته است که مدلهای هوش مصنوعی را براساس ریسک بالقوهشان تنظیم کند و قوانین سختگیرانهتری را برای برنامههای پرخطرتر اعمال کند و مقررات جداگانهای را برای مدلهای هوش مصنوعی عمومی مانند GPT که کاربردهای گسترده و غیرقابل پیشبینی دارند، اتخاذ کند.
این قانون سیستمهای هوش مصنوعی را که در رده «خطرناک غیرقابل قبول» قرار میگیرند، ممنوع میکند، برای مثال آنهایی که از دادههای بیومتریک برای استنباط ویژگیهای حساس مانند گرایش جنسی افراد استفاده میکنند. برنامههای پرخطر، مانند استفاده از هوش مصنوعی در استخدام و اجرای قانون، باید تعهدات خاصی را انجام دهند. برای مثال، توسعهدهندگان باید نشان دهند که مدلهای آنها ایمن، شفاف و قابل توضیح برای کاربران است، به قوانین حفظ حریم خصوصی آنها پایبند است و تبعیض قائل نمیشود. این قوانین برای مدلهایی که در اتحادیه اروپا فعالیت میکنند اعمال میشود و هر شرکتی که قوانین را نقض کند باید هفت درصد از سود جهانی سالانه خود را به عنوان جریمه پرداخت کند.
«دیرکهاوی» (Dirk Hovy)، دانشمند کامپیوتر دانشگاه «بوکونی» در میلان ایتالیا میگوید: به نظر من، تلاش اتحادیه اروپا برای وضع و اعمال قوانین مربوط به هوش مصنوعی رویکرد بسیار خوبی است، زیرا این فناوری به سرعت قدرتمند و فراگیر شده و قرار دادن چارچوب برای هدایت استفاده و توسعه آن کاملا منطقی است.
«کیلیان ویت دیتلمان»، دانشمند علوم سیاسی در سازمان غیرانتفاعی «الگوریتم واچ» واقع در برلین که روی تاثیرات اتوماسیون روی جامعه مطالعه میکند، میگوید: برخی فکر میکنند که این قوانین به اندازه لازم کافی نیست و شکافی در اهداف نظامی و امنیت ملی و همچنین خلاءهایی در اجرای قانون و مهاجرت ایجاد میکند.
تاثیر روی محققان
از نظر تئوری، تاثیر قوانین هوش مصنوعی اتحادیه اروپا روی محققان بسیار کم است. سال گذشته، پارلمان اروپا بندی را به پیشنویس این قانون اضافه کرد که مدلهای هوش مصنوعی را که صرفا برای تحقیق، توسعه یا نمونهسازی توسعه مییابند، مستثنی میشوند.
«جوآنا برایسون»، محقق حوزه هوش مصنوعی و مقررات آن در دانشگاه تحصیلات تکمیلی «هرتی» در برلین آلمان، میگوید: اتحادیه اروپا سخت کار کرده است تا مطمئن شود این عمل بر تحقیقات تاثیر منفی نمیگذارد. تمام تلاش آنها این است که نوآوری قطع نشود.
با این حال، هاوی معتقد است که قوانین تاثیر خود را خواهد داشت، زیرا محققان را وادار به تفکر در مورد شفافیت، نحوه گزارش مدلها و سوگیریهای احتمالی خود میکند.
«روبرت کازمرکزیک»، پزشک دانشگاه فنی مونیخ در آلمان و یکی از بنیانگذاران LAION (شبکه باز هوش مصنوعی در مقیاس بزرگ و یک سازمان غیرانتفاعی با هدف دموکراتیزه کردن یادگیری ماشینی)، نگران است که این قانون میتواند مانع شرکتهای کوچکی شود که پژوهش را هدایت میکنند و برای پایبندی به قوانین باید ساختارهای داخلی خود را تغییر دهند. در حالی که انطباق یک شرکت کوچک واقعا سخت است.
قوانین برای مدلهای قدرتمندی مانند GPT چگونه است؟
سیاستگذاران اتحادیه اروپا پس از بحثهای داغ تصمیم گرفتند که مدلهای همهمنظوره قدرتمند - مانند مدلهای تولیدی که تصاویر، کد و ویدئو ایجاد میکنند - را در 2 لایه تنظیم کنند.
دسته اول تمام مدلهای همهمنظوره را پوشش میدهد، به جز مدلهایی که فقط در تحقیقات استفاده میشوند یا تحت مجوز منبع باز منتشر میشوند. این موارد مشمول الزامات شفافیت هستند، از جمله جزئیات روشهای آموزشی و مصرف انرژی. و باید نشان دهند که به قوانین حق نسخهبرداری احترام میگذارند.
بیشتر بخوانید:
پیشتازی اروپا در تنظیم قوانین هوش مصنوعی
دسته دوم، بسیار سختگیرانهتر مدلهای همهمنظوره را پوشش میدهد که «قابلیت تأثیرگذاری» و «ریسک سیستمی» بالاتری دارند. بوماسانی میگوید این مدلها مشمول «تعهدات بسیار مهمی» از جمله تستهای ایمنی سختگیرانه و بررسیهای امنیت سایبری خواهند بود. توسعه دهندگان باید جزئیات معماری و منابع داده خود را منتشر کنند.
برای اتحادیه اروپا، «تاثیر بزرگ» یعنی خطرناک و مدلهایی را شامل میشود که از بیش از 1025 فلاپ (تعداد عملیات کامپیوتری) در آموزش استفاده میکند.
بوماسانی میگوید: آموزش مدلی با این قدرت محاسباتی بین 50 تا 100 میلیون دلار هزینه دارد. در نتیجه در دسته تاثیرگذار بزرگ ردهبندی میشود.
برخی از دانشمندان مخالف قانونگذاری برای مدلهای هوش مصنوعی هستند و ترجیح میدهند بر نحوه استفاده از آنها تمرکز کنند. مثلا «جنیا جیتسف» (Jenia Jitsev)، محقق هوش مصنوعی در مرکز ابرکامپیوتر «جولیچ» در آلمان، میگوید: هوشمندتر و توانمندتر به معنای آسیب بیشتر نیست. پایهگذاری مقررات براساس هر معیاری از قابلیت، مبنای علمی ندارد.
آیا هوش مصنوعی منبعباز تقویت خواهد شد؟
سیاستگذاران اتحادیه اروپا و طرفداران متنباز امیدوارند که هوش مصنوعی منبعباز تقویت شود.
هاوی میگوید: این قانون باعث میشود اطلاعات هوش مصنوعی در دسترس، قابل تکرار و شفاف باشد، که تقریباً شبیه مانیفست جنبش منبعباز است. بوماسانی هم معتقد است که برخی از مدلها بازتر از بقیه هستند و هنوز مشخص نیست که چگونه تحت تاثیر قوانین قرار میگیرند.
بوماسانی معتقد است که احتمالا قصد قانونگذاران این است که مدلهای همهمنظوره مانند LLaMA-2 - یا «لاما» که مخفف شده عبارت مدل زبانی بزرگ متا ایآی و یک مدل زبانی بزرگ است که توسط متا ایآی در فوریه ۲۰۲۳ منتشر شد- و مدلهای استارتاپی Mistral AI در پاریس را مستثنی کنند.
بومسانی میگوید: رویکرد اتحادیه اروپا برای تشویق هوش مصنوعی منبعباز به طور قابل توجهی با استراتژی آمریکا متفاوت است. خط استدلال اتحادیه اروپا این است که منبعباز برای رقابت اتحادیه اروپا با ایالات متحده و چین حیاتی خواهد بود.
چگونه این قانون قرار است اجرا شود؟
کمیسیون اروپا یک دفتر هوش مصنوعی برای نظارت بر مدلهای همهمنظوره ایجاد خواهد کرد که توسط کارشناسان مستقل توصیه میشود. این دفتر راههایی را برای ارزیابی قابلیتهای این مدلها و نظارت بر ریسکهای مرتبط ایجاد خواهد کرد. اما حتی اگر شرکتهایی مانند OpenAI از مقررات پیروی کنند و به عنوان مثال، مجموعه دادههای عظیم خود را ارسال کنند، باز هم این سوال مطرح میشود که آیا یک نهاد عمومی منابع لازم را برای بررسی دقیق ارسالها دارد یا خیر.
قانونگذاران میگویند که تقاضا برای شفافیتسازی بسیار مهم است، ولی به نظر میرسد که تصوری در مورد چگونگی اجرای این رویهها ندارند.
انتهای پیام/
نظر شما