آیا قوانین سختگیرانه هوش مصنوعی اروپا روی تحقیقات تاثیر می‌گذارد؟

اتحادیه اروپا چند وقتی است که تمام هم و غم خود را روی وضع و تصویب قوانین هوش مصنوعی گذاشته است، اما سوالی که مطرح می‌شود این است که این قوانین چه بر سر تحقیقات خواهد آورد و آیا نوآوری را خفه خواهد کرد یا خیر؟

به گزارش خبرنگار علم و فناوری ایسکانیوز به نقل از نیچر؛ کشورهای اتحادیه اروپا در حال تصویب اولین مجموعه قوانین جامع جهان برای تنظیم هوش مصنوعی هستند. این کشورها سختگیرانه‌ترین قوانین جهان را در مورد پرخطرترین مدل‌های هوش مصنوعی وضع می‌کنند که برای اطمینان از ایمن بودن سیستم‌های هوش مصنوعی و احترام به حقوق اساسی و ارزش‌های اتحادیه اروپا طراحی شده است.

به گفته «ریشی بوماسانی»، محقق حوزه تاثیر اجتماعی هوش مصنوعی در دانشگاه استنفورد کالیفرنیا، این اقدام اروپا از نظر شکل‌دهی به نحوه تفکر ما در مورد مقررات هوش مصنوعی و ایجاد یک سابقه تاریخی در این زمینه اهمیت ویژه‌ای دارد.

کشورهای اروپایی با توجه به رشد سریع ابزارهای هوش مصنوعی تصمیم به وضع قوانین مربوط به این فناوری گرفتند. کارشناسان معتقدند که امسال نه تنها شاهد عرضه نسخه‌های جدیدی از مدل‌های هوش مصنوعی مولد مانند ChatGPT شرکت OpenAI خواهیم بود، بلکه خواهیم دید که سیستم‌های موجود در کلاهبرداری و انتشار اطلاعات نادرست مورد استفاده قرار می‌گیرند. منظور از هوش مصنوعی مولد یا هوش مصنوعی زایشی نوعی هوش مصنوعی است که در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه است. مدل‌های هوش مصنوعی مولد الگوها و ساختار داده‌های آموزشی ورودی خود را یاد می‌گیرند و سپس داده‌های جدیدی تولید می‌کنند.

البته کشورهای دیگر نیز در راستای رشد هوش مصنوعی و نگرانی‌های مربوط به آن شروع به وضع قوانینی برای محدود کردن این فناوری هستند. به طور مثال، کشور چین از مجموعه‌ای از قوانین برای هدایت استفاده تجاری از هوش مصنوعی استفاده می‌کند. همچنین جو بایدن، رئیس جمهور آمریکا، در اکتبر گذشته اولین دستور اجرایی هوش مصنوعی را امضا کرد که از سازمان‌های فدرال می‌خواهد برای مدیریت خطرات هوش مصنوعی اقدام کنند.

دولت‌های اروپایی قانون هوش مصنوعی را در دوم فوریه تصویب کردند و این قانون اکنون نیاز به امضای نهایی از سوی پارلمان اروپا به عنوان یکی از سه شاخه قانونگذاری اتحادیه اروپا دارد و انتظار می‌رود که این اتفاق تا ماه آوریل (2 ماه دیگر) رخ دهد. اگر متن این قوانین همانطور که ناظران سیاست انتظار دارند، بدون تغییر باقی بماند، این قانون در سال 2026 لازم‌الاجرا خواهد شد.

با این حال، تصویب این قوانین از سوی محققان با واکنش‌های متفاوتی همراه شده است؛ برخی از این اقدام به دلیل پتانسیلش در تشویق «علم باز» استقبال می‌کنند، ولی برخی نگرانند که این عمل نوآوری را خفه کند. منظور از علم باز، دانش در دسترس و شفافی است که از طریق شبکه‌های تعاملی به اشتراک گذاشته می‌شود و توسعه می‌یابد.

مجله «نیچر» بررسی کرده که چگونه این قوانین روی تحقیق تاثیر می‌گذارد.

رویکرد اتحادیه اروپا چیست؟

اتحادیه اروپا تصمیم گرفته است که مدل‌های هوش مصنوعی را براساس ریسک بالقوه‌شان تنظیم کند و قوانین سختگیرانه‌تری را برای برنامه‌های پرخطرتر اعمال کند و مقررات جداگانه‌ای را برای مدل‌های هوش مصنوعی عمومی مانند GPT که کاربردهای گسترده و غیرقابل ‌پیش‌بینی دارند، اتخاذ کند.

Many people writing at rows of curved desks, photographed from a high angle.

این قانون سیستم‌های هوش مصنوعی را که در رده «خطرناک غیرقابل قبول» قرار می‌گیرند، ممنوع می‌کند، برای مثال آنهایی که از داده‌های بیومتریک برای استنباط ویژگی‌های حساس مانند گرایش جنسی افراد استفاده می‌کنند. برنامه‌های پرخطر، مانند استفاده از هوش مصنوعی در استخدام و اجرای قانون، باید تعهدات خاصی را انجام دهند. برای مثال، توسعه‌دهندگان باید نشان دهند که مدل‌های آنها ایمن، شفاف و قابل توضیح برای کاربران است، به قوانین حفظ حریم خصوصی آنها پایبند است و تبعیض قائل نمی‌شود. این قوانین برای مدل‌هایی که در اتحادیه اروپا فعالیت می‌کنند اعمال می‌شود و هر شرکتی که قوانین را نقض کند باید هفت درصد از سود جهانی سالانه خود را به عنوان جریمه پرداخت کند.

«دیرک‌هاوی» (Dirk Hovy)، دانشمند کامپیوتر دانشگاه «بوکونی» در میلان ایتالیا می‌گوید: به نظر من، تلاش اتحادیه اروپا برای وضع و اعمال قوانین مربوط به هوش مصنوعی رویکرد بسیار خوبی است، زیرا این فناوری به سرعت قدرتمند و فراگیر شده و قرار دادن چارچوب برای هدایت استفاده و توسعه آن کاملا منطقی است.

«کیلیان ویت دیتلمان»، دانشمند علوم سیاسی در سازمان غیرانتفاعی «الگوریتم واچ» واقع در برلین که روی تاثیرات اتوماسیون روی جامعه مطالعه می‌کند، می‌گوید: برخی فکر می‌کنند که این قوانین به اندازه لازم کافی نیست و شکافی در اهداف نظامی و امنیت ملی و همچنین خلاءهایی در اجرای قانون و مهاجرت ایجاد می‌کند.

تاثیر روی محققان

از نظر تئوری، تاثیر قوانین هوش مصنوعی اتحادیه اروپا روی محققان بسیار کم است. سال گذشته، پارلمان اروپا بندی را به پیش‌نویس این قانون اضافه کرد که مدل‌های هوش مصنوعی را که صرفا برای تحقیق، توسعه یا نمونه‌سازی توسعه می‌یابند، مستثنی می‌شوند.

«جوآنا برایسون»، محقق حوزه هوش مصنوعی و مقررات آن در دانشگاه تحصیلات تکمیلی «هرتی» در برلین آلمان، می‌گوید: اتحادیه اروپا سخت کار کرده است تا مطمئن شود این عمل بر تحقیقات تاثیر منفی نمی‌گذارد. تمام تلاش آنها این است که نوآوری قطع نشود.

با این حال،‌ هاوی معتقد است که قوانین تاثیر خود را خواهد داشت، زیرا محققان را وادار به تفکر در مورد شفافیت، نحوه گزارش مدل‌ها و سوگیری‌های احتمالی خود می‌کند.

«روبرت کازمرکزیک»، پزشک دانشگاه فنی مونیخ در آلمان و یکی از بنیانگذاران LAION (شبکه باز هوش مصنوعی در مقیاس بزرگ و یک سازمان غیرانتفاعی با هدف دموکراتیزه کردن یادگیری ماشینی)، نگران است که این قانون می‌تواند مانع شرکت‌های کوچکی شود که پژوهش را هدایت می‌کنند و برای پایبندی به قوانین باید ساختارهای داخلی خود را تغییر دهند. در حالی که انطباق یک شرکت کوچک واقعا سخت است.

قوانین برای مدل‌های قدرتمندی مانند GPT چگونه است؟

سیاستگذاران اتحادیه اروپا پس از بحث‌های داغ تصمیم گرفتند که مدل‌های همه‌منظوره قدرتمند - مانند مدل‌های تولیدی که تصاویر، کد و ویدئو ایجاد می‌کنند - را در 2 لایه تنظیم کنند.

دسته اول تمام مدل‌های همه‌منظوره را پوشش می‌دهد، به جز مدل‌هایی که فقط در تحقیقات استفاده می‌شوند یا تحت مجوز منبع باز منتشر می‌شوند. این موارد مشمول الزامات شفافیت هستند، از جمله جزئیات روش‌های آموزشی و مصرف انرژی. و باید نشان دهند که به قوانین حق نسخه‌برداری احترام می‌گذارند.

بیشتر بخوانید:

پیشتازی اروپا در تنظیم قوانین هوش مصنوعی

دسته دوم، بسیار سختگیرانه‌تر مدل‌های همه‌منظوره را پوشش می‌دهد که «قابلیت‌ تأثیرگذاری» و «ریسک سیستمی» بالاتری دارند. بوماسانی می‌گوید این مدل‌ها مشمول «تعهدات بسیار مهمی» از جمله تست‌های ایمنی سختگیرانه و بررسی‌های امنیت سایبری خواهند بود. توسعه دهندگان باید جزئیات معماری و منابع داده خود را منتشر کنند.

برای اتحادیه اروپا، «تاثیر بزرگ» یعنی خطرناک و مدل‌هایی را شامل می‌شود که از بیش از 1025 فلاپ (تعداد عملیات کامپیوتری) در آموزش استفاده می‌کند.

بوماسانی می‌گوید: آموزش مدلی با این قدرت محاسباتی بین 50 تا 100 میلیون دلار هزینه دارد. در نتیجه در دسته تاثیرگذار بزرگ رده‌بندی می‌شود.

برخی از دانشمندان مخالف قانونگذاری برای مدل‌های هوش مصنوعی هستند و ترجیح می‌دهند بر نحوه استفاده از آنها تمرکز کنند. مثلا «جنیا جیتسف» (Jenia Jitsev)، محقق هوش مصنوعی در مرکز ابرکامپیوتر «جولیچ» در آلمان، می‌گوید: هوشمندتر و توانمندتر به معنای آسیب بیشتر نیست. پایه‌گذاری مقررات براساس هر معیاری از قابلیت، مبنای علمی ندارد.

آیا هوش مصنوعی منبع‌باز تقویت خواهد شد؟

سیاستگذاران اتحادیه اروپا و طرفداران متن‌باز امیدوارند که هوش مصنوعی منبع‌باز تقویت شود.

هاوی می‌گوید: این قانون باعث می‌شود اطلاعات هوش مصنوعی در دسترس، قابل تکرار و شفاف باشد، که تقریباً شبیه مانیفست جنبش منبع‌باز است. بوماسانی هم معتقد است که برخی از مدل‌ها بازتر از بقیه هستند و هنوز مشخص نیست که چگونه تحت تاثیر قوانین قرار می‌گیرند.

بوماسانی معتقد است که احتمالا قصد قانونگذاران این است که مدل‌های همه‌منظوره مانند LLaMA-2 - یا «لاما» که مخفف شده عبارت مدل زبانی بزرگ متا ای‌آی و یک مدل زبانی بزرگ است که توسط متا ای‌آی در فوریه ۲۰۲۳ منتشر شد- و مدل‌های استارتاپی Mistral AI در پاریس را مستثنی کنند.

بومسانی می‌گوید: رویکرد اتحادیه اروپا برای تشویق هوش مصنوعی منبع‌باز به طور قابل توجهی با استراتژی آمریکا متفاوت است. خط استدلال اتحادیه اروپا این است که منبع‌باز برای رقابت اتحادیه اروپا با ایالات متحده و چین حیاتی خواهد بود.

چگونه این قانون قرار است اجرا شود؟

کمیسیون اروپا یک دفتر هوش مصنوعی برای نظارت بر مدل‌های همه‌منظوره ایجاد خواهد کرد که توسط کارشناسان مستقل توصیه می‌شود. این دفتر راه‌هایی را برای ارزیابی قابلیت‌های این مدل‌ها و نظارت بر ریسک‌های مرتبط ایجاد خواهد کرد. اما حتی اگر شرکت‌هایی مانند OpenAI از مقررات پیروی کنند و به عنوان مثال، مجموعه داده‌های عظیم خود را ارسال کنند، باز هم این سوال مطرح می‌شود که آیا یک نهاد عمومی منابع لازم را برای بررسی دقیق ارسال‌ها دارد یا خیر.

قانونگذاران می‌گویند که تقاضا برای شفافیت‌سازی بسیار مهم است، ولی به نظر می‌رسد که تصوری در مورد چگونگی اجرای این رویه‌ها ندارند.

انتهای پیام/

کد خبر: 1220578

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =