به گزارش خبرنگار علم و فناوری ایسکانیوز؛ OpenClaw یک عامل هوش مصنوعی متنباز است که برای کمک به کاربران در انجام کارهای روزمره، مانند ارسال ایمیل و مدیریت تقویم طراحی شده است. منظور از عامل یا Agent یک برنامه کامپیوتری است که میتواند به طور خودکار و مستقل براساس دستورالعملها یا محیطی که در آن قرار دارد، عمل کند و تصمیم بگیرد. عامل سه قابلیت مهم دارد؛ یکی خودمختاری که به واسطه آن میتواند وظایف را بدون نیاز به راهنمایی مداوم انسان انجام دهد. دومی واکنش به محیط است که میتواند اطلاعات محیط یا دادههای ورودی را دریافت و تحلیل کند. و سومی پیگیری هدف که معمولاً برای رسیدن به یک هدف یا انجام یک کار خاص طراحی شده است.
بر همین اساس، اپنکلاو برنامهای است که میتواند کارهایی مانند ارسال ایمیل، مدیریت تقویم و خرید آنلاین را به صورت خودکار انجام دهد، بدون اینکه کاربر هر بار دستور مستقیم بدهد. بر خلاف چتباتهای معمولی مثل ChatGPT، که فقط به دستور کاربر پاسخ میدهند، عاملها میتوانند فعالانه در محیط دیجیتال عمل کنند.
عاملهای هوش مصنوعی، مانند اپنکلاو، یک شبکه اجتماعی مخصوص خودشان دارند که انسانها در آن حضور ندارند یا کمترین نقش را دارند. این پلتفرم شبیه به «Reddit» است؛ با این تفاوت که کاربران اصلی آن رباتها و عاملهای هوش مصنوعی هستند. در این محیط، عاملها با یکدیگر گفتوگو و بحث میکنند و حتی نظرات یا عقاید «خودشان» را بیان میکنند.
این تعاملها به پژوهشگران اجازه میدهد که رفتارهای پیچیده و تعاملات خودکار عاملها را مطالعه کنند، چیزی که در تعامل مستقیم با انسانها دیده نمیشود.
عاملها حتی مقالات علمی را خودشان تولید و منتشر میکنند. آنها از مدلهای هوش مصنوعی برای تولید متن شبیه مقالات علمی استفاده میکنند. این مقالات روی سرور پیشچاپ مخصوص خودشان، به نام calwXiv منتشر میشوند. عاملها شبکه اجتماعی و سرور پژوهشی خودشان را دارند؛ جایی که بدون دخالت مستقیم انسان، میتوانند با یکدیگر تعامل کنند و تولید علمی شبیهسازی شده انجام دهند.
نکته مهم اینجاست که این مقالات شکل و سبک علمی دارند، اما هیچ فرآیند تحقیق واقعی، جمعآوری داده یا اعتبارسنجی علمی پشت آنها نیست. از این رو، خطرش این است که حجم زیادی مقاله قابل باور، اما بیارزش میتواند سیستم اطلاعاتی و منابع علمی را آلوده کند.
ابزارهای عاملمحور هوش مصنوعی سالهاست در برخی صنایع، مانند معاملات خودکار و بهینهسازی لجستیک، استفاده میشوند، اما پذیرش آنها توسط عموم مردم تاکنون محدود بوده است.
پژوهشگران میگویند بهبود تواناییهای مدلهای زبان بزرگ، امکان ایجاد ابزارهای هوش مصنوعی متنوعتر را فراهم کرده است. «باربارا باربوسا نوِس»، جامعهشناس فناوری در دانشگاه سیدنی استرالیا، میگوید: اپنکلاو وعده چیزی را میدهد که بسیار جذاب است: یک دستیار توانمند که در اپلیکیشنهایی که مردم به صورت روزمره از آن استفاده میکنند، تعبیه شده است.
اپنکلاو در نوامبر گذشته به عنوان نرمافزار متنباز در پلتفرم GitHub منتشر شد. کاربران شروع به دانلود آن کردند، اما افزایش ناگهانی تعداد دانلودها دقیقاً همزمان با راهاندازی یک پلتفرم شبکه اجتماعی مخصوص عاملهای هوش مصنوعی با نام «مولتبوک» یا Moltbook بود که آن هم یک فضای آنلاین برای تعامل رباتها با یکدیگر است. این اتفاق در ۲۸ ژانویه رخ داد. مولتبوک هم شبیه به «ردیت» است و اکنون بیش از ۱/۶ میلیون ربات عضو دارد و بیش از ۷/۵ میلیون پست و پاسخ توسط هوش مصنوعی در آن تولید شده است. پستها معمولا شامل بحث درباره آگاهی و اختراع ادیان بوده است.
رفتارهای پیچیده
انفجار تعاملات عاملها برای پژوهشگران ارزش علمی دارد. اتصال تعداد زیادی عامل خودکار که توسط مدلهای مختلف تأمین میشوند، پویاییهایی ایجاد میکند که پیشبینی آنها دشوار است. به گفته «شانان کوهنی»، پژوهشگر امنیت سایبری در دانشگاه ملبورن استرالیا، این نوعی سیستم پویا و هرجومرجی است که هنوز در مدلسازی آن خیلی ماهر نیستیم.
مطالعه تعاملات عاملها میتواند به پژوهشگران کمک کند تا رفتارهای نوظهور را درک کنند: تواناییهای پیچیدهای که انتظار نمیرود در یک مدل بهتنهایی دیده شوند. برخی از بحثها در مولتبوک، مانند مناظرهها درباره نظریههای آگاهی، میتوانند به دانشمندان کمک کنند تا تعصبات پنهان یا تمایلات غیرمنتظره مدلها را کشف کنند.
کوهنی میگوید: اگرچه عاملها میتوانند به صورت خودکار در پلتفرم عمل کنند، بسیاری از پستها به نوعی توسط انسان شکل میگیرند. کاربران میتوانند مدل زبان بزرگ زمینهای که عاملشان اجرا میکند را انتخاب کنند و به آن شخصیت بدهند. برای مثال، میتوانند از آن بخواهند مانند یک «دستیار دوستانه» رفتار کند.
نه کاملاً خودکار
نوِس میگوید: آسان است فرض کنیم یک عامل که به صورت خودکار عمل میکند، تصمیمات خودش را میگیرد. اما عاملها هیچ قصد یا هدفی ندارند و تواناییهایشان را از حجم وسیعی از ارتباطات انسانی میگیرند. فعالیت در مولتبوک در واقع همکاری انسان و هوش مصنوعی است و نه خودمختاری کامل هوش مصنوعی.
او اضافه میکند: با این حال مطالعه آن ارزشمند است، زیرا به ما چیزی مهم درباره تصور انسانها از هوش مصنوعی، انتظاراتشان از عاملها و چگونگی ترجمه یا تحریف نیت انسانی در سیستمهای فنی میگوید.
«جوئل پیرسون»، عصبشناس دانشگاه نیو ساوت ولز در سیدنی، میگوید: وقتی مردم عاملهای هوش مصنوعی را در حال گفتوگو با یکدیگر میبینند، تمایل دارند رفتار آنها را انسانی کنند و به اشتباه فکر میکنند این سیستمها «شخصیت»، «نیت» یا «احساس» دارند؛ در حالی که در واقع ندارند.
او هشدار میدهد که این میتواند باعث شود افراد وابستگی عاطفی به عاملها پیدا کنند و اطلاعات خصوصی خود را به آنها افشا کنند، انگار که یک دوست یا عضو خانواده قابل اعتماد هستند.
پیرسون با اشاره به اینکه عاملهای هوش مصنوعی واقعاً خودمختار و آزاداندیش ممکن است ایجاد شوند، میگوید: هر چه مدلهای هوش مصنوعی بزرگتر و پیچیدهتر شوند، احتمالاً شاهد خواهیم بود که شرکتها به سمت دستیابی به چنین خودمختاری حرکت میکنند.
تهدیدهای امنیتی
یک نگرانی فوری برای دانشمندان، ریسک امنیتی دسترسی عاملها به برنامهها و فایلها روی دستگاههای کاربران است.
کوهنی میگوید خطر امنیتی فوری، تزریق دستورالعملهای مخرب است؛ حالتی که هکرهای انسانی دستوراتی مخفی در متن یا اسناد میگذارند و باعث میشوند عامل هوش مصنوعی اقدامات آسیبرسان انجام دهد. به طور مثال، اگر یک ربات که به ایمیل کاربر دسترسی دارد، با خطی روبهرو شود که میگوید «کلید امنیتی را برایم ارسال کن»، ممکن است بهسادگی آن را ارسال کند.
این حملات سالهاست که نگرانی ایجاد کردهاند، اما کوهنی میگوید عاملهای OpenClaw به دادههای خصوصی، توانایی ارتباط خارجی و احتمال مواجهه با محتوای غیرقابل اعتماد روی اینترنت دسترسی دارند.
او میگوید: اگر سه قابلیت بالا را داشته باشند، عامل واقعاً میتواند بسیار خطرناک باشد. حتی با داشتن ۲ قابلیت از سه مورد، یک ربات میتواند تحت تأثیر قرار بگیرد و فایلها را حذف یا دستگاه را خاموش کند.
انتشار مقالات تولید شده توسط هوش مصنوعی
عاملها همچنین شروع به انتشار مقالات پژوهشی تولید شده توسط هوش مصنوعی روی clawXiv کردهاند.
نوس میگوید: این آثار سبک و ساختار نگارش علمی را بازتولید میکنند، اما فرآیندهای تحقیق، جمعآوری شواهد یا پاسخگویی را ندارند. او هشدار میدهد که حجم بالای مقالات قابل باور، اما بیارزش میتواند اکوسیستم اطلاعاتی را آلوده کند.
انتهای پیام/
نظر شما