به گزارش خبرنگار علم و فناوری ایسکانیوز؛ یان لکان معتقد است که هوش مصنوعی در حال حاضر فاقد ویژگیهای کلیدی انسانی است و به همین دلیل نباید انتظار داشت که به این زودی جای انسانها را در کارها و ماموریتهای مختلف بگیرد. او میگوید که هوش مصنوعی نیاز به تغییر در نحوه آموزش دارد.
او میگوید: تمام موجودات هوشمند چهار وجه اشتراک دارند که هوش مصنوعی فاقد آنهاست. در واقع، چهار ویژگی اساسی رفتار هوشمندانه وجود دارد که هر حیوان یا حیوان نسبتاً باهوشی – و مطئنا انسان- میتواند انجام دهد: درک دنیای فیزیکی، داشتن حافظه پایدار، توانایی استدلال و توانایی برنامهریزی و برنامهریزی اقدامات پیچیده، به ویژه برنامهریزی سلسله مراتبی. این بدان معنا نیست که شرکتهایی (که این مدلها را میسازند) در مورد آن فکر نکردهاند یا به آن فکر نمیکنند. موضوع این است که تمام تلاشهای موجود برای پر کردن شکاف بین انسان و هوش مصنوعی حول محور افزودن ویژگیهای تکمیلی به مدلهای موجود بوده است.
لکان میافزاید: هوش مصنوعی، به ویژه مدلهای زبانی بزرگ، به این آستانه نرسیدهاند و گنجاندن این قابلیتها نیاز به تغییر در نحوه آموزش آنها دارد. به همین دلیل است که بسیاری از بزرگترین شرکتهای فناوری در رقابت خود برای تسلط بر بازی هوش مصنوعی، قابلیتهایی را به مدلهای موجود اضافه میکنند.
او همچنین میگوید: برای درک دنیای فیزیکی، شما یک سیستم بینایی جداگانه را آموزش میدهید. و سپس آن را به LLM متصل میکنید. برای حافظه، میتوانید از RAG استفاده کنید، یا یک حافظه جانبی را روی آن متصل میکنید، یا فقط مدل خود را بزرگتر میکنید.
RAG چیست؟
راهاندازی ChatGPT شرکت OpenAI در نوامبر ۲۰۲۲، موج جدیدی از علاقه به هوش مصنوعی را آغاز کرد، اما روند این با برخی مشکلات جدی نیز همراه بود. مردم میتوانستند تقریباً در مورد هر موضوعی سؤال بپرسند، اما بسیاری از پاسخهای مدل زبان بزرگ بیفایده و کلی - یا کاملاً اشتباه - بودند. مثلا یکی از اشتباهات فاحش چتجیپیتی این بود که اعلام کرد جمعیت مریخ ۲/۵ میلیارد نفر است!
چنین مشکلاتی هنوز در مورد مدلهای زبان بزرگ وجود دارد. اما یک راهحل وجود دارد: «تولید افزوده بازیابی» یا retrieval-augmented generation. این تکنیک که در سال ۲۰۲۰ توسط گروهی از محققان گروه تحقیقاتی هوش مصنوعی شرکت متا اختراع شد، در حال بازنویسی قوانین LLMها است. موج اول چتباتهای مبهم و پر پیچ و خم در حال کاهش است و جای خود را به چتباتهای متخصصی میدهد که میتوانند به سؤالات شگفتآور خاص پاسخ دهند.
RAG در خارج از صنعت هوش مصنوعی چندان شناخته شده نیست، اما به مکالمات بین افراد داخلی - به ویژه کسانی که چتباتهای کاربرپسند ایجاد میکنند - تسلط یافته است. انویدیا از RAG برای ساخت مدل زبان بزرگ استفاده کرد که به مهندسان خود در طراحی تراشهها کمک میکند. شرکت «پرپلکسیتی» از RAG برای ساخت یک موتور جستوجوی مبتنی بر هوش مصنوعی استفاده میکند که اکنون ادعا میکند ماهانه بیش از ۱۰ میلیون کاربر فعال دارد. شرکت «سیلزفورس» نیز از RAG برای ساخت یک پلتفرم چتبات برای ارتباط با مشتری استفاده میکند.
هر صنعتی که دادههای بدون ساختار زیادی دارد میتواند از RAG بهرهمند شود. این شامل شرکتهای بیمه گرفته تا شرکتهای حقوقی، بانکها و مخابرات میشود. شرکتهای این صنایع اغلب گنجینههای عظیمی از دادهها دارند، اما بررسی آنها برای دستیابی به بینش، کار دشواری است. اینجاست که RAG ارزش زیادی به آن اضافه میکند. شما آن اطلاعات را وارد میکنید و با خود میگویید: «این را برای من معنی کن.» و RAG این کار را انجام میدهد.
لکان در چندین مورد در مورد جایگزینی که او مدلهای مبتنی بر جهان مینامد صحبت کرده است. اینها مدلهایی هستند که بر اساس سناریوهای زندگی واقعی آموزش دیدهاند و سطوح شناخت بالاتری نسبت به هوش مصنوعی مبتنی بر الگو دارند. لکان در مورد این مدلها میگوید: تصور کنید که ایدههایی درمورد وضعیت جهان در زمان T دارید. در نتیجه براساس آن ایده تصویرسازی میکنید و کاری انجام میدهید. این مدل جهانی نیز براساس آنچه شما انجام میدهید، شرایط جهان را در آینده پیشبینی میکند.
او میافزاید: اما جهان بر اساس مجموعهای نامتناهی و غیرقابل پیشبینی از احتمالات تکامل مییابد و تنها راه آموزش برای آنها از طریق انتزاع است.
گفتنی است که شرکت متا در حال حاضر از طریق V-JEPA، مدلی که در ماه فوریه برای عموم منتشر کرد، در حال آزمایش این موضوع است. متا آن را به عنوان یک مدل غیر مولد توصیف میکند که با پیشبینی بخشهای گمشده یا پنهان شده یک ویدئو یاد میگیرد.
او میگوید: ایده اصلی این است که شما در سطح پیکسل پیشبینی نمیکنید. شما یک سیستم را آموزش میدهید تا یک نمایش انتزاعی از ویدئو را اجرا کند تا بتوانید در آن نمایش انتزاعی پیشبینیهایی انجام دهید و امیدواریم این نمایش تمام جزئیاتی را که نمیتوان پیشبینی کرد، حذف کند.
این مفهوم مشابه نحوه ایجاد سلسله مراتب اساسی برای بلوکهای سازنده ماده توسط شیمیدانان است. لکان میگوید: ما انتزاعاتی ایجاد کردیم. ذرات را تعریف کردیم و گفتیم که ذره از مولکول تشکیل شده و بعد گفتیم که مولکول از اتم تشکیل شده است. پس هر بار که یک لایه بالاتر میرویم، اطلاعات زیادی در مورد لایههای زیرین که به نوع کاری که به انجام آن علاقهمندیم بیربط هستند را حذف میکنیم. در اصل، این روش دیگری برای گفتن این است که ما یاد گرفتهایم با ایجاد سلسله مراتب، جهان فیزیکی را درک کنیم.
لکان در مجمع جهانی اقتصاد در داووس چه گفت؟
یان لکان در سخنرانی خود در مجمع جهانی اقتصاد در داووس که در ژانویه امسال برگزار شد گفت: الگوی فعلی هوش مصنوعی مولد (genAI) و مدلهای زبان بزرگ (LLM) ممکن است به زودی منسوخ شوند. او استدلال کرد برای اینکه سیستمها بتوانند دنیای فیزیکی را درک کنند و با آن تعامل داشته باشند، به پیشرفتهای جدیدی نیاز است.
لکان همچنین در مورد سیستمهای GenAI اظهار کرد: هیچ کس با عقل سلیم دیگر از آنها استفاده نمیکند، حداقل نه به عنوان جزء اصلی یک سیستم هوش مصنوعی. او انتظار دارد که در سه تا پنج سال آینده انقلابی رخ دهد که طی آن الگوی جدیدی از معماریهای هوش مصنوعی ظهور خواهد کرد که از قابلیتهای سیستمهای فعلی بسیار فراتر خواهد رفت.
اظهارات لکان لزوماً به معنای رد پیشرفت قابل توجه حاصل از genAI و LLMها نیست، بلکه بیشتر به معنای شناخت محدودیتهای سیستمهای فعلی است. به گفته لکان، LLMهای فعلی فاقد درک واقعی از دنیای فیزیکی هستند و راه درازی در پیش است تا هوش مصنوعی بتواند در این زمینه با انسانها برابری کند.
او همچنین گفت: هنوز چالشهای علمی و فناوری زیادی پیش رو است و به دلیل محدودیتهای سیستمهای فعلی، احتمال زیادی وجود دارد که در طول سه تا پنج سال آینده، انقلاب دیگری در هوش مصنوعی رخ دهد.
او پیشبینی کرد: اگر میخواهیم در نهایت چیزهایی مانند رباتهای خانگی و ماشینهای کاملاً خودران بسازیم، به سیستمهایی برای درک دنیای واقعی نیاز داریم.
او همچنین امیدوار است که سالهای آینده «دهه رباتیک» خواهد بود، جایی که پیشرفتها در هوش مصنوعی و رباتیک برای گشودن کلاس جدیدی از برنامههای هوشمند با هم ترکیب میشوند.
لکان علاوه بر محدودیتهایی در درک دنیای فیزیکی، احساس میکند که LLMها همچنین فاقد حافظه پایدار یا مداوم، قابلیتهای استدلال و توانایی انجام وظایف برنامهریزی پیچیده هستند. نظرات لکان با اظهارات گذشته او مطابقت دارد، جایی که او استدلال کرد که LLMها به هوش انسانی نزدیک نیستند و ممکن است هرگز به آن نقطه نرسند.
دیدگاه لکان برخلاف هیاهوی روزافزون پیرامون هوش مصنوعی عمومی (AGI) و هوش مصنوعی برتر است. با توجه به پیشرفتهایی مانند ChatGPT و هوش مصنوعی عاملمحور، بسیاری تصور میکنند که ما در آستانه ساخت ماشینهایی با قابلیتهای هوش مصنوعی برتر هستیم. با این حال، پیشبینیهای لکان توسط بسیاری از متخصصان هوش مصنوعی که معتقدند هوش مصنوعی واقعی باید قلمروهای فیزیکی و دیجیتال را ادغام کند، پذیرفته شده است.
گفتنی است که لکان یکی از سه «پدرخوانده هوش مصنوعی» است. ۲ نفر دیگر «جفری هینتون» و «یوشوا بنگیو» هستند و بنابراین آنچه او در مورد این چیزها فکر میکند، وزن زیادی دارد. یکی از دلایلی که او احساس میکند هوش مصنوعی - حتی با تمام پیشرفتها - نمیتواند با افرادی مثل من و شما رقابت کند این است که هنوز فاقد چهار ویژگی اساسی است. دانشمندان تلاش کردهاند تا این ویژگیها را در آنها بگنجانند تا به چیزی که هوش مصنوعی همه منظوره نامیده میشود - در اصطلاح هوش مصنوعی - دست یابند، اما ظاهراً هیچ راه میانبری برای هوش انسان و حیوان وجود ندارد.
لکان معتقد سرسختی است که بر این باور است که هوش مصنوعی به اندازه انسان هوشمند خواهد شد، اگرچه پیشبینی کرده است که این امر زمان میبرد. پیش از این، او امثال ایلان ماسک را که گفته بود: «هوش مصنوعی احتمالاً تا سال ۲۰۲۵ از هر انسانی باهوشتر خواهد بود و تا سال ۲۰۲۹، احتمالاً از همه انسانها روی هم رفته باهوشتر است» به چالش کشیده است. در عین حال، لکان سعی کرده نگرانیهای خود را در مورد احتمال تسلط هوش مصنوعی بر بشریت با گفتن اینکه «هوش مصنوعی نوعی پدیده طبیعی نیست که ناگهان ظهور کند و خطرناک شود» آرام کند.
لکان یکی از هفت مهندسی است که به دلیل مشارکتهایشان در یادگیری ماشینی مدرن، که پیشرفتهایی را در هوش مصنوعی ایجاد کرده است، جایزه معتبر ۵۰۰ هزار پوندی ملکه الیزابت (QE) برای مهندسی را دریافت کردهاند. یوشوا بنگیو، دیگر برنده این جایزه هشدار داد که پیشرفت بیشتری در زمینه ایمنی این فناوری مورد نیاز است.
بنگیو در اجلاس ۲ روزه اقدام هوش مصنوعی در پاریس گفت: دوست دارم رهبران جهان، بزرگی کاری را که انجام میدهیم، چه از نظر قدرتی که ایجاد میکنیم، که میتواند برای خیر یا خطرناک باشد، و چه از نظر خطراتی که با آن قدرت همراه است، بهتر درک کنند.
لکان به دنبال چه هوش مصنوعی است؟
سالهاست که صنعت هوش مصنوعی از مجموعهای از اصول به نام «قوانین مقیاسبندی» پیروی میکند. محققان OpenAI این اصول را در مقاله مهم سال ۲۰۲۰ با عنوان «قوانین مقیاسبندی برای مدلهای زبان عصبی» تشریح کردهاند. در نتیجه، عملکرد مدل به شدت به مقیاس بستگی دارد که از سه عامل تشکیل شده است: تعداد پارامترهای مدل N (به استثنای جاسازیها)، اندازه مجموعه داده D و میزان محاسبات C مورد استفاده برای آموزش.
در اصل، وقتی صحبت از ساخت هوش مصنوعی بسیار هوشمند میشود، سرمایهگذاریهای عظیم در مراکز داده میشود که به مدلهای هوش مصنوعی اجازه میدهد حجم عظیمی از اطلاعات موجود را پردازش و از آنها یاد بگیرند. اما اخیراً، متخصصان هوش مصنوعی در سراسر سیلیکون ولی شروع به به چالش کشیدن این دکترین کردهاند.
یان لکانی یکی از این افراد است. او میگوید: بیشتر اوقات مسائل جالب، مقیاس بسیار بدی دارند. شما نمیتوانید فقط فرض کنید که دادههای بیشتر و محاسبات بیشتر به معنای هوش مصنوعی هوشمندتر است.
نکته لکان بر این ایده استوار است که آموزش هوش مصنوعی با حجم وسیعی از موضوعات اساسی، مانند دادههای اینترنتی، به نوعی ابرهوش منجر نمیشود. هوش مصنوعی هوشمند، گونهای متفاوت است.
او میگوید: اشتباه این است که سیستمهای بسیار ساده، وقتی برای مسائل ساده کار میکنند، مردم آنها را برونیابی میکنند تا فکر کنند که برای مسائل پیچیده نیز کار میکنند. آنها کارهای شگفتانگیزی انجام میدهند، اما این باعث ایجاد یک مذهب مقیاسبندی میشود که شما فقط باید سیستمها را بیشتر مقیاسبندی کنید و آنها به طور طبیعی باهوشتر میشوند.
لکان میافزاید: در حال حاضر، تأثیر مقیاسبندی افزایش یافته است، زیرا بسیاری از جدیدترین پیشرفتها در هوش مصنوعی در واقع «واقعاً آسان» هستند. بزرگترین مدلهای زبانی بزرگ امروزی تقریباً با مقدار اطلاعات موجود در قشر بینایی یک کودک چهار ساله آموزش دیدهاند.
او همچنین میگوید: وقتی با مسائل دنیای واقعی با ابهام و عدم قطعیت سروکار دارید، دیگر فقط مقیاسبندی مطرح نیست. پیشرفتهای هوش مصنوعی اخیراً کند شدهاند. این امر تا حدودی به دلیل کاهش حجم دادههای عمومی قابل استفاده است.
لکان تنها محقق برجستهای نیست که قدرت مقیاسبندی را زیر سوال میبرد. «الکساندر وانگ»، مدیرعامل Scale AI، سال گذشته گفت که مقیاسبندی «بزرگترین چالش در صنعت» است و «آیدان گومز»، مدیرعامل Cohere، آن را «احمقانهترین» راه برای بهبود مدلهای هوش مصنوعی نامید.
آیدان گومز میگوید: ما به سیستمهای هوش مصنوعی نیاز داریم که بتوانند وظایف جدید را خیلی سریع یاد بگیرند. آنها باید دنیای فیزیکی - نه فقط متن و زبان، بلکه دنیای واقعی - را درک کنند - سطحی از عقل سلیم و توانایی استدلال و برنامهریزی داشته باشند، حافظه پایدار داشته باشند - تمام چیزهایی که از موجودات هوشمند انتظار داریم.
انتهای پیام/
نظر شما