هوش مصنوعی به ربات ها دید 360 درجه می دهد

دانشمندان کامپیوتر به یک عامل هوش مصنوعی آموزش هایی داده اند که بتواند کارهایی را انجام دهد که بتواندچشم اندازهای مختلفی را در اطراف خود بینند و در پایان از کل محیطی که در آن قرار دارد، نتیجه گیری کند؛ کاری که تنها از انسان ها برمی آید.

به گزارش گروه علم وفناوری ایسکانیوز، مهارت جدید برای توسعه روبات های جستجو و نجات موثر است که البته یک روز می تواند کارایی ماموریت های خطرناک را در زمینه خاص نیز بهبود بخشد.

اکثر عوامل AI -که سیستم های کامپیوتری هستند که می توانند برای روبات ها یا ماشین های دیگر هوش را به ارمغان بیاورد - برای انجام وظایف بسیار خاص مانند تشخیص یک شی یا برآورد حجم آن در محیطی که قبلا تجربه کرده اند مانند یک کارخانه آموزش دیده اند.

عامل جدید اما هدف کلی تر است و با جمع آوری اطلاعات بصری می تواند برای طیف وسیعی از وظایف و کارها مورد استفاده قرار گیرد.

«کریستن گریمن»، استاد گروه علوم رایانه دانشگاه «تگزاس» در «آستین»، می گوید: "ما عاملی می خواهیم نماینده ای که عموما برای ورود به محیط های متفاوت مجهز شده و آماده پذیرفتن وظایف جدید و غیرمنتظره و ادراک آنها در زمانی که به وجود می آیند، باشند."

"این رفتار به طریقی برنامه ریزی شده است که ربات قادر خواهد بود در همه کارها و وظایف مختلفی که به آنها محول می شود موفق شود، زیرا الگوهای مفیدی در مورد دنیای بصری آموخته است."

محققان از مدل « یادگیری عمیق» که نوعی یادگیری ماشینی است و از شبکه های عصبی مغز الهام گرفته شده است، برای آموزش عامل خود در هزاران عکس 360 درجه ای از محیط های مختلف استفاده کردند.

در حال حاضر، زمانی که این عامل با صحنه ای که پیش از این هرگز دیده نشده است،مواجه می شود، از تجربه خود برای انتخاب چند چشم انداز استفاده می کند مانند یک توریست که در وسط کلیسای جامع ایستاده است و با گرفتن چند عکس در جهات مختلف که روی هم به کمتر از 20 درصد صحنه کامل نیز دسترسی نخواهد داشت.

چیزی که باعث می شود این سیستم بسیار موثر باشد، این است که فقط تصاویر را در مسیرهای تصادفی نگرفته، اما بعد از هر نگاه اجمالی، انتخاب بعدی که پیش بینی می کند، اطلاعات جدیدی را در مورد کل صحنه اضافه می کند. این بسیار شبیه به این است که اگر شما در یک فروشگاه مواد غذایی باشید که پیش از آن هرگز از آن بازدید نکرده بودید و سیب ها را دیدید، انتظار دارید پرتقال ها را نیز در همان پیدا کنید، اما برای پیدا کردن شیر، ممکن است جهت دیگری را نگاه کنید.

بسته به تعداد عکس هایی که گرفته می شود، عامل هوش مصنوعی تصمیم می گیرد از آنچه که در تمام جهات دیده می شود، نتیجه گیری کرده و یک تصویر 360 درجه ای از محیط اطرافش بازسازی کند.

گراهامون می گوید: "برای انسان ها اطلاعات پیشین در مورد قوانینی که در محیط های قبلا تجربه شده وجود دارد (مانند همه فروشگاه های مواد غذایی که تاکنون بوده اید) اما این عامل از آنها پیروی نمی کند. عامل هوشمند در ابتدا یاد می گیرد تا حدس های هوشمندانه ای درباره محیط اطرافش داشته باشد یاد می گیرد سپس با استفاده از گمان های خود در مورد جایی که از آنجا اطلاعات بصری جمع آوری کرده است برای موفقیت در وظایف ادراکی نتیجه گیری می کند."

یکی از چالش های اصلی محققان برای خود ایجاد کرده اند این است که این عامل بتواند در زمان محدود کار انجام دهد که این خصلت در عملیات های جستجو و نجات حیاتی است. به عنوان مثال، در یک ساختمان که دچار حریق شده، یک ربات باید بتواند سریعا مردم، شعله های آتش و مواد خطرناک را شناسایی کند و اطلاعات را برای آتش نشان ها ارسال کند.

در حال حاضر، عامل جدید مانند یک فرد ایستاده در یک نقطه با قابلیت اشاره به دوربین در هر جهت عمل می کند، اما قادر به حرکت به موقعیت جدید نیست. به عبارت دیگر عامل می تواند به یک شی نگاه کند و تصمیم بگیرد که از چه زوایایی از آن تصویربرداری کند تا طرف دیگر به بررسی آن بپردازد.

در ادامه این طرح تحقیقاتی، محققان در حال توسعه سیستم برای کار در یک ربات کاملا متحرک هستند.

با استفاده از ابر رایانه ها، یک روز تمام طول کشید تا بوسیله هوش مصنوعی و با استفاده از روشی به نام تقویت یادگیری عامل اول بتواند با عامل دوم ارتباط برقرار کند. این تیم یک روش برای سرعت بخشیدن به آموزش را توسعه داده است: ساختن یک عامل دوم، به نام زنجیر، برای کمک به عامل اولیه ؛ به عبارتی استفاده از اطلاعات اضافی که صرفا در طول آموزش در حال حاضر می تواند به عامل اصلی کمک کند تا سریعتر یاد بگیرد.

انتهای پیام /

کد خبر: 1005955

وب گردی

وب گردی