کارشناسان زبان‌شناسی هم نمی‌توانند نوشته‌های ChatGPT را تشخیص دهند

مطالعات جدید محققان آمریکایی در مورد ChatGPT نشان می‌دهد که حتی متخصصان زبان‌شناسی هم نمی‌توانند بین نوشتار تولید شده توسط انسان و هوش مصنوعی تمایز قائل شوند.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در مطالعه جدید، متخصصان زبان‌شناسی سعی کردند که نوشتار ChatGPT و نوشتار انسان را از هم تشخیص دهند و فقط در ۳۸/۹ درصد موفق به این کار شدند و علیرغم استدلال منطقی پشت انتخاب‌هایشان، اغلب پاسخ‌هایشان نادرست بود. این امر نشان می‌دهد که متون کوتاه تولید شده توسط هوش مصنوعی می‌تواند به اندازه نوشتن انسان بی‌نقص و فریب‌دهنده باشد.

بر اساس مطالعه‌ای که اخیراً توسط استادیار دانشگاه فلوریدای جنوبی انجام شده است، متخصصان زبان‌شناسی از مجلات برتر جهانی تنها در ۳۹ درصد مواقع می‌توانند به طور دقیق بین متن تولید شده هوش مصنوعی و انسان تمایز قائل شوند.

متیو کسلر، محقق دانشگاه فلوریدای جنوبی در گروه زبان‌های جهان، می‌گوید: تصور ما این بود که بهترین افرادی که می‌توانند نوشته‌های تولید شده توسط انسان را شناسایی کنند، زبان‌شناسانی هستند که کار خود را صرف مطالعه روی الگوهای زبان و دیگر جنبه‌های ارتباطی انسانی کرده‌اند.

بیشتر بخوانید:

معلم‌ها بیشتر از دانش‌آموزان از ChatGPT استفاده می‌کنند

کسلر با همکاری یک استادیار زبان‌شناسی کاربردی در دانشگاه ممفیس، ۷۲ متخصص زبان‌شناسی را به بررسی انواع متون تحقیقاتی دعوت کردند تا تعیین کنند که کدام توسط هوش مصنوعی و کدام توسط انسان نوشته شده‌اند.

از هر متخصص خواسته شد تا چهار نمونه نوشتاری را بررسی کند. اما جالب اینجاست که هیچ‌کدام به درستی نتوانستند هر چهار مورد را شناسایی کنند و ۱۳ درصدشان همه متون را اشتباه ارزیابی کردند. در همین راستا، کسلر به این نتیجه رسید که اساتید دانشگاه هیچ راهی ندارند که نوشته‌های دانشجویان‌شان را از نوشته‌هایی که یک مدل زبان مبتنی بر هوش مصنوعی مانند ChatGPT تولید کرده، تشخیص دهند.

کارشناسان خیلی تلاش کردند که با استفاده از دلایل منطقی، نمونه‌های نوشتاری را تحلیل کنند، اما حتی استفاده از ویژگی‌های زبانی و سبکی هم فقط در ۳۹ درصد موفق بود.

کسلر می‌گوید: جالب‌تر این بود که زمانی که از آنها دلایل‌شان را برای دسته‌بندی متون پرسیدیم، دلایلی بسیار منطقی آوردند، اما تقریبا همه آنها  اشتباه از آب درآمد.

اما نکته دیگری که این مطالعه به همراه داشت، این بود که ChatGPT بیشتر در ژانرهای کوتاه یا متون کوتاه موفق عمل می‌کند و خیلی شبیه به انسان می‌نویسد، اما برای متون طولانی‌تر، هوش مصنوعی به نوعی دچار توهم می‌شود و محتوایی را ایجاد می‌کند که دور از نوشته‌های انسانی می‌شود. از این رو، تشخیص اینکه متن توسط هوش مصنوعی تولید شده، آسان‌تر می‌شود.

کسلر امیدوار است که این مطالعه منجر به گفتگوی بزرگ‌تر برای ایجاد اصول اخلاقی و دستورالعمل‌های لازم در مورد استفاده از هوش مصنوعی در تحقیق و آموزش شود.

انتهای پیام/

کد خبر: 1198079

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =