محققان علوم کامپیوتر دانشگاه آکسفوردoxford اکنون میتوانند بگویند چه زمانی هوش مصنوعی دچارتوهم میشود
در دانشگاه آکسفوردoxford شناسایی جالبی انجام شده است.
آنها الگوریتمی توسعه دادهاند که به شما امکان میدهد بشناسید چه زمانی یک هوش مصنوعی واهمه میبیند. واهمه در هوش مصنوعی مانند مدلهای Gemini و ChatGPT به وجود میآید زمانی که اطلاعات نادرستی تولید میکند که باعث انتشار اطلاعات غلط میشود. این واهمهها به چندین شکل ظاهر میشوند.
یک هوش مصنوعی ممکن است در زمان ارائه اطلاعات واقعی، واقعیتهایی را اختراع کند یا سناریوهای مصنوعی تولید کند. همچنین، ممکن است چیزی حیاتی را از دست بدهد، مانند عدم شناسایی یک خطا واضح در یک صفحه اکسل، به دلیل عدم آموزش بر روی این نوع خطاها.
دقیقاً چرا واهمههای هوش مصنوعی رخ میدهند؟
هوش مصنوعی بر اساس یک مجموعه داده آموزش داده میشود. در صورتی که دادهها بهروز نباشند یا کامل نماینده نباشند، احتمال واهمهها افزایش مییابد. یک عامل مهم دیگر در واهمهها، آموزش هوش مصنوعی بر دادههایی است که ممکن است تبعیضآمیز باشند؛ هوش مصنوعی نمیتواند این موضوع را تشخیص دهد و احتمالاً یک دید یکجانبه از اطلاعات ارائه خواهد داد که ممکن است گمراهکننده باشد.
مدلهای هوش مصنوعی ممکن است با مشکل تعمیم روبرو شوند، به این معنی که در شرایطی که از محیط آموزش آنها متفاوت باشد، عملکرد مناسبی نداشته باشند. این کمبود انعطاف منجر به خطاها میشود زمانی که مدل با دادههای جدید یا کمی متفاوت مواجه میشود.
این مدل به اندازه کافی متنوع آموزش نیافته است تا بتواند در خارج از محیط آموزش خود به تصمیمگیریهای دقیق دست یابد. به این معنی که در نهایت، هوش مصنوعی نیست و استفاده از الگوها و الگوریتمها برای یادگیری به این معنی است که نمیتواند به همان شیوهای که مغز انسان انجام میدهد، منطق و تفکر انتقادی را پردازش و تطبیق دهد.
این ابزار چگونه کار میکند؟
دکتر سباستین فارکوار، یکی از همنویسان این مطالعه، توضیح میدهد: “ما در واقع از هوش مصنوعی سوال یکسان را چندین بار میپرسیم و تطابق پاسخها را مشاهده میکنیم. وجود تغییرات زیاد نشان میدهد که هوش مصنوعی ممکن است واهمه داشته باشد.”
این روش، به آنچه که آنها “آنتروپی معنایی” مینامند، تمرکز دارد و به بررسی خروجیهای مختلف به ازای معانی یا تفسیرات مختلف میپردازد، به جای محدود شدن به انتخاب واژگان. دکتر فارکوار توضیح میدهد: “سیستم ما نه فقط ساختار متن را بررسی میکند بلکه به عمق در معانی زیرین وارد میشود، که این ابزار را برای کاربردهای واقعی به سرعت و قدرت میبخشد.”
چگونه میتوان از این ابزار استفاده کرد؟
این ابزار به خوبی در عملیات روزانه ای که از هوش مصنوعی استفاده میشود، مورد استفاده قرار میگیرد. به عنوان مثال، در حوزه بهداشت. دقت هوش مصنوعی در اینجا بسیار مهم است، زیرا برای تجزیه و تحلیل، تشخیص و تفسیر دادههای پزشکی استفاده میشود. بنابراین، این ابزار میتواند برای جلوگیری از عدم دقت و کاهش خطاها منجر به درمان بهتر و کمتر خطا باشد.
یک راه خوب دیگر برای استفاده از این ابزار در روزنامهنگاری است. ما شاهد خبرهای بیشماری هستیم که به دلیل واهمههای هوش مصنوعی منتشر میشوند، زمانی که اخبار برای دقت دوباره چک نمیشوند. این ابزار به این صورت میتواند کمک کند که خوانندگان بیشتر به اطمینان از صحت خواندن مطلب بپردازند.
یارین گال، استاد علوم کامپیوتر دانشگاه آکسفورد و مدیر تحقیقات در موسسه ایمنی هوش مصنوعی انگلستان، به خوبی این موضوع را بیان کرده است: “دریافت پاسخها از مدلهای زبان زنده ارزان است، اما اعتبار پذیری بزرگترین موانع است. در مواقعی که اعتبار مهم است، محاسبه عدم قطعیت معنایی قیمت کوچکی است که باید پرداخت شود.”
منبع:لینک