اخبارانگلیسگزارش نامه

محققان علوم کامپیوتر دانشگاه آکسفوردoxford اکنون می‌توانند بگویند چه زمانی هوش مصنوعی دچارتوهم میشود

در دانشگاه آکسفوردoxford شناسایی جالبی انجام شده است.

آنها الگوریتمی توسعه داده‌اند که به شما امکان می‌دهد بشناسید چه زمانی  یک هوش مصنوعی واهمه می‌بیند. واهمه در هوش مصنوعی مانند مدل‌های Gemini و ChatGPT به وجود می‌آید زمانی که اطلاعات نادرستی تولید می‌کند که باعث انتشار اطلاعات غلط می‌شود. این واهمه‌ها به چندین شکل ظاهر می‌شوند.

یک هوش مصنوعی ممکن است در زمان ارائه اطلاعات واقعی، واقعیت‌هایی را اختراع کند یا سناریوهای مصنوعی تولید کند. همچنین، ممکن است چیزی حیاتی را از دست بدهد، مانند عدم شناسایی یک خطا واضح در یک صفحه اکسل، به دلیل عدم آموزش بر روی این نوع خطاها.

دقیقاً چرا واهمه‌های هوش مصنوعی رخ می‌دهند؟

هوش مصنوعی بر اساس یک مجموعه داده آموزش داده می‌شود. در صورتی که داده‌ها به‌روز نباشند یا کامل نماینده نباشند، احتمال واهمه‌ها افزایش می‌یابد. یک عامل مهم دیگر در واهمه‌ها، آموزش هوش مصنوعی بر داده‌هایی است که ممکن است تبعیض‌آمیز باشند؛ هوش مصنوعی نمی‌تواند این موضوع را تشخیص دهد و احتمالاً یک دید یک‌جانبه از اطلاعات ارائه خواهد داد که ممکن است گمراه‌کننده باشد.

مدل‌های هوش مصنوعی ممکن است با مشکل تعمیم روبرو شوند، به این معنی که در شرایطی که از محیط آموزش آنها متفاوت باشد، عملکرد مناسبی نداشته باشند. این کمبود انعطاف منجر به خطاها می‌شود زمانی که مدل با داده‌های جدید یا کمی متفاوت مواجه می‌شود.

این مدل به اندازه کافی متنوع آموزش نیافته است تا بتواند در خارج از محیط آموزش خود به تصمیم‌گیری‌های دقیق دست یابد. به این معنی که در نهایت، هوش مصنوعی نیست و استفاده از الگوها و الگوریتم‌ها برای یادگیری به این معنی است که نمی‌تواند به همان شیوه‌ای که مغز انسان انجام می‌دهد، منطق و تفکر انتقادی را پردازش و تطبیق دهد.

 

محققان علوم کامپیوتر
محققان علوم کامپیوتر

این ابزار چگونه کار می‌کند؟

دکتر سباستین فارکوار، یکی از هم‌نویسان این مطالعه، توضیح می‌دهد: “ما در واقع از هوش مصنوعی سوال یکسان را چندین بار می‌پرسیم و تطابق پاسخ‌ها را مشاهده می‌کنیم. وجود تغییرات زیاد نشان می‌دهد که هوش مصنوعی ممکن است واهمه داشته باشد.”

این روش، به آنچه که آنها “آنتروپی معنایی” می‌نامند، تمرکز دارد و به بررسی خروجی‌های مختلف به ازای معانی یا تفسیرات مختلف می‌پردازد، به جای محدود شدن به انتخاب واژگان. دکتر فارکوار توضیح می‌دهد: “سیستم ما نه فقط ساختار متن را بررسی می‌کند بلکه به عمق در معانی زیرین وارد می‌شود، که این ابزار را برای کاربردهای واقعی به سرعت و قدرت می‌بخشد.”

چگونه می‌توان از این ابزار استفاده کرد؟

این ابزار به خوبی در عملیات روزانه ای که از هوش مصنوعی استفاده می‌شود، مورد استفاده قرار می‌گیرد. به عنوان مثال، در حوزه بهداشت. دقت هوش مصنوعی در اینجا بسیار مهم است، زیرا برای تجزیه و تحلیل، تشخیص و تفسیر داده‌های پزشکی استفاده می‌شود. بنابراین، این ابزار می‌تواند برای جلوگیری از عدم دقت و کاهش خطاها منجر به درمان بهتر و کمتر خطا باشد.

یک راه خوب دیگر برای استفاده از این ابزار در روزنامه‌نگاری است. ما شاهد خبرهای بی‌شماری هستیم که به دلیل واهمه‌های هوش مصنوعی منتشر می‌شوند، زمانی که اخبار برای دقت دوباره چک نمی‌شوند. این ابزار به این صورت می‌تواند کمک کند که خوانندگان بیشتر به اطمینان از صحت خواندن مطلب بپردازند.

یارین گال، استاد علوم کامپیوتر دانشگاه آکسفورد و مدیر تحقیقات در موسسه ایمنی هوش مصنوعی انگلستان، به خوبی این موضوع را بیان کرده است: “دریافت پاسخ‌ها از مدل‌های زبان زنده ارزان است، اما اعتبار پذیری بزرگترین موانع است. در مواقعی که اعتبار مهم است، محاسبه عدم قطعیت معنایی قیمت کوچکی است که باید پرداخت شود.”

منبع:لینک

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا