هوش مصنوعی در سالهای اخیر تحولات گستردهای در حوزههای مختلف ایجاد کرده است و یکی از قابلیتهای کلیدی آن، تولید و خلاصهسازی محتوا است. چتباتهای مبتنی بر هوش مصنوعی مانند ChatGPT، جمینای، کوپایلت و سایر مدلهای زبانی، برای ارائه اطلاعات سریع و دقیق طراحی شدهاند. اما گزارش جدید بیبیسی نشان میدهد که این چتباتها گاهی دچار تحریف اخبار و ارائه اطلاعات نادرست میشوند. این مسئله نگرانیهای زیادی در مورد قابلیت اطمینان این فناوری ایجاد کرده است.
نتایج بررسی بی بی سی: چت بات های هوش مصنوعی و دقت پایین در اخبار
بیبیسی در پژوهشی جدید، عملکرد چندین چتبات مطرح را در خلاصهسازی اخبار بررسی کرده است. نتایج این تحقیق نشان میدهد که بسیاری از چتباتها، بهویژه جمینای گوگل، در ارائه اطلاعات دقیق با مشکلاتی جدی مواجه هستند.
- محققان بیبیسی از چتباتهای مختلف خواستند تا ۱۰۰ خبر منتشرشده توسط این رسانه را خلاصه کنند.
- بررسیها نشان داد که بیش از ۵۱ درصد پاسخهای تولیدشده حاوی اشتباهات قابلتوجه بودهاند.
- ۱۹ درصد پاسخها شامل اطلاعات نادرست درباره تاریخها، نقلقولها و اعداد بودند.
- در ۱۳ درصد موارد، نقلقولهای بیبیسی یا تحریف شده بودند یا اصلاً در منبع اصلی وجود نداشتند.
این یافتهها نشان میدهد که علیرغم پیشرفتهای چشمگیر در فناوری هوش مصنوعی، همچنان مشکلاتی در پردازش و انتقال صحیح اطلاعات وجود دارد.
جمینای گوگل: بیشترین میزان اشتباه در میان چت بات ها
بیبیسی گزارش داده که از میان تمامی چتباتهای بررسیشده، مدل جمینای گوگل بیشترین خطا را داشته است. این چتبات در ۴۶ درصد از موارد، اطلاعات نادرست یا تحریفشده ارائه کرده است.
- جمینای در مقایسه با سایر چتباتها، بیشتر در تفسیر و ارائه اخبار دچار خطا شد.
- برخی از پاسخهای این چتبات شامل اطلاعاتی بود که در منابع اصلی وجود نداشت.
- شرکت گوگل تاکنون واکنشی به این گزارش نشان نداده است.
این مسئله اهمیت نظارت و تنظیم دقیقتر مدلهای هوش مصنوعی را برجسته میکند تا از انتشار اطلاعات نادرست جلوگیری شود.
مشکل تحریف اخبار: چالش بزرگ چت بات های هوش مصنوعی
یکی از مشکلات رایج در چتباتهای هوش مصنوعی، پدیدهای به نام “هذیان” (Hallucination) است. در این پدیده، مدلهای زبانی اطلاعاتی تولید میکنند که واقعیت ندارند یا تحریفشدهاند.
- در برخی موارد، چتباتها اطلاعاتی را از خود تولید میکنند که هیچ منبعی برای آنها وجود ندارد.
- حتی زمانی که اطلاعات درست هستند، ممکن است زمینه و مفهوم اصلی خبر تغییر کند.
- این مشکل باعث میشود کاربران نتوانند بهطور کامل به اطلاعات ارائهشده توسط چتباتها اعتماد کنند.
تحریف اخبار توسط اپل اینتلیجنس: نمونه های پیشین
این اولین باری نیست که بیبیسی از مشکل تحریف اخبار توسط چتباتهای هوش مصنوعی خبر میدهد. پیش از این، قابلیت “اپل اینتلیجنس” نیز اخبار را نادرست گزارش کرده بود.
- در یک مورد، اپل اینتلیجنس به اشتباه اعلام کرده بود که مظنون به قتل مدیرعامل شرکت “یونایتد هلتکر” در زندان خودکشی کرده است.
- در موردی دیگر، این سیستم بهاشتباه اعلام کرده بود که “لوک لیتلر”، بازیکن دارت، قهرمان مسابقات جهانی PDC شده، درحالیکه او فقط به فینال راه یافته بود.
پس از این اشتباهات، اپل اعلام کرد که در قابلیت خلاصهسازی اخبار هوش مصنوعی خود تغییراتی ایجاد خواهد کرد. بااینحال، هنوز مشخص نیست که این تغییرات تا چه حد از بروز اشتباهات مشابه در آینده جلوگیری خواهند کرد.
نتیجه گیری
هوش مصنوعی و چتباتهای مبتنی بر آن، ابزارهای قدرتمندی برای پردازش و خلاصهسازی اطلاعات هستند، اما هنوز چالشهای زیادی در مورد صحت و دقت اطلاعات ارائهشده توسط آنها وجود دارد. تحقیقات بیبیسی نشان میدهد که بسیاری از این چتباتها، بهویژه جمینای گوگل، در ارائه اخبار دقیق دچار مشکل هستند.
با توجه به این نتایج، کاربران باید در استفاده از اطلاعات ارائهشده توسط چتباتهای هوش مصنوعی محتاط باشند و برای دریافت اخبار معتبر، به منابع اصلی مراجعه کنند. همچنین، شرکتهای توسعهدهنده هوش مصنوعی باید تلاش کنند تا دقت این سیستمها را بهبود بخشند و از انتشار اطلاعات تحریفشده جلوگیری کنند.