هوش مصنوعی و تحریف اخبار: بررسی چت‌ بات‌ ها توسط بی‌ بی‌ سی

32
0
هوش مصنوعی و تحریف اخبار: بررسی چت‌ بات‌ ها توسط بی‌ بی‌ سی

هوش مصنوعی در سال‌های اخیر تحولات گسترده‌ای در حوزه‌های مختلف ایجاد کرده است و یکی از قابلیت‌های کلیدی آن، تولید و خلاصه‌سازی محتوا است. چت‌بات‌های مبتنی بر هوش مصنوعی مانند ChatGPT، جمینای، کوپایلت و سایر مدل‌های زبانی، برای ارائه اطلاعات سریع و دقیق طراحی شده‌اند. اما گزارش جدید بی‌بی‌سی نشان می‌دهد که این چت‌بات‌ها گاهی دچار تحریف اخبار و ارائه اطلاعات نادرست می‌شوند. این مسئله نگرانی‌های زیادی در مورد قابلیت اطمینان این فناوری ایجاد کرده است.

نتایج بررسی بی‌ بی‌ سی: چت‌ بات‌ های هوش مصنوعی و دقت پایین در اخبار

بی‌بی‌سی در پژوهشی جدید، عملکرد چندین چت‌بات مطرح را در خلاصه‌سازی اخبار بررسی کرده است. نتایج این تحقیق نشان می‌دهد که بسیاری از چت‌بات‌ها، به‌ویژه جمینای گوگل، در ارائه اطلاعات دقیق با مشکلاتی جدی مواجه هستند.

  • محققان بی‌بی‌سی از چت‌بات‌های مختلف خواستند تا ۱۰۰ خبر منتشرشده توسط این رسانه را خلاصه کنند.
  • بررسی‌ها نشان داد که بیش از ۵۱ درصد پاسخ‌های تولیدشده حاوی اشتباهات قابل‌توجه بوده‌اند.
  • ۱۹ درصد پاسخ‌ها شامل اطلاعات نادرست درباره تاریخ‌ها، نقل‌قول‌ها و اعداد بودند.
  • در ۱۳ درصد موارد، نقل‌قول‌های بی‌بی‌سی یا تحریف شده بودند یا اصلاً در منبع اصلی وجود نداشتند.

این یافته‌ها نشان می‌دهد که علی‌رغم پیشرفت‌های چشمگیر در فناوری هوش مصنوعی، همچنان مشکلاتی در پردازش و انتقال صحیح اطلاعات وجود دارد.

جمینای گوگل: بیشترین میزان اشتباه در میان چت‌ بات‌ ها

بی‌بی‌سی گزارش داده که از میان تمامی چت‌بات‌های بررسی‌شده، مدل جمینای گوگل بیشترین خطا را داشته است. این چت‌بات در ۴۶ درصد از موارد، اطلاعات نادرست یا تحریف‌شده ارائه کرده است.

  • جمینای در مقایسه با سایر چت‌بات‌ها، بیشتر در تفسیر و ارائه اخبار دچار خطا شد.
  • برخی از پاسخ‌های این چت‌بات شامل اطلاعاتی بود که در منابع اصلی وجود نداشت.
  • شرکت گوگل تاکنون واکنشی به این گزارش نشان نداده است.

این مسئله اهمیت نظارت و تنظیم دقیق‌تر مدل‌های هوش مصنوعی را برجسته می‌کند تا از انتشار اطلاعات نادرست جلوگیری شود.

مشکل تحریف اخبار: چالش بزرگ چت‌ بات‌ های هوش مصنوعی

یکی از مشکلات رایج در چت‌بات‌های هوش مصنوعی، پدیده‌ای به نام “هذیان” (Hallucination) است. در این پدیده، مدل‌های زبانی اطلاعاتی تولید می‌کنند که واقعیت ندارند یا تحریف‌شده‌اند.

  • در برخی موارد، چت‌بات‌ها اطلاعاتی را از خود تولید می‌کنند که هیچ منبعی برای آن‌ها وجود ندارد.
  • حتی زمانی که اطلاعات درست هستند، ممکن است زمینه و مفهوم اصلی خبر تغییر کند.
  • این مشکل باعث می‌شود کاربران نتوانند به‌طور کامل به اطلاعات ارائه‌شده توسط چت‌بات‌ها اعتماد کنند.

تحریف اخبار توسط اپل اینتلیجنس: نمونه‌ های پیشین

این اولین باری نیست که بی‌بی‌سی از مشکل تحریف اخبار توسط چت‌بات‌های هوش مصنوعی خبر می‌دهد. پیش از این، قابلیت “اپل اینتلیجنس” نیز اخبار را نادرست گزارش کرده بود.

  • در یک مورد، اپل اینتلیجنس به اشتباه اعلام کرده بود که مظنون به قتل مدیرعامل شرکت “یونایتد هلتکر” در زندان خودکشی کرده است.
  • در موردی دیگر، این سیستم به‌اشتباه اعلام کرده بود که “لوک لیتلر”، بازیکن دارت، قهرمان مسابقات جهانی PDC شده، درحالی‌که او فقط به فینال راه یافته بود.

پس از این اشتباهات، اپل اعلام کرد که در قابلیت خلاصه‌سازی اخبار هوش مصنوعی خود تغییراتی ایجاد خواهد کرد. بااین‌حال، هنوز مشخص نیست که این تغییرات تا چه حد از بروز اشتباهات مشابه در آینده جلوگیری خواهند کرد.

نتیجه‌ گیری

هوش مصنوعی و چت‌بات‌های مبتنی بر آن، ابزارهای قدرتمندی برای پردازش و خلاصه‌سازی اطلاعات هستند، اما هنوز چالش‌های زیادی در مورد صحت و دقت اطلاعات ارائه‌شده توسط آن‌ها وجود دارد. تحقیقات بی‌بی‌سی نشان می‌دهد که بسیاری از این چت‌بات‌ها، به‌ویژه جمینای گوگل، در ارائه اخبار دقیق دچار مشکل هستند.

با توجه به این نتایج، کاربران باید در استفاده از اطلاعات ارائه‌شده توسط چت‌بات‌های هوش مصنوعی محتاط باشند و برای دریافت اخبار معتبر، به منابع اصلی مراجعه کنند. همچنین، شرکت‌های توسعه‌دهنده هوش مصنوعی باید تلاش کنند تا دقت این سیستم‌ها را بهبود بخشند و از انتشار اطلاعات تحریف‌شده جلوگیری کنند.

زینب کریمی پور
نوشته شده توسط

زینب کریمی پور

عاشق تکنولوژی و هرآنچه که به دنیای روز مرتبطه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *