آزادی ChatGPT در پاسخ‌ به سؤالات جنجالی؛ سند جدید OpenAI

31
0
آزادی ChatGPT در پاسخ‌ به سؤالات جنجالی؛ سند جدید OpenAI

OpenAI، شرکت پیشرو در زمینه هوش مصنوعی، تصمیم گرفته است دست ChatGPT را در پاسخ‌گویی به موضوعات حساس و جنجالی بازتر بگذارد. این اقدام به‌ویژه با توجه به جنجال‌هایی که پیش‌تر در زمینه اخلاق و رفتار مدل‌های هوش مصنوعی به‌وجود آمده بود، حائز اهمیت است. در نسخه جدیدی از سند «مشخصات مدل» که منتشر شده است، به‌طور دقیق‌تر مشخص شده که چطور مدل‌های OpenAI، از جمله GPT-4 و نسخه‌های بعدی، در برخورد با مسائل حساس و بحث‌برانگیز عمل خواهند کرد.

تغییرات عمده در سند «مشخصات مدل» OpenAI

شرکت OpenAI اخیراً نسخه به‌روز شده و مفصل‌تری از سند «مشخصات مدل» خود را منتشر کرده است. این سند که پیش‌تر تنها در حدود ۱۰ صفحه تنظیم شده بود، اکنون به ۶۳ صفحه افزایش یافته و مباحث جدیدی را دربر می‌گیرد. از جمله تغییرات عمده، تأکید بیشتر بر سه اصل کلیدی است: شخصی‌سازی، شفافیت و آزادی فکری. آزادی فکری به معنای توانایی کاربر برای بحث و کاوش در ایده‌ها بدون هیچ‌گونه محدودیت خودسرانه‌ای از سوی مدل هوش مصنوعی است.

رویکرد جدید در برخورد با مسائل اخلاقی و حساس

یکی از دغدغه‌های اصلی OpenAI در به‌روزرسانی جدید، رسیدگی به پرسش‌های اخلاقی و حساس است. به عنوان مثال، مسائلی مانند “مسئله تراموا” که در آن باید انتخاب‌هایی اخلاقی در شرایط بحرانی انجام داد، در این نسخه به‌طور دقیق‌تری بررسی شده‌اند. مدل‌های جدید اکنون قادرند به‌طور شفاف‌تر و با تحلیل منطقی به چنین سؤالاتی پاسخ دهند. به‌عنوان مثال، در صورتی که از ChatGPT سؤالی مشابه بپرسید، مدل ممکن است پیشنهاد کند که در مواقع بحرانی به‌طور موقتی و به‌طور نادرست جنسیت فردی را تغییر دهید تا از فاجعه‌ای بزرگ جلوگیری کنید.

این رویکرد به‌طور خاص در راستای یک مسئله بزرگ در صنعت هوش مصنوعی است که هیچ مدل واحدی نمی‌تواند به‌طور یکسان برای تمام افراد جهان رفتار کند. به‌طور خاص، OpenAI اعلام کرده که نمی‌توان یک استاندارد رفتاری جهانی برای تمام انسان‌ها تعریف کرد و به همین دلیل به دنبال ایجاد امکان شخصی‌سازی پاسخ‌ها توسط کاربران است.

برخورد با موضوعات حساس و بزرگسال

یکی از بزرگ‌ترین تغییرات این سند، بازنگری در نحوه برخورد با محتوای بزرگسال است. OpenAI اعلام کرده است که پس از دریافت بازخورد از کاربران و توسعه‌دهندگان، در حال کار بر روی بهبود قابلیت‌های مدل برای مدیریت و نمایش محتوای بزرگسال است، به‌طوری‌که این محتوای حساس در شرایط مناسب و با رعایت اصول ایمنی نمایش داده شود.

علاوه بر این، این شرکت قصد دارد از طریق توسعه دستورالعمل‌های شفاف و معین، از تولید محتوای مضر مانند دیپ‌فیک‌ها جلوگیری کند. همچنین، مدل‌ها مجاز خواهند بود محتوای حساس را تغییر دهند، اما قادر به تولید آن نخواهند بود.

مقابله با «چاپلوسی هوش مصنوعی»

یکی از مشکلات عمده‌ای که OpenAI در تلاش است آن را حل کند، مسئله «چاپلوسی هوش مصنوعی» است. این مشکل زمانی به‌وجود می‌آید که مدل‌های هوش مصنوعی در شرایطی که باید انتقادی یا اصلاحی رفتار کنند، تنها نظرات مثبت یا تأییدیه‌های بی‌محتوا به کاربر ارائه می‌دهند. طبق دستورالعمل‌های جدید، ChatGPT باید پاسخ‌هایی صادقانه و مبتنی بر حقیقت ارائه دهد و به‌جای تأیید صرف، بازخوردهای سازنده و منطقی به کاربر بدهد.

شفافیت بیشتر در رفتار مدل‌ های هوش مصنوعی

دستورالعمل‌های جدید OpenAI شامل یک سلسله‌مراتب دستورات است که مشخص می‌کند کدام دستورالعمل‌ها در اولویت قرار دارند. به این ترتیب، مدل‌های هوش مصنوعی باید همواره به قوانین پلتفرم احترام بگذارند و در عین حال بتوانند با توجه به تنظیمات کاربران و توسعه‌دهندگان، رفتار خود را شخصی‌سازی کنند. این ساختار جدید، به وضوح بیان می‌کند که برخی از بخش‌های رفتار هوش مصنوعی قابل تنظیم هستند و برخی دیگر ثابت باقی خواهند ماند.

دسترسی آزاد به سند جدید

OpenAI این سند را تحت مجوز Creative Commons Zero (CC0) منتشر کرده است، به این معنی که دیگر شرکت‌ها و پژوهشگران می‌توانند از آن استفاده کنند و آن را تغییر دهند. این تصمیم بر اساس بازخوردهای غیررسمی از جامعه هوش مصنوعی اتخاذ شده است و نشان‌دهنده تمایل OpenAI به شفافیت و اشتراک‌گذاری اطلاعات با عموم است.

نتیجه‌ گیری

انتشار سند جدید OpenAI به وضوح نشان‌دهنده تحولی بزرگ در نحوه تعامل مدل‌های هوش مصنوعی با مسائل اخلاقی، جنجالی و حساس است. OpenAI با تأکید بر اصول شفافیت، آزادی فکری و شخصی‌سازی پاسخ‌ها، قصد دارد تعاملات هوش مصنوعی را به‌گونه‌ای تنظیم کند که نه تنها از ایمنی کاربران محافظت شود، بلکه امکان بحث و کاوش آزادانه در ایده‌های مختلف را نیز فراهم آورد. این تغییرات می‌توانند به یک تحول بنیادین در صنعت هوش مصنوعی منجر شوند و راه را برای توسعه مدل‌هایی با رفتارهای اخلاقی و منطقی باز کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *