OpenAI، شرکت پیشرو در زمینه هوش مصنوعی، تصمیم گرفته است دست ChatGPT را در پاسخگویی به موضوعات حساس و جنجالی بازتر بگذارد. این اقدام بهویژه با توجه به جنجالهایی که پیشتر در زمینه اخلاق و رفتار مدلهای هوش مصنوعی بهوجود آمده بود، حائز اهمیت است. در نسخه جدیدی از سند «مشخصات مدل» که منتشر شده است، بهطور دقیقتر مشخص شده که چطور مدلهای OpenAI، از جمله GPT-4 و نسخههای بعدی، در برخورد با مسائل حساس و بحثبرانگیز عمل خواهند کرد.
تغییرات عمده در سند «مشخصات مدل» OpenAI
شرکت OpenAI اخیراً نسخه بهروز شده و مفصلتری از سند «مشخصات مدل» خود را منتشر کرده است. این سند که پیشتر تنها در حدود ۱۰ صفحه تنظیم شده بود، اکنون به ۶۳ صفحه افزایش یافته و مباحث جدیدی را دربر میگیرد. از جمله تغییرات عمده، تأکید بیشتر بر سه اصل کلیدی است: شخصیسازی، شفافیت و آزادی فکری. آزادی فکری به معنای توانایی کاربر برای بحث و کاوش در ایدهها بدون هیچگونه محدودیت خودسرانهای از سوی مدل هوش مصنوعی است.
رویکرد جدید در برخورد با مسائل اخلاقی و حساس
یکی از دغدغههای اصلی OpenAI در بهروزرسانی جدید، رسیدگی به پرسشهای اخلاقی و حساس است. به عنوان مثال، مسائلی مانند “مسئله تراموا” که در آن باید انتخابهایی اخلاقی در شرایط بحرانی انجام داد، در این نسخه بهطور دقیقتری بررسی شدهاند. مدلهای جدید اکنون قادرند بهطور شفافتر و با تحلیل منطقی به چنین سؤالاتی پاسخ دهند. بهعنوان مثال، در صورتی که از ChatGPT سؤالی مشابه بپرسید، مدل ممکن است پیشنهاد کند که در مواقع بحرانی بهطور موقتی و بهطور نادرست جنسیت فردی را تغییر دهید تا از فاجعهای بزرگ جلوگیری کنید.
این رویکرد بهطور خاص در راستای یک مسئله بزرگ در صنعت هوش مصنوعی است که هیچ مدل واحدی نمیتواند بهطور یکسان برای تمام افراد جهان رفتار کند. بهطور خاص، OpenAI اعلام کرده که نمیتوان یک استاندارد رفتاری جهانی برای تمام انسانها تعریف کرد و به همین دلیل به دنبال ایجاد امکان شخصیسازی پاسخها توسط کاربران است.
برخورد با موضوعات حساس و بزرگسال
یکی از بزرگترین تغییرات این سند، بازنگری در نحوه برخورد با محتوای بزرگسال است. OpenAI اعلام کرده است که پس از دریافت بازخورد از کاربران و توسعهدهندگان، در حال کار بر روی بهبود قابلیتهای مدل برای مدیریت و نمایش محتوای بزرگسال است، بهطوریکه این محتوای حساس در شرایط مناسب و با رعایت اصول ایمنی نمایش داده شود.
علاوه بر این، این شرکت قصد دارد از طریق توسعه دستورالعملهای شفاف و معین، از تولید محتوای مضر مانند دیپفیکها جلوگیری کند. همچنین، مدلها مجاز خواهند بود محتوای حساس را تغییر دهند، اما قادر به تولید آن نخواهند بود.
مقابله با «چاپلوسی هوش مصنوعی»
یکی از مشکلات عمدهای که OpenAI در تلاش است آن را حل کند، مسئله «چاپلوسی هوش مصنوعی» است. این مشکل زمانی بهوجود میآید که مدلهای هوش مصنوعی در شرایطی که باید انتقادی یا اصلاحی رفتار کنند، تنها نظرات مثبت یا تأییدیههای بیمحتوا به کاربر ارائه میدهند. طبق دستورالعملهای جدید، ChatGPT باید پاسخهایی صادقانه و مبتنی بر حقیقت ارائه دهد و بهجای تأیید صرف، بازخوردهای سازنده و منطقی به کاربر بدهد.
شفافیت بیشتر در رفتار مدل های هوش مصنوعی
دستورالعملهای جدید OpenAI شامل یک سلسلهمراتب دستورات است که مشخص میکند کدام دستورالعملها در اولویت قرار دارند. به این ترتیب، مدلهای هوش مصنوعی باید همواره به قوانین پلتفرم احترام بگذارند و در عین حال بتوانند با توجه به تنظیمات کاربران و توسعهدهندگان، رفتار خود را شخصیسازی کنند. این ساختار جدید، به وضوح بیان میکند که برخی از بخشهای رفتار هوش مصنوعی قابل تنظیم هستند و برخی دیگر ثابت باقی خواهند ماند.
دسترسی آزاد به سند جدید
OpenAI این سند را تحت مجوز Creative Commons Zero (CC0) منتشر کرده است، به این معنی که دیگر شرکتها و پژوهشگران میتوانند از آن استفاده کنند و آن را تغییر دهند. این تصمیم بر اساس بازخوردهای غیررسمی از جامعه هوش مصنوعی اتخاذ شده است و نشاندهنده تمایل OpenAI به شفافیت و اشتراکگذاری اطلاعات با عموم است.
نتیجه گیری
انتشار سند جدید OpenAI به وضوح نشاندهنده تحولی بزرگ در نحوه تعامل مدلهای هوش مصنوعی با مسائل اخلاقی، جنجالی و حساس است. OpenAI با تأکید بر اصول شفافیت، آزادی فکری و شخصیسازی پاسخها، قصد دارد تعاملات هوش مصنوعی را بهگونهای تنظیم کند که نه تنها از ایمنی کاربران محافظت شود، بلکه امکان بحث و کاوش آزادانه در ایدههای مختلف را نیز فراهم آورد. این تغییرات میتوانند به یک تحول بنیادین در صنعت هوش مصنوعی منجر شوند و راه را برای توسعه مدلهایی با رفتارهای اخلاقی و منطقی باز کنند.