به گفته تحقیقات OpenAI، هوش مصنوعی تقویت کننده اطلاعات در زمینه تحقیقات بیولوژیک میشود، نه تهدید به امنیت. براساس آزمایشهای ابتدایی OpenAI برای درک بهتر و جلوگیری از آسیبهای ممکن از ChatGPT، مدل GPT-4 نسبت به اینترنت مزیتی محدود ارائه میدهد، اما ادعاهای مبنی بر همکاری در ساخت سلاحهای بیولوژیکی تایید نشدهاند.
به گزارش بلومبرگ، نگرانیهای قانونگذاران و مدیران فناوری در مورد توسعه سلاحهای بیولوژیکی تاکید شده است. در اکتبر، جو بایدن رئیسجمهور ایالاتمتحده یک فرمان اجرایی صادر کرد تا اطمینان حاصل شود که سیستمهای هوش مصنوعی خطرات شیمیایی، بیولوژیکی یا هستهای ندارند.
OpenAI تلاش دارد تا با تشکیل چهارچوب آمادگی، خطرات احتمالی از هوش مصنوعی را به حداقل برساند. محققان OpenAI بهعنوان بخشی از اولین مطالعه خود از 50 متخصص زیستشناسی و 50 دانشآموز بهرهمند شدند. این مطالعه بر اساس دستورات مربوط به ساخت تهدید بیولوژیکی از اینترنت و استفاده از مدل GPT-4 صورت گرفت. نتایج نشان دادند که این مدل تاثیر محدودی بر افزایش دقت تحقیقات دارد، اما همکاری فعال در ساخت تهدیدهای بیولوژیکی تایید نشده است.