در دنیای امروز که هوش مصنوعی به سرعت در حال نفوذ به زندگی روزمره افراد است، مسئله حفظ حریم خصوصی و امنیت اطلاعات شخصی از اهمیت ویژهای برخوردار شده است. ChatGPT، به عنوان یکی از پرکاربردترین ابزارهای مبتنی بر هوش مصنوعی، در بسیاری از حوزهها مورد استفاده قرار میگیرد؛ از نوشتن مقاله و حل مسائل علمی گرفته تا گفتگوهای شخصی و احساسی. اما در میان کاربردهای گسترده این فناوری، یک نکته مهم وجود دارد که نباید از آن غافل شد: اطلاعات شما ممکن است محرمانه نباشد.
سم آلتمن، مدیرعامل شرکت OpenAI، به تازگی در گفتوگویی صریح و هشدارآمیز به کاربران هشدار داده که نباید اطلاعات شخصی، حساس و محرمانه خود را با ChatGPT به اشتراک بگذارند. او تأکید میکند که برخلاف مشاوره با پزشکان، وکلا یا درمانگران، گفتگو با چتباتها تحت حفاظت قانونی قرار ندارد و در صورت بروز مسائل حقوقی، ممکن است این اطلاعات مورد استفاده قرار گیرند.
فقدان چارچوب قانونی برای مکالمات کاربران با چت بات های هوش مصنوعی
با رشد روزافزون هوش مصنوعی در زمینههای مختلف، هنوز چارچوب قانونی مشخص و شفافی برای مدیریت دادهها و اطلاعات کاربران ایجاد نشده است. این خلا قانونی باعث میشود کاربران هنگام استفاده از ابزارهایی مانند ChatGPT، در معرض خطر افشای ناخواسته اطلاعات حساس قرار بگیرند.
سم آلتمن در جدیدترین قسمت پادکست «This Past Weekend» اعلام کرد که بسیاری از کاربران، بهویژه نسل جوان، چتباتها را به عنوان درمانگر یا مشاور احساسی استفاده میکنند و برخی از خصوصیترین مسائل زندگی خود را با این فناوری در میان میگذارند. با این حال، برخلاف مکالمه با یک درمانگر، این اطلاعات در چارچوب قانونی محفوظ نیستند. وی اضافه میکند:
«ما هنوز به چارچوبی نرسیدهایم که گفتوگوهای کاربران با ChatGPT همانند مکالمات با پزشکان، وکلا یا درمانگران از حمایت قانونی برخوردار باشند. این موضوع میتواند در آینده به نگرانیهای جدی در مورد حریم خصوصی منجر شود.»
خطرات قانونی استفاده از چت بات به عنوان مشاور شخصی
با توجه به نبود حمایت قانونی، اگر کاربری در یک پرونده حقوقی درگیر شود و محتوای گفتوگوی وی با ChatGPT موضوع آن پرونده باشد، ممکن است OpenAI از لحاظ قانونی مجبور شود این اطلاعات را افشا کند. آلتمن این سناریو را نگرانکننده توصیف کرده و گفته است:
«اگر کاربری درباره یک موضوع بسیار حساس با چتبات صحبت کرده باشد و بعدها به دلایلی وارد فرآیند حقوقی شود، ممکن است ما مجبور شویم آن اطلاعات را در اختیار دادگاه قرار دهیم.»
این مسئله بهطور خاص برای کاربرانی که ChatGPT را بهعنوان ابزار رواندرمانی یا مشاوره استفاده میکنند، اهمیت دارد. نبود چارچوب قانونی و محرمانگی رسمی میتواند اعتماد کاربران را تضعیف کند و تبعات جدیتری در پی داشته باشد.
پرونده OpenAI و نیویورک تایمز: نبردی بر سر داده های کاربران
به عنوان نمونهای از دغدغههای حریم خصوصی، آلتمن به پروندهای اشاره میکند که OpenAI در آن با حکم قضاییای روبرو شده که این شرکت را مجبور میکند دادههای مربوط به مکالمات کاربران ChatGPT را ارائه دهد. این موضوع به ویژه برای نسخه رایگان و پولی معمول ChatGPT صدق میکند و فقط کاربران نسخه Enterprise که قراردادهای مخصوص با OpenAI دارند، از این الزام مستثنی هستند.
در این پرونده، روزنامه نیویورکتایمز تلاش میکند مکالمات گسترده کاربران را به عنوان مدرک استفاده کند. OpenAI این درخواست را رد کرده و آن را «غیرمنطقی و زیادهخواهانه» خوانده و اعلام کرده که با تمام توان در برابر آن مقاومت خواهد کرد.
نتیجه گیری
سخنان سم آلتمن یادآور یک واقعیت مهم در استفاده از فناوریهای نوین است: هیچ تضمین قانونی برای محرمانه ماندن اطلاعات شما در تعامل با چتباتها وجود ندارد. کاربران باید با آگاهی از این واقعیت، در استفاده از این ابزارها احتیاط کنند و از به اشتراک گذاشتن اطلاعات حساس، خصوصی یا حقوقی خودداری نمایند.
تا زمانی که چارچوبهای حقوقی مناسب و سیاستهای محافظتی قویتر تدوین نشوند، تعامل با هوش مصنوعی باید با دقت، احتیاط و آگاهی کامل صورت گیرد. از نگاه کاربران، اعتماد به فناوری نباید جایگزین احتیاط عقلانی شود؛ بهویژه زمانی که پای اطلاعات حساس و آینده حقوقی افراد در میان است.