در دنیای امروز که فناوری با سرعتی سرسامآور در حال پیشرفت است، حتی مصاحبههای شغلی نیز از چشم تیزبین هوش مصنوعی در امان نماندهاند. پژوهش جدیدی از دانشگاه پنسیلوانیا نشان میدهد که الگوریتمهای هوش مصنوعی میتوانند تنها با تحلیل چهره افراد، درباره ویژگیهای شخصیتی و حتی احتمال موفقیت شغلی آنها قضاوت کنند.
این یافتهها اگرچه شگفتانگیز به نظر میرسند، اما پرسشهای اخلاقی و اجتماعی عمیقی را نیز بهدنبال دارند؛ از جمله اینکه آیا میتوان بر اساس ظاهر افراد درباره آینده شغلی یا تواناییهای آنها تصمیم گرفت؟
پژوهش دانشگاه پنسیلوانیا
محققان دانشگاه پنسیلوانیا در این پژوهش از یک سیستم هوش مصنوعی استفاده کردند که بر اساس مطالعات پیشین درباره رابطه میان ویژگیهای چهره و شخصیت آموزش دیده بود. در این پروژه، تصاویر ۹۶ هزار فارغالتحصیل MBA از شبکه اجتماعی لینکدین جمعآوری شد. سپس هوش مصنوعی این تصاویر را بررسی کرد تا پنج ویژگی اصلی شخصیتی را استخراج کند: گشودگی، وظیفهشناسی، برونگرایی، توافقپذیری و روانرنجوری.
این پنج شاخص از مدل شخصیتی معروف “Big Five” گرفته شدهاند که سالهاست در روانشناسی به عنوان معیار استاندارد برای ارزیابی شخصیت استفاده میشود. پژوهشگران پس از استخراج دادههای چهره، آنها را با نتایج واقعی شغلی این افراد مقایسه کردند؛ از جمله سطح درآمد، موقعیت شغلی و سابقه حرفهای.
نتیجه این مقایسه جالب بود: افراد برونگرا معمولاً حقوق بیشتری دریافت میکنند، در حالی که افرادی با ویژگی شخصیتی گشودگی بالا، احتمال درآمد پایینتری داشتند. این یافتهها نشان میدهد که چهره انسان، شاید بیش از آنچه فکر میکنیم، بازتابی از ویژگیهای درونی او باشد.
چالش های اخلاقی و نگرانی های مربوط به تبعیض الگوریتمی
با وجود جذابیت علمی این تحقیق، پرسشهای اخلاقی متعددی درباره آن مطرح شده است. تصور کنید در آینده، سیستمهای استخدام یا اعطای وام تنها بر اساس تصویر چهره شما تصمیم بگیرند که آیا قابل اعتماد هستید یا نه. چنین سیستمی میتواند منجر به نوع جدیدی از تبعیض شود که آن را تبعیض الگوریتمی مینامند.
پیش از توضیح این نگرانیها، باید گفت که شرکتها انگیزه فراوانی برای استفاده از این فناوری دارند. در محیطهای رقابتی امروزی، کارفرمایان همیشه به دنبال روشهایی سریعتر و دقیقتر برای غربالگری متقاضیان هستند. هوش مصنوعی میتواند این فرایند را ساده کند، اما در عین حال ممکن است باعث قضاوت ناعادلانه درباره افراد شود.
- ممکن است چهره فردی بهطور طبیعی جدی یا غمگین به نظر برسد، اما این بههیچوجه نشاندهنده شخصیت یا مهارتهای او نیست.
- در بسیاری از فرهنگها، ویژگیهای چهره با زمینههای قومی و ژنتیکی ارتباط دارند و استفاده از آنها در تصمیمگیری میتواند باعث تبعیض نژادی شود.
- متخصصان حقوق فناوری هشدار دادهاند که چنین الگوریتمهایی ممکن است قوانین ضدتبعیض را نقض کنند، زیرا مبنای تصمیمگیری در آنها دادههایی است که بهصورت ناخودآگاه ممکن است دارای سوگیری باشند.
حتی نویسندگان این پژوهش نیز تأکید کردهاند که مدل ارائهشده صرفاً ابزاری کمکی است و نباید به عنوان عامل قطعی در تصمیمگیریهای استخدامی یا مالی استفاده شود.
استفاده از هوش مصنوعی در تصمیم های مالی و بانکی
در گام بعدی، پژوهشگران قصد دارند بررسی کنند که آیا همین فناوری میتواند در حوزه مالی نیز کارآمد باشد یا خیر. ایده آنها این است که با تحلیل چهره افراد، بتوان میزان تمایل آنها به بازپرداخت وام را پیشبینی کرد.
در ظاهر، این رویکرد میتواند به نفع کسانی باشد که سوابق اعتباری محدودی دارند، زیرا بانکها با کمک الگوریتمهای هوش مصنوعی ممکن است بتوانند اعتماد بیشتری به رفتار مالی آنها پیدا کنند.
اما کارشناسان مالی هشدار میدهند که این مسیر خطرناک است. در واقع، استفاده از چهره به عنوان معیار تصمیمگیری برای اعطای وام میتواند همانند استفاده از جنسیت یا نژاد، منجر به تبعیض ساختاری شود. در حال حاضر هیچ چارچوب قانونی مشخصی برای استفاده از دادههای چهره در تصمیمهای بانکی وجود ندارد و همین موضوع نگرانیها را افزایش داده است.
خطر تغییر چهره و دستکاری داده های بیومتریک
محققان در پایان مقاله خود هشدار دادهاند که گسترش استفاده از فناوریهای تشخیص چهره میتواند رفتار انسانها را تغییر دهد. اگر افراد بدانند که چهره آنها میتواند بر آینده شغلی یا مالیشان تأثیر بگذارد، ممکن است دست به دستکاری ظاهری بزنند.
این تغییرات میتواند شامل استفاده از فیلترهای نرمافزاری در عکسهای پروفایل تا جراحیهای زیبایی هدفمند برای تغییر درک الگوریتم از چهره باشد. چنین پدیدهای، مرز میان واقعیت و نمایش را در تعاملات دیجیتال بیش از پیش محو میکند.
به گفته پژوهشگران، اگرچه فناوری تشخیص چهره میتواند ابزار مفیدی برای تحلیل دادهها باشد، اما استفاده گسترده از آن بدون نظارت دقیق، ممکن است پیامدهای اجتماعی گستردهای به همراه داشته باشد.
نتیجه گیری
فناوری تحلیل چهره توسط هوش مصنوعی، مرز جدیدی میان روانشناسی، دادهکاوی و اخلاق ایجاد کرده است. این فناوری میتواند آینده استخدام، ارزیابی مالی و حتی تعاملات اجتماعی را دگرگون کند.
اما در کنار جذابیت علمی، خطرات بزرگی نیز وجود دارد؛ از نقض حریم خصوصی گرفته تا تعمیق تبعیض در جامعه دیجیتال.
به نظر میرسد که در آینده نزدیک، هوش مصنوعی نه تنها به گفتار و نوشتار ما گوش میدهد، بلکه چهره ما را نیز میخواند. با این حال، پرسش اساسی این است که آیا ما آمادهایم چنین قدرتی را در اختیار الگوریتمها بگذاریم یا نه؟