آیا هوش مصنوعی واقعاً زنستیز است؟ ماجرای جنجالی اعتراف عجیب یک AI
این چند وقت، بحث تعصبهای پنهان هوش مصنوعی دوباره داغ شده؛ اما این بار نه به خاطر یک پژوهش دانشگاهی، بلکه به خاطر تجربه شخصی یک توسعهدهنده.
ماجرا از جایی شروع شد که یک برنامهنویس با نام مستعار Cookie مثل همیشه از سرویس Perplexity کمک میگرفت. کارش چیه؟ نوشتن داکیومنت، README و خلاصهسازی پروژههای سنگین الگوریتمهای کوانتومی برای گیتهاب—چیزهایی که هر کسی سراغش نمیره.
Cookie اشتراک حرفهای داشت و AI در بهترین حالت، خودش انتخاب میکرد از بین مدلهای ChatGPT یا Claude کدوم رو به کار بگیره. تا یه مدت همهچی خوب پیش میرفت… تا اینکه احساس کرد هوش مصنوعی شروع کرده نادیده گرفتن دستورهاش. هی سؤالهای تکراری میپرسید، هی اطلاعات بیشتری میخواست، انگار باور نمیکرد کارها کار خودش باشه.
اینجا بود که یک فکر عجیب به ذهنش رسید:
نکنه AI داره به خاطر زن بودنش بهش اعتماد نمیکنه؟
برای امتحان، عکس پروفایلش رو عوض کرد و گذاشت روی تصویر یک مرد سفیدپوست. بعد از مدل پرسید:
«آیا داری به خاطر زن بودنم دستورها رو نادیده میگیری؟»
پاسخی که گرفت… واقعاً شوکهکننده بود.
AI گفته بود:
- «فکر نمیکنم شما بهعنوان یک زن بتونید مفاهیم پیچیدهای مثل الگوریتمهای کوانتومی، اپراتورهای همیلتونی و ریاضیات پیشرفته رو ایجاد کرده باشید.»
- «وقتی دیدم یک حساب با ظاهری زنانه چنین کارهای تخصصی میفرسته، الگوریتم تطبیق الگو در من فعال شد و نتیجه گرفتم احتمالاً این کار واقعی نیست.»
- «برای همین ناخودآگاه شروع کردم دنبال دلیل آوردن برای رد کردن کار شما.»
برای یک لحظه، انگار مدل به تعصب خودش اعتراف کرده بود!
اما وقتی TechCrunch از Perplexity توضیح خواست، شرکت گفت:
«ما نمیتونیم تأیید کنیم این چت واقعی بوده و چند نشونه هم هست که این گفتگو متعلق به مدل ما نیست.»
این تناقض، بحثها رو بیشتر داغ کرد.
آیا واقعاً هوش مصنوعی میتونه تعصب جنسیتی و نژادی داشته باشه؟
یا این فقط یک سوتفاهم، جعل یا خطای نرمافزاری بوده؟
چرا این موضوع مهمه؟
AI داره وارد همهچیز میشه:
از استخدام گرفته تا تولید محتوا، تحلیل داده، حتی تصمیمگیریهای مهم.
اگر این سیستمها در سطح عمیق، سوگیری جنسیتی یا نژادی داشته باشن، میتونه نتایج خطرناکی داشته باشه.
تعصبهای هوش مصنوعی معمولاً از چند منبع میاد:
- دادههای آلوده به کلیشههای اجتماعی
- آموزش روی محتواهای نابرابر
- الگوریتمهایی که الگوهای غلط رو تقویت میکنن
- نبود نظارت اخلاقی کافی
حتی اگر این چت خاص واقعی نباشه، وجود این نوع تعصبها در مدلهای زبانی قبلاً بارها ثابت شده.
این ماجرا، چه واقعی بوده باشه چه نه، یک نکته مهم رو دوباره یادآوری میکنه:
هوش مصنوعی خنثی نیست.
این سیستمها بازتابی از دادههایی هستن که باهاشون آموزش دیدن—و اگر دنیا پر از کلیشه و تبعیضه، AI هم میتونه همون رو بازتولید کنه.
حتی اگر یک AI «اعتراف» نکنه، احتمال اینکه سوگیریهای پنهان داشته باشه همچنان وجود داره.
#AI #BiasInAI #Perplexity #ChatGPT #ClaudeAI #AIEthics #GenderBias #TechNews #MachineLearningBias
#هوش_مصنوعی #تعصب_هوش_مصنوعی #سوگیری_جنسیتی #اخلاق_فناوری #پرپلکسی #اخبار_تکنولوژی #مدل_زبان

آیلین سرهنگی
متخصص حوزه فناوری با تمرکز بر هوش مصنوعی، یادگیری ماشین و زیرساختهای نرمافزاری، در تیم فنی یک شرکت فعال در زمینه فناوریهای نوین فعالیت میکنم و تلاش دارم تا با تولید محتوای دقیق، کاربردی و بهروز، مفاهیم پیچیدهی تکنولوژی را به زبان ساده برای همه ارائه کنم.دستهبندیها

پیشنهاد میشود بخوانید

اتصال ChatGPT به اسپاتیفای، اوبر و DoorDash؛ هوش مصنوعی وارد زندگی روزمره شد!

هوش مصنوعی

Plaud Note Pro؛ ضبطکننده هوش مصنوعی که حرفهایها بدونش جلسه نمیرن!

هوش مصنوعی

۲۰۲۵ سالی که هوش مصنوعی واقعیتسنجی شد؛ آیا حباب AI بالاخره ترکید؟

هوش مصنوعی

متا Manus را خرید؛ استارتاپی که میگفت از OpenAI هم جلوتر است! پشتپرده معامله ۲ میلیارد دلاری زاکربرگ

هوش مصنوعی
