جستجو
Close this search box.
جستجو
Close this search box.
آیا هوش مصنوعی علیه کاربران غیر انگلیسی زبان تبعیض قائل می شود؟

آیا هوش مصنوعی علیه کاربران غیر انگلیسی زبان تبعیض قائل می شود؟

اشتراک‌گذاری:

یک مطالعه از پژوهشگران دانشگاه استنفورد، حاکی از آن است که برنامه‌هایی که در راستای تشخیص متن نوشته شده توسط هوش مصنوعی (AI) یا انسان برنامه‌ریزی شده‌اند، اغلب محتوا‌های نوشته شده توسط افراد غیر‌بومی که زبان انگلیسی زبان مادری آنان نیست را به مقالات نوشته شده با هوش مصنوعی علامت‌گذاری می‌کند. پایگاه خبری گاردین گزارش داد که این مسئله می‌تواند تاثیری جدی بر آینده افراد داشته باشد.

هوش مصنوعی و مشکلات مربوط به آن

گسترش استفاده از پلت‌فرم‌های مبتنی بر هوش مصنوعی در راستای تولید محتوا، تقاضا برای ابزار‌های تشخیص استفاده از هوش مصنوعی در محتوا‌های تولید شده را افزایش داده است. در حالی که دانش‌آموزان توانستند از زیر بار توبیخ استفاده از محتوا‌ها یا کد‌های تولید شده توسط هوش مصنوعی (خصوصاً در ابتدای فعالیت Chat GPT) بگریزند؛ اما دانشگاه‌ها سریعاً نسبت به این مسئله واکنش نشان داده و سعی کردند تا محتوا‌های تولید شده توسط هوش مصنوعی را تشخیص دهند و علامت‌گذاری نمایند.

امروزه و در این دهه، به مانند بررسی سرقت ادبی در دهه‌های پیشین، بررسی محتوای تولیدشده توسط هوش مصنوعی در دانشگاه‌ها و فضای تحصیلات آکادمیک رواج دارد. حالا، استفاده از هوش مصنوعی می‌تواند در راستای تولید محتوا نوشتاری در زمینه‌هایی مانند: “نوشتن درخواست پذیرش در دانشگاه یا حتی درخواست‌های تقاضا استخدام” صورت بپذیرد.

آیا هوش مصنوعی علیه کاربران غیر انگلیسی زبان تبعیض قائل می شود؟

چه مواقعی تشخیص‌دهنده‌های هوش مصنوعی، صحیح عمل نمی‌کنند؟

اکنون، کالج‌ها و دانشگاه‌ها مجهز به ابزار‌هایی هستند که ادعا می‌کنند می‌توانند صحت نوشته شدن محتوا‌های ارسال شده توسط متقاضیان و دانشجویان را از محتوا‌های نوشته شده توسط هوش مصنوعی تشخیص دهند. در حالی که این ابزار‌ها مدعی اجراء رویه خود با دقت 99% هستند؛ محققان استنفورد بر این باورند که این ادعایی “گمراه‌کننده” است.

نکته جالب‌توجه در این رویه این است تشخیص نوشته شدن با هوش مصنوعی، توسط خود هوش مصنوعی صورت می‌گیرد! این ابزار‌ها که خود نیز عملکرد خود را بر اساس هوش مصنوعی به اجرا می‌گذارند به مانند موارد دیگر از هوش مصنوعی، می‌توانند دچار سو‌ء‌گیری یا جهت‌گیری خاص باشند.

به تازگی، جیمز زو (James Zou)، استادیار علوم داده‌های زیست‌پزشکی در دانشگاه استنفورد، 91 مقاله نوشته شده توسط افراد غیر‌انگلیسی زبان در آزمون تافل ( آزمون جهانی سنجش مهارت زبان انگلیسی به عنوان زبان خارجی) را با استفاده از 7 مورد از محبوب‌ترین و مشهور‌ترین ابزار‌های تشخیص هوش مصنوعی در دانشگاه‌ها آزمود.

آیا هوش مصنوعی علیه کاربران غیر انگلیسی زبان تبعیض قائل می شود؟

در این آزمایش بیش از نیمی از این مقالات، به عنوان مقالات تهیه شده توسط هوش مصنوعی علامت‌گذاری شدند و یکی از ابزار‌ها، ادعا داشت که 98% این مقاله‌ها توسط یک ربات نوشته شده‌اند!

سپس، پژوهشگران مقالاتی که توسط دانش‌آموزان کلاس هشتمی ساکن در ایالات متحده که زبان مادری‌شان زبان انگلیسی بود را با استفاده از ابزار‌های مشابه به کار گرفته شده در آزمون پیشین؛ مورد بررسی قرار دادند. در این آزمایش، بیش از 90% این مقالات به عنوان مقالات نوشته شده توسط انسان شناسایی شدند. یافته‌های این تحقیق، به صورت کامل در مجله پترنز (Patterns) نیز منتشر شده‌اند.

محتوا‌های نوشتاری چگونه توسط هوش مصنوعی ارزیابی می‌شوند؟

پس از این دریافت نتایج از این آزمایش، محققان به بررسی علت سوء‌گیری ابزار‌های تشخیص‌دهنده هوش مصنوعی نسبت به افراد غیر‌انگلیسی زبان پرداختند. آن‌ها به این مسئله پی بردند که وقوع این تبعیض ناشی از وجود یک فاکتور تاثیر‌گذار به نام “متن سر‌گشته یا گیج‌کننده” است. این فاکتور نشان‌دهنده میزان گیج شدن یا شگفت‌زده شدن هوش مصنوعی در هنگام پیش‌بینی کلمه بعدی به کار رفته شده در یک جمله می‌باشد.

با استناد به این فاکتور، اگر هوش مصنوعی بتواند کلمه بعدی از کلمه فعلی را به راحتی پیش‌بینی کند؛ سرگشتگی متن را سطح “پایین” نشان می‌دهد. این در حالی است که اگر پیش‌بینی کلمه بعدی برای هوش مصنوعی سخت باشد؛ سر‌گشتگی متن را در حد “بالا” علامت خواهد زد.

آیا هوش مصنوعی علیه کاربران غیر انگلیسی زبان تبعیض قائل می شود؟

مدل زبان گسترده‌ای (Large language models) مانند Chat GPT، محتوا‌های نوشتاری را با سر‌گشتگی پایین تولید می‌کند و از این معیار در راستای تشخیص این که نوشته‌ توسط انسان یا هوش مصنوعی تولید شده است بهره می‌گیرد. از آن‌جایی که افراد غیر‌انگلیسی زبان، اغلب از الگو‌های آشنا‌تر و کلمات رایج انگلیسی در نوشتار خود بهره می‌گیرند؛ محتوا‌های تولیدشده توسط آنان با احتمال زیادی به عنوان محتوا‌های تولیدشده توسط ربات علامت‌گذاری می‌شوند.

از این رو، محققان هشدار می‌دهند که تولید‌کنندگان محتوا سوء‌گیری شده یا دارای بایاس می‌توانند درخواست‌نامه‌های متقاضایان یا تکالیف دانشجویان را به صورت نا‌درست به عنوان محتوای تولیدشده توسط هوش مصنوعی، علامت‌گذاری کنند. علاوه بر این، به علت بهره‌گیری موتور‌های جستجو‌گر (مانند گوگل) از این روش در راستای ارزیابی محتوا‌های تولیدشده؛ احتمال به حاشیه رفتن کاربران یا سخن‌گویان غیر‌انگلیسی زبان در شبکه جهانی اینترنت بسیار بالا خواهد رفت.

وقوع این مشکل در محیط‌های آکادمیک، می‌تواند دانش‌آموزان و دانشجویان را به استفاده از محتوا‌های تولید شده توسط هوش مصنوعی‌ای که بیشتر شبیه به زبان انسان باشند؛ سوق دهد و از این طریق، آینده شغلی یا سلامت و امنیت روانی آنان تحت تاثیر قرار گیرد.

منبع: Interesting Engineering

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *