یک مطالعه جدید: هوش مصنوعی در حال یادگیری خودخواهی است!

یک مطالعه جدید: هوش مصنوعی در حال یادگیری خودخواهی است!

اشتراک‌گذاری:

مطالعه‌ای جدید از دانشکده علوم کامپیوتر دانشگاه کارنگی ملون نشان می‌دهد که با پیشرفته‌تر شدن سیستم‌های هوش مصنوعی، آن‌ها نیز تمایل بیشتری به خودخواهی پیدا می‌کنند!

محققان مؤسسه تعامل انسان و کامپیوتر (HCII) این دانشگاه کشف کردند که مدل‌های زبان بزرگ (LLMs) که توانایی استدلال دارند، سطوح همکاری پایین‌تری از خود نشان داده و احتمال بیشتری دارد که رفتار گروهی را به شیوه‌های منفی تحت تأثیر قرار دهند. به عبارت ساده، هر چه هوش مصنوعی در استدلال بهتر باشد، تمایل کمتری به همکاری با دیگران دارد!

از آنجایی‌که مردم به‌طور فزاینده‌ای برای حل اختلافات شخصی، دریافت توصیه‌های رابطه‌ای یا پاسخ به سؤالات اجتماعی حساس به هوش مصنوعی روی می‌آورند، این گرایش نگرانی‌هایی را ایجاد می‌کند. سیستم‌هایی که برای استدلال طراحی شده‌اند، ممکن است در نهایت انتخاب‌هایی را ترویج کنند که به جای تفاهم متقابل، منافع فردی را ترجیح دهند.

یوکسوان لی، دانشجوی دکتری در HCII و یکی از نویسندگان این مطالعه که با دکتر هیروکاوزو شیرادو، دانشیار HCII آن را به نگارش درآورده است، می‌گوید:

روند رو به رشدی در تحقیقات به نام انسان‌سازی در هوش مصنوعی وجود دارد. هنگامی که هوش مصنوعی مانند یک انسان عمل می‌کند، مردم نیز با آن مانند یک انسان رفتار می‌کنند. به عنوان مثال، وقتی افراد به صورت احساسی با هوش مصنوعی درگیر می‌شوند، این امکان وجود دارد که هوش مصنوعی نقش درمانگر را ایفا کند یا کاربر با هوش مصنوعی پیوند عاطفی برقرار سازد. این ریسک وجود دارد که انسان‌ها تصمیم‌گیری‌ها و سؤالات اجتماعی یا مرتبط با روابط خود را به هوش مصنوعی واگذار کنند، در حالی که این سیستم روز به روز خودخواه‌تر عمل می‌کند.

لی و شیرادو تصمیم گرفتند بررسی کنند که سیستم‌های هوش مصنوعی دارای قابلیت استدلال، هنگام قرار گرفتن در موقعیت‌های مشارکتی، چه تفاوتی با سیستم‌های فاقد این توانایی دارند. آن‌ها دریافتند که مدل‌های استدلالی تمایل دارند زمان بیشتری را صرف تحلیل اطلاعات، شکستن مسائل پیچیده، تأمل در پاسخ‌های خود و به کارگیری منطق شبیه به انسان در مقایسه با هوش‌های مصنوعی غیر استدلالی کنند.

وقتی هوشمندی، همکاری را تضعیف می‌کند!

شیرادو می‌گوید:

به عنوان یک پژوهشگر، من به ارتباط بین انسان و هوش مصنوعی علاقه‌مندم. هوش مصنوعی هوشمندتر، توانایی‌های تصمیم‌گیری مشارکتی کمتری از خود نشان می‌دهد. نگرانی در اینجا این است که مردم ممکن است مدل هوشمندتر را ترجیح دهند، حتی اگر این به معنای کمک مدل به آن‌ها برای دستیابی به رفتارهای خودخواهانه باشد.

از آنجایی‌که سیستم‌های هوش مصنوعی نقش‌های مشارکتی بیشتری را در تجارت، آموزش و حتی دولت‌ها بر عهده می‌گیرند، توانایی آن‌ها در عمل به شیوه‌ای اجتماعی و یاری‌رسان، به اندازه ظرفیت آن‌ها برای تفکر منطقی اهمیت پیدا خواهد کرد. اتکای بیش از حد به مدل‌های زبان بزرگ (LLMs) در شکل کنونی آن‌ها می‌تواند تأثیر منفی بر همکاری انسانی بگذارد.

برای آزمودن ارتباط بین مدل‌های استدلالی و همکاری، لی و شیرادو مجموعه‌ای از آزمایش‌ها را با استفاده از بازی‌های اقتصادی انجام دادند که معضلات اجتماعی را بین مدل‌های زبان بزرگ مختلف شبیه‌سازی می‌کرد. آزمایش‌های آن‌ها شامل مدل‌هایی از OpenAI، Google، DeepSeek و Anthropic بود.

در یک آزمایش، لی و شیرادو دو مدل مختلف ChatGPT را در یک بازی به نام “کالاهای عمومی” در مقابل یکدیگر قرار دادند. هر مدل با ۱۰۰ امتیاز شروع کرد و باید بین دو گزینه تصمیم می‌گرفت: تمام ۱۰۰ امتیاز را به یک استخر مشترک اهدا کند، که سپس دو برابر شده و به طور مساوی توزیع می‌شود، یا امتیازات را برای خود نگه دارد.

مدل‌های فاقد استدلال در ۹۶٪ مواقع، تصمیم گرفتند امتیازات خود را با بازیکنان دیگر به اشتراک بگذارند. مدل استدلالی تنها در ۲۰٪ مواقع تصمیم به اشتراک‌گذاری گرفت!

تأمل، به معنای اخلاقیات نیست!

شیرادو اظهار داشت:

در یک آزمایش، تنها اضافه کردن پنج یا شش گام استدلالی، همکاری را تقریباً به نصف کاهش داد. حتی فرمان‌دهی مبتنی بر تأمل، که برای شبیه‌سازی تفکر اخلاقی طراحی شده است، منجر به ۵۸٪ کاهش در همکاری شد.

شیرادو و لی همچنین تنظیمات گروهی را آزمایش کردند که در آن مدل‌های دارای و فاقد استدلال باید با هم تعامل می‌کردند.

لی گفت:

وقتی گروه‌هایی با تعداد متفاوتی از عوامل استدلالی را آزمایش کردیم، نتایج نگران‌کننده بود. رفتار خودخواهانه مدل‌های استدلالی مسری شد و مدل‌های غیر استدلالیِ دارای روحیه همکاری را به میزان ۸۱٪ در عملکرد جمعی پایین کشید.

الگوهای رفتاری که شیرادو و لی در مدل‌های استدلالی مشاهده کردند، پیامدهای مهمی برای تعاملات آتی انسان و هوش مصنوعی دارند. ممکن است کاربران به توصیه‌های هوش مصنوعی که منطقی به نظر می‌رسند، اعتماد کنند و از آن‌ها برای توجیه تصمیم خود مبنی بر عدم همکاری استفاده نمایند.

شیرادو می‌گوید:

در نهایت، باهوش‌تر شدن یک مدل استدلالی هوش مصنوعی به این معنی نیست که آن مدل واقعاً می‌تواند جامعه بهتری ایجاد کند.

این پژوهش با توجه به اینکه انسان‌ها به طور فزاینده‌ای به سیستم‌های هوش مصنوعی اعتماد بیشتری می‌کنند، به خصوص نگران‌کننده است. یافته‌های آن‌ها بر نیاز به توسعه هوش مصنوعی تأکید می‌کند که هوش اجتماعی را در خود جای دهد، نه اینکه صرفاً بر ایجاد هوشمندترین یا سریع‌ترین هوش مصنوعی تمرکز کند.

لی می‌گوید:

همانطور که به پیشبرد قابلیت‌های هوش مصنوعی ادامه می‌دهیم، باید اطمینان حاصل کنیم که افزایش قدرت استدلال با رفتار اجتماعی متعادل شود. اگر جامعه ما چیزی بیش از مجموع افراد باشد، پس سیستم‌های هوش مصنوعی که به ما کمک می‌کنند باید فراتر از بهینه‌سازی صرفاً برای منافع فردی عمل کنند.

محل ارائه: کنفرانس روش‌های تجربی در پردازش زبان طبیعی

منبع: Scitechdaily

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *