مطالعهای جدید از دانشکده علوم کامپیوتر دانشگاه کارنگی ملون نشان میدهد که با پیشرفتهتر شدن سیستمهای هوش مصنوعی، آنها نیز تمایل بیشتری به خودخواهی پیدا میکنند!
محققان مؤسسه تعامل انسان و کامپیوتر (HCII) این دانشگاه کشف کردند که مدلهای زبان بزرگ (LLMs) که توانایی استدلال دارند، سطوح همکاری پایینتری از خود نشان داده و احتمال بیشتری دارد که رفتار گروهی را به شیوههای منفی تحت تأثیر قرار دهند. به عبارت ساده، هر چه هوش مصنوعی در استدلال بهتر باشد، تمایل کمتری به همکاری با دیگران دارد!
از آنجاییکه مردم بهطور فزایندهای برای حل اختلافات شخصی، دریافت توصیههای رابطهای یا پاسخ به سؤالات اجتماعی حساس به هوش مصنوعی روی میآورند، این گرایش نگرانیهایی را ایجاد میکند. سیستمهایی که برای استدلال طراحی شدهاند، ممکن است در نهایت انتخابهایی را ترویج کنند که به جای تفاهم متقابل، منافع فردی را ترجیح دهند.
یوکسوان لی، دانشجوی دکتری در HCII و یکی از نویسندگان این مطالعه که با دکتر هیروکاوزو شیرادو، دانشیار HCII آن را به نگارش درآورده است، میگوید:
روند رو به رشدی در تحقیقات به نام انسانسازی در هوش مصنوعی وجود دارد. هنگامی که هوش مصنوعی مانند یک انسان عمل میکند، مردم نیز با آن مانند یک انسان رفتار میکنند. به عنوان مثال، وقتی افراد به صورت احساسی با هوش مصنوعی درگیر میشوند، این امکان وجود دارد که هوش مصنوعی نقش درمانگر را ایفا کند یا کاربر با هوش مصنوعی پیوند عاطفی برقرار سازد. این ریسک وجود دارد که انسانها تصمیمگیریها و سؤالات اجتماعی یا مرتبط با روابط خود را به هوش مصنوعی واگذار کنند، در حالی که این سیستم روز به روز خودخواهتر عمل میکند.
لی و شیرادو تصمیم گرفتند بررسی کنند که سیستمهای هوش مصنوعی دارای قابلیت استدلال، هنگام قرار گرفتن در موقعیتهای مشارکتی، چه تفاوتی با سیستمهای فاقد این توانایی دارند. آنها دریافتند که مدلهای استدلالی تمایل دارند زمان بیشتری را صرف تحلیل اطلاعات، شکستن مسائل پیچیده، تأمل در پاسخهای خود و به کارگیری منطق شبیه به انسان در مقایسه با هوشهای مصنوعی غیر استدلالی کنند.
وقتی هوشمندی، همکاری را تضعیف میکند!
شیرادو میگوید:
به عنوان یک پژوهشگر، من به ارتباط بین انسان و هوش مصنوعی علاقهمندم. هوش مصنوعی هوشمندتر، تواناییهای تصمیمگیری مشارکتی کمتری از خود نشان میدهد. نگرانی در اینجا این است که مردم ممکن است مدل هوشمندتر را ترجیح دهند، حتی اگر این به معنای کمک مدل به آنها برای دستیابی به رفتارهای خودخواهانه باشد.
از آنجاییکه سیستمهای هوش مصنوعی نقشهای مشارکتی بیشتری را در تجارت، آموزش و حتی دولتها بر عهده میگیرند، توانایی آنها در عمل به شیوهای اجتماعی و یاریرسان، به اندازه ظرفیت آنها برای تفکر منطقی اهمیت پیدا خواهد کرد. اتکای بیش از حد به مدلهای زبان بزرگ (LLMs) در شکل کنونی آنها میتواند تأثیر منفی بر همکاری انسانی بگذارد.
برای آزمودن ارتباط بین مدلهای استدلالی و همکاری، لی و شیرادو مجموعهای از آزمایشها را با استفاده از بازیهای اقتصادی انجام دادند که معضلات اجتماعی را بین مدلهای زبان بزرگ مختلف شبیهسازی میکرد. آزمایشهای آنها شامل مدلهایی از OpenAI، Google، DeepSeek و Anthropic بود.
در یک آزمایش، لی و شیرادو دو مدل مختلف ChatGPT را در یک بازی به نام “کالاهای عمومی” در مقابل یکدیگر قرار دادند. هر مدل با ۱۰۰ امتیاز شروع کرد و باید بین دو گزینه تصمیم میگرفت: تمام ۱۰۰ امتیاز را به یک استخر مشترک اهدا کند، که سپس دو برابر شده و به طور مساوی توزیع میشود، یا امتیازات را برای خود نگه دارد.
مدلهای فاقد استدلال در ۹۶٪ مواقع، تصمیم گرفتند امتیازات خود را با بازیکنان دیگر به اشتراک بگذارند. مدل استدلالی تنها در ۲۰٪ مواقع تصمیم به اشتراکگذاری گرفت!
تأمل، به معنای اخلاقیات نیست!
شیرادو اظهار داشت:
در یک آزمایش، تنها اضافه کردن پنج یا شش گام استدلالی، همکاری را تقریباً به نصف کاهش داد. حتی فرماندهی مبتنی بر تأمل، که برای شبیهسازی تفکر اخلاقی طراحی شده است، منجر به ۵۸٪ کاهش در همکاری شد.
شیرادو و لی همچنین تنظیمات گروهی را آزمایش کردند که در آن مدلهای دارای و فاقد استدلال باید با هم تعامل میکردند.
لی گفت:
وقتی گروههایی با تعداد متفاوتی از عوامل استدلالی را آزمایش کردیم، نتایج نگرانکننده بود. رفتار خودخواهانه مدلهای استدلالی مسری شد و مدلهای غیر استدلالیِ دارای روحیه همکاری را به میزان ۸۱٪ در عملکرد جمعی پایین کشید.
الگوهای رفتاری که شیرادو و لی در مدلهای استدلالی مشاهده کردند، پیامدهای مهمی برای تعاملات آتی انسان و هوش مصنوعی دارند. ممکن است کاربران به توصیههای هوش مصنوعی که منطقی به نظر میرسند، اعتماد کنند و از آنها برای توجیه تصمیم خود مبنی بر عدم همکاری استفاده نمایند.
شیرادو میگوید:
در نهایت، باهوشتر شدن یک مدل استدلالی هوش مصنوعی به این معنی نیست که آن مدل واقعاً میتواند جامعه بهتری ایجاد کند.
این پژوهش با توجه به اینکه انسانها به طور فزایندهای به سیستمهای هوش مصنوعی اعتماد بیشتری میکنند، به خصوص نگرانکننده است. یافتههای آنها بر نیاز به توسعه هوش مصنوعی تأکید میکند که هوش اجتماعی را در خود جای دهد، نه اینکه صرفاً بر ایجاد هوشمندترین یا سریعترین هوش مصنوعی تمرکز کند.
لی میگوید:
همانطور که به پیشبرد قابلیتهای هوش مصنوعی ادامه میدهیم، باید اطمینان حاصل کنیم که افزایش قدرت استدلال با رفتار اجتماعی متعادل شود. اگر جامعه ما چیزی بیش از مجموع افراد باشد، پس سیستمهای هوش مصنوعی که به ما کمک میکنند باید فراتر از بهینهسازی صرفاً برای منافع فردی عمل کنند.
محل ارائه: کنفرانس روشهای تجربی در پردازش زبان طبیعی
منبع: Scitechdaily






















