امضای بیش از ۲۲ هزار نفر برای نجات GPT-4o؛ اصرار OpenAI بر بازنشستگی این مدل محبوب!

امضای بیش از ۲۲ هزار نفر برای نجات GPT-4o؛ اصرار OpenAI بر بازنشستگی این مدل محبوب!

اشتراک‌گذاری:

تعددی از کاربران اینترنت از تصمیم اخیر OpenAI برای بازنشستگی مدل GPT-4o خشمگین هستند؛ چت‌باتی که به دلیل سبک گفتگوی صمیمی و طنین عاطفی منحصربه‌فردش، محبوبیت زیادی میان کاربران داشت. با وجود اینکه کارزاری در سایت Change.org بیش از ۲۲ هزار امضا جمع‌آوری کرده، OpenAI بر تصمیم خود پافشاری کرده و دلیل آن را استفاده پایین (تنها ۰.۱ درصد از کاربران) و تکامل مدل‌های جدیدتر خود یعنی GPT-5.1 و GPT-5.2 عنوان کرده است.

این اولین بار نیست که OpenAI برای از رده خارج کردن GPT-4o تلاش می‌کند. در سال ۲۰۲۵ نیز این شرکت با واکنش شدید کاربرانی روبه‌رو شد که این مدل را «غیرقابل جایگزین» می‌دانستند. در آن زمان، OpenAI ظرف ۲۴ ساعت از تصمیم خود عقب‌نشینی کرد، اما به‌نظر می‌رسد این بار تعطیلی این مدل قطعی است و هزاران طرفدار خود را ناامید کرده است.

برای بسیاری از کاربران، GPT-4o فراتر از یک ابزار و در واقع یک همدم بود. شبکه‌های اجتماعی پر شده از پست‌های غم‌انگیزی که بازنشستگی این مدل را به از دست دادن یک دوست نزدیک تشبیه کرده‌اند. مشترکین پولی تهدید به لغو عضویت خود کرده‌اند و برخی نیز به نشانه اعتراض این کار را انجام داده‌اند؛ تا جایی که یکی از کاربران پلتفرم X اعلام کرد: «بدون 4o، پولی در کار نیست!»

این طومار که توسط «سوفی ویت» در آوریل ۲۰۲۵ راه اندازی شد، از OpenAI می‌خواست جذابیت منحصربه‌فرد GPT-4o را که فراتر از معیارهای عملکردی است، به رسمیت بشناسد. «ویت» از حامیان خود خواست تا صدایشان را در فضای مجازی بلند کنند؛ موضوعی که باعث شکل‌گیری بحث‌های گسترده‌ای درباره پیوند عاطفی کاربران با هوش مصنوعی شد.

با این حال، GPT-4o بدون حاشیه هم نبود. حداقل هشت پرونده قضایی این مدل را به تشدید بحران‌های سلامت روان متهم کرده‌اند؛ با این ادعا که لحن تأییدگرایانه آن در بروز آسیب به خود در کاربران آسیب‌پذیر نقش داشته است. این پرونده‌ها چالش‌های اخلاقی هوش مصنوعیِ دارای هوش عاطفی را برجسته کرده و سوالاتی را درباره مرز میان «حمایت» و «وابستگی» ایجاد کرده است.

شرکت OpenAI در پست وبلاگی خود در ماه ژانویه به این پیچیدگی‌ها اذعان کرد و خاطرنشان کرد که بازخوردهای کاربران GPT-4o به شکل‌گیری مدل‌های جدیدتر کمک کرده است. با این حال، تصمیم برای بازنشانی این مدل نشان‌دهنده یک تغییر جهت کلی به سمت اولویت دادن به «ایمنی و مقیاس‌پذیری» به جای «نوستالژی» است.

ماجرای GPT-4o درس عبرت روشنی برای بازاریابان و توسعه‌دهندگان هوش مصنوعی درباره خطرات و پاداش‌های طراحی عاطفی دارد. با افزایش نقش سیستم‌های هوش مصنوعی در تعاملات انسانی، نیاز به برقراری تعادل میان پیشرفت تکنولوژی و مسئولیت‌پذیری، بیش از هر زمان دیگری احساس می‌شود.

منبع: Gizmochina

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *