5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌های هوش مصنوعی!

5 نمونه از اشتباهات عجیب و خنده‌دار هوش مصنوعی؛ از ابراز علاقه به کاربران تا افزودن چسب به پیتزا!

اشتراک‌گذاری:

چت‌بات‌های هوش مصنوعی اکثر اوقات برای سرعت بخشیدن به کارها و پاسخ‌گویی به سؤالات کاربردی هستند، اما برخی از پاسخ‌های سردرگم‌کننده و عجیب این چت‌بات‌ها نیز بارها به موقعیت‌های غیرمنتظره و خنده‌داری منجر شده است. برای آشنایی با ۵ نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌های هوش مصنوعی، با اِروتِک همراه باشید.

۱) ویژگی هوش مصنوعی AI Overview گوگل و تشویق چسب زدن به پیتزا!

مدت کمی پس از راه‌اندازی ویژگی AI Overview گوگل در سال ۲۰۲۴، این هوش مصنوعی شروع به ارائه‌ی پیشنهادات عجیب‌وغریبی به کاربران کرد و مورد تمسخر بسیاری از کاربران شبکه‌های اجتماعی قرار گرفت. یکی از توصیه‌های عجیب و خنده‌دار هوش مصنوعی AI Overview گوگل، اضافه کردن چسب غیرسمی به پیتزا بود!

5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌های هوش مصنوعی!

این پیشنهاد سروصدای زیادی را در شبکه‌های اجتماعی به راه انداخت و اعتبار هوش مصنوعی به‌عنوان جایگزینی برای موتورهای جستجوی استاندارد را به چالش کشید.

هوش مصنوعی جمینای (Gemini) گوگل اما به این پیشنهادات و توصیه‌های عجیب ادامه داد و از دعوت به خوردن حداقل یک سنگ در روز گرفته تا اضافه کردن بنزین به ظرف اسپاگتی و استفاده از دلار برای اندازه‌گیری وزن، به جنجال‌های پیرامون هوش مصنوعی گوگل شدت بخشید.

5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌های هوش مصنوعی!

جمینای بدون درک کامل تفاوت زمینه‌ها و جملات مختلف یا آشنایی با طنز و کمدی، داده‌های خود را از تمامی گوشه‌های اینترنت استخراج می‌کرد. در نتیجه، اطلاعات واقعی با شوخی‌های آشکار ترکیب می‌شدند و نتایج غیرمنتظره و عجیبی به کاربران نشان داده می‌شد.

گوگل از آن زمان تاکنون به‌روزرسانی‌های متعددی را ارائه کرده است، اما این ویژگی هنوز نیاز به بهبود دارد. اگرچه پیشنهادات عجیب‌وغریب ویژگی AI Overviews گوگل تا حد زیادی کاهش یافته، اما این اشتباهات خنده‌دار همواره یادآوری می‌کنند که هوش مصنوعی به نظارت انسانی نیازمند است.

۲) چت‌جی‌پی‌تی و خجالت‌زده کردن یک وکیل در دادگاه!

اتکای کامل یک وکیل به ChatGPT منجر به درسی غیرمنتظره و بسیار عمومی برای او شد که چرا نباید صرفاً به محتوای تولیدشده توسط هوش مصنوعی تکیه کرد.

یک وکیل دادگستری به نام «استیون شوارتز»، هنگام آماده شدن برای یکی از پرونده‌های خود از این چت‌بات هوش مصنوعی برای تحقیق در مورد سوابق قانونی استفاده کرد. ChatGPT با شش مرجع ساختگی، با نام‌ها، تاریخ‌ها و نقل‌قول‌هایی که واقعی به نظر می‌رسیدند، به این وکیل پاسخ داد. شوارتز نیز در نهایت با اطمینان از صحت اطلاعات ChatGPT، این ارجاعات ساختگی را به دادگاه ارسال کرد.

همان‌طور که انتظار می‌رفت، این اشتباه به‌سرعت توسط دادگاه تشخیص داده شد. شوارتز نیز در پاسخ به سرزنش‌های دادگاه وعده داد که دیگر هرگز بدون تأیید مستقیم از اطلاعات هوش مصنوعی استفاده نکند. اگرچه ابزارهایی مانند ChatGPT می‌توانند در سرعت بخشیدن به کارها مفید باشند، اما همچنان باید صحت اطلاعاتی که ارائه می‌دهند را مستقیماً از طریق منابع دیگر بررسی کرد.

۳) چت‌بات بلندربات ۳ متا و مسخره کردن زاکربرگ!

چت‌بات بلندربات ۳ متا (Blenderbot 3) به دلیل انتقاد از خالق خود، مارک زاکربرگ، در شبکه‌های اجتماعی سروصدا کرد. بلندربات ۳ در پاسخ به سؤال یکی از کاربران، زاکربرگ را متهم به پیروی نکردن از اصول اخلاقی تجارت و بدسلیقه بودن کرد!

5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌های هوش مصنوعی!

پاسخ‌های رک BlenderBot 3 هم خنده‌دار بود و هم نگرانی‌هایی را به همراه داشت. مشخص نبود که آیا این پاسخ‌ها بر اساس تجزیه‌وتحلیل واقعی چت‌بات هوش مصنوعی متا به‌دست آمده بود یا صرفاً نظرات منفی موجود در اینترنت درباره‌ی مارک زاکربرگ را بازتاب می‌داد. در هر صورت، این اظهارات چت‌بات هوش مصنوعی متا به‌سرعت مورد توجه‌ی بسیاری از کاربران قرار گرفت.

5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌ها!

متا در نهایت بلندربات ۳ را با هوش مصنوعی پیشرفته‌تری به نام «Meta AI» جایگزین کرد، که احتمالاً دیگر چنین نظرات جنجال‌برانگیزی را تکرار نمی‌کند!

۴) بحران رمانتیک چت‌بات بینگ مایکروسافت!

بینگ چت مایکروسافت که در حال حاضر با کوپایلت (Copilot) جایگزین شده است، در روزهای ابتدایی فعالیت خود با ابراز احساسات عاشقانه جنجال‌ساز شده بود. معروف‌ترین نمونه‌ی ابراز احساسات این چت‌بات در گفتگو با روزنامه‌نگار نیویورک‌تایمز، کوین روز، اتفاق افتاد. بینگ چت به این ژورنالیست ابراز علاقه کرد و حتی به او پیشنهاد داد تا طلاق بگیرد!

کاربران ردیت نیز داستان‌های مشابهی از چت‌بات مایکروسافت را به اشتراک گذاشتند و بر اساس این گزارشات، ظاهراً بینگ چت علاقه‌ی خود را به افراد زیادی ابراز کرده بود. علاوه‌ بر ابراز علاقه، این چت‌بات رفتارهای عجیب‌وغریب و انسان‌مانند دیگری را نیز به نمایش گذاشت که ناراحتی و تعجب برخی از کاربران را به همراه داشت.

۵) شروع متزلزل چت‌بات گوگل بارد با حقایق فضایی اشتباه!

هنگامی که گوگل چت‌بات هوش مصنوعی بارد (Bard) را در اوایل سال ۲۰۲۳ در دسترس قرار داد، این چت‌بات با چندین اشتباه چشمگیر، به‌ویژه در زمینه‌ی اکتشافات فضایی، بحث‌برانگیز شد. یکی از نمونه‌های اشتباهات گوگل بارد، به اشتراک گذاشتن ادعاهای نادرستی درباره‌ی اکتشافات تلسکوپ فضایی جیمز وب مرتبط بود که در نهایت منجر به واکنش عمومی دانشمندان ناسا شد.

5 نمونه از اشتباهات عجیب و خنده‌دار چت‌بات‌ها!

اشتباهات گوگل بارد تنها به این مورد خلاصه نمی‌شد و گزارشات فراوانی درباره‌ی اطلاعات اشتباه دیگر این چت‌بات نیز توسط کاربران مختلف به اشتراک گذاشته شد.

اگرچه جمینای از آن زمان تاکنون پیشرفت‌های چشمگیری داشته است، اما شروع متزلزل چت‌بات گوگل این روزها حکم یک نوع داستان هشداردهنده درمورد خطرات وابستگی به اطلاعات هوش مصنوعی در موقعیت‌ها و زمینه‌های حساس و مهم را دارد.

منبع: Makeuseof

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *