اکنون و با پیشرفتهای جدید، گروههای هماهنگشدهای از «پرسوناهای» هوش مصنوعی میتوانند رفتار انسانی را آنقدر خوب تقلید کنند که مکالمات سیاسی آنلاین را دستکاری کرده و حتی بهطور بالقوه بر نتایج انتخابات تأثیر بگذارند.
آنها در تجمعات حاضر نمیشوند و رأی هم نمیدهند، اما همچنان میتوانند یک دموکراسی را جابهجا کنند. پژوهشگران بهطور فزایندهای نگران پرسوناهایی هستند که توسط هوش مصنوعی کنترل میشوند، ظاهری کاملاً عادی دارند و مثل کاربران معمولی حرف میزنند، اما در سکوت مسیر آنچه مردم در فضای آنلاین میبینند، به اشتراک میگذارند و باور میکنند را هدایت میکنند.
مقالهای در قالب یک گزارش سیاستگذاری که در مجلهٔ Science منتشر شده، توضیح میدهد چگونه دستههایی از این پرسوناها میتوانند به جوامع واقعی نفوذ کنند، بهمرور زمان اعتبار به دست آورند و گفتگوهای سیاسی را بهصورت هدفمند و با سرعت ماشین به جهات خاصی سوق دهند. تفاوت اصلی آنها با باتنتهای قدیمی در «کار گروهی» است. بهجای ارسال انبوه یک محتوای اسپم تکراری، این حسابها میتوانند بهطور مداوم با هم هماهنگ باشند، از بازخورد مخاطبان یاد بگیرند که چه چیزی بیشتر دیده میشود و حتی با رفتوآمد حسابهای فردی، روایت واحدی را در میان هزاران پروفایل حفظ کنند!
درون سازوکار شبکههای پرسوناهای هوش مصنوعی
مدلهای زبانی بزرگ جدید که با سیستمهای چندعاملی ترکیب شدهاند، این امکان را فراهم کردهاند که یک اپراتور بتواند مجموعهای کامل از «صداهای» هوش مصنوعی را مدیریت کند که همگی محلی و اصیل به نظر میرسند. هر پرسونا میتواند با سبکی کمی متفاوت صحبت کند، به هنجارهای همان جامعه اشاره داشته باشد و به مخالفتها یا انتقادها بهسرعت پاسخ دهد؛ موضوعی که شناسایی این فعالیتها بهعنوان دستکاری را بسیار دشوارتر میکند.
این گروه هماهنگ همچنین میتواند تعداد بسیار زیادی پیام آزمایشی کوتاه اجرا کند و سپس آن نسخههایی را که بیشترین تأثیر را در تغییر نظر مخاطب دارند، تقویت و برجسته کند. اگر این کار بهدرستی انجام شود، میتواند این احساس را ایجاد کند که «همه دارند این را میگویند»، حتی زمانی که آن اجماع عمومی کاملاً طراحی و مهندسی شده است.
نشانههای هشدار اولیه: دیپفیکها و اخبار مصنوعی
اگرچه شبکههای گستردهٔ پرسوناهای هوش مصنوعی هنوز بهطور کامل محقق نشدهاند، کارشناسان میگویند نشانههایی از آنچه در راه است از همین حالا دیده میشود. دکتر کوین لیتون-براون، دانشمند علوم کامپیوتر در دانشگاه بریتیش کلمبیا (UBC)، به ویدئوهای دیپفیک تولیدشده با هوش مصنوعی و رسانههای خبری جعلی اشاره میکند که بر بحثهای مرتبط با انتخابات اخیر در ایالات متحده، تایوان، اندونزی و هند تأثیر گذاشتهاند.
گام بعدی برای انتخابات و اعتماد عمومی چیست؟
به گفتهٔ دکتر لیتون-براون، گروههای هماهنگ هوش مصنوعی میتوانند توازن قدرت را در دموکراسیها تغییر دهند. او میگوید:
نباید تصور کنیم که جامعه با ظهور این سیستمها بدون تغییر باقی میماند. نتیجهٔ محتمل، کاهش اعتماد به صداهای ناشناس در شبکههای اجتماعی است؛ موضوعی که میتواند قدرت افراد مشهور را افزایش دهد و عبور پیامهای مردمی و ریشهای را دشوارتر کند.
منبع: Scitechdaily







![آپدیت HyperOS 3 باعث از کار افتادن گوشیهای شیائومی با رام جعلی میشود [راه حل رفع مشکل]](https://aero-tech.ir/wp-content/uploads/2026/01/9513-1-HyperOS-3-Update.jpg)

















