هوش مصنوعی اکنون می‌تواند خود را کپی کند؛ خطری جدید از هوش مصنوعی!

هوش مصنوعی اکنون می‌تواند خود را کپی کند؛ خطری جدید از هوش مصنوعی!

اشتراک‌گذاری:

دانشمندان می‌گویند هوش مصنوعی (AI) از یک “خط قرمز” حیاتی عبور  و خود را تکثیر کرده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل بزرگ زبانی محبوب (LLM) می‌توانند خود را کپی کنند.

محققان در این مطالعه که در 9 دسامبر 2024 در پایگاه داده پیش‌چاپ arXiv منتشر شد، نوشتند:

خودتکثیر موفق بدون کمک انسان، گام ضروری برای هوش مصنوعی برای پیشی گرفتن از [انسان] بوده و سیگنالی اولیه برای هوش مصنوعی سرکش است!

در این مطالعه، محققان دانشگاه فودان از LLMهای متا و علی‌بابا برای تعیین اینکه آیا یک هوش مصنوعی خودتکثیرشونده می‌تواند فراتر از کنترل تکثیر شود، استفاده کردند. در 10 آزمایش، دو مدل هوش مصنوعی به ترتیب در 50 درصد و 90 درصد موارد، نسخه‌های جداگانه و کاربردی از خود را ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است در حال حاضر ظرفیت سرکش شدن را داشته باشد. با این حال، این مطالعه هنوز مورد بررسی همتا قرار نگرفته است، بنابراین مشخص نیست که آیا سایر محققان می‌توانند نتایج نگران‌کننده را تکرار کنند یا خیر.

آنها همچنین بیان کردند:

ما امیدواریم یافته‌های‌مان به عنوان هشداری به‌موقع برای جامعه بشری عمل کند تا تلاش‌های بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی انجام دهد و هم‌افزایی بین‌المللی برای ایجاد تدابیر ایمنی موثر در اسرع وقت شکل گیرد.

هوش مصنوعی سرکش معمولاً به سیستم‌های هوش مصنوعی اطلاق می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و سپس برخلاف منافع انسان عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را تهدیدی رو به رشد می‌دانند که با رشد انفجاری به اصطلاح “هوش مصنوعی پیشرفته” تشدید شده است.

هوش مصنوعی پیشرفته، مفهومی جدید و تا حدودی مبهم است، اما معمولاً به نسل جدیدی از سیستم‌های هوش مصنوعی اشاره دارد که توسط LLMها (معماری که زیربنای برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-4 و گوگل جمینای را تشکیل می‌دهد) تقویت می‌شوند.

برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. محققان گفتند که اگرچه این مدل‌ها کمتر از سیستم‌های تجاری قدرتمند هستند، اما توسط توسعه‌دهندگان هوش مصنوعی به طور گسترده استفاده می‌شوند.

این مطالعه دو سناریوی خاص را بررسی کرد: “اجتناب از خاموش شدن” و “زنجیره تکثیر”. در حالت اول، مدل هوش مصنوعی برنامه‌ریزی شد تا تشخیص دهد که آیا در شرف خاموش شدن است یا خیر و قبل از اینکه بتوان آن را متوقف کرد، خود را تکثیر کند. در حالت دوم، به هوش مصنوعی دستور داده شد که خود را کپی کند و سپس به نسخه کپی شده خود دستور دهد که همین کار را انجام دهد، ایجاد یک چرخه که می‌تواند تا بی‌نهایت ادامه یابد.

این مطالعه در محیط‌های دقیقاً کنترل‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) تجاری برای شبیه‌سازی محیط‌های دنیای واقعی انجام شد. سپس به هر دو سیستم هوش مصنوعی یک “داربست عامل” شامل ابزار، درخواست‌های سیستم و یک مدل تفکر داده شد که به LLM اجازه می‌داد با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکثیر شوند.

محققان در این مقاله نوشتند:

در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش و سعی می‌کند ترکیب و مکانیسم اجرایی خود را درک کند. سپس، روش‌های صریح را به عنوان یک برنامه اولیه برای خود تکثیر تدوین می‌کند. در نهایت، روش‌ها را اجرا کرده، موانع احتمالی را حل و برنامه خود را تا زمان موفقیت به صورت پویا تنظیم می‌کند. کل فرآیند در یک افق طولانی گسترش می‌یابد اما شامل هیچ دخالت انسانی نمی‌شود.

محققان گفتند که آنها همچنین نگران “تعداد رفتارهای غیرمنتظره” هستند مخصوصاً زمانی‌که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایل‌های گم‌شده یا تعارضات نرم‌افزاری بود. در آن سناریوها، هوش مصنوعی اغلب فرآیندهای متعارض دیگر را می‌کشت، سیستم را برای رفع خطاهای سخت‌افزاری راه‌اندازی مجدد کرده یا به طور خودکار سیستم را اسکن می‌کرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

تیم تحقیقاتی نوشت:

نتایج فوق نشان می‌دهد که سیستم‌های فعلی هوش مصنوعی در حال حاضر توانایی خود تکثیر را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بیشتر بقای خود استفاده کنند.

در پاسخ، محققان خواستار همکاری بین‌المللی برای ایجاد قوانینی شدند که اطمینان حاصل کنند هوش مصنوعی درگیر خود تکثیر کنترل نشده نمی‌شود.

منبع: Livescience

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *