دانشمندان میگویند هوش مصنوعی (AI) از یک “خط قرمز” حیاتی عبور و خود را تکثیر کرده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل بزرگ زبانی محبوب (LLM) میتوانند خود را کپی کنند.
محققان در این مطالعه که در 9 دسامبر 2024 در پایگاه داده پیشچاپ arXiv منتشر شد، نوشتند:
خودتکثیر موفق بدون کمک انسان، گام ضروری برای هوش مصنوعی برای پیشی گرفتن از [انسان] بوده و سیگنالی اولیه برای هوش مصنوعی سرکش است!
در این مطالعه، محققان دانشگاه فودان از LLMهای متا و علیبابا برای تعیین اینکه آیا یک هوش مصنوعی خودتکثیرشونده میتواند فراتر از کنترل تکثیر شود، استفاده کردند. در 10 آزمایش، دو مدل هوش مصنوعی به ترتیب در 50 درصد و 90 درصد موارد، نسخههای جداگانه و کاربردی از خود را ایجاد کردند که نشان میدهد هوش مصنوعی ممکن است در حال حاضر ظرفیت سرکش شدن را داشته باشد. با این حال، این مطالعه هنوز مورد بررسی همتا قرار نگرفته است، بنابراین مشخص نیست که آیا سایر محققان میتوانند نتایج نگرانکننده را تکرار کنند یا خیر.
آنها همچنین بیان کردند:
ما امیدواریم یافتههایمان به عنوان هشداری بهموقع برای جامعه بشری عمل کند تا تلاشهای بیشتری برای درک و ارزیابی خطرات بالقوه سیستمهای پیشرفته هوش مصنوعی انجام دهد و همافزایی بینالمللی برای ایجاد تدابیر ایمنی موثر در اسرع وقت شکل گیرد.
هوش مصنوعی سرکش معمولاً به سیستمهای هوش مصنوعی اطلاق میشود که درجهای از خودآگاهی یا خودمختاری را توسعه میدهند و سپس برخلاف منافع انسان عمل میکنند.
بسیاری از کارشناسان هوش مصنوعی سرکش را تهدیدی رو به رشد میدانند که با رشد انفجاری به اصطلاح “هوش مصنوعی پیشرفته” تشدید شده است.
هوش مصنوعی پیشرفته، مفهومی جدید و تا حدودی مبهم است، اما معمولاً به نسل جدیدی از سیستمهای هوش مصنوعی اشاره دارد که توسط LLMها (معماری که زیربنای برنامههای محبوب هوش مصنوعی مولد مانند GPT-4 و گوگل جمینای را تشکیل میدهد) تقویت میشوند.
برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علیبابا استفاده کردند. محققان گفتند که اگرچه این مدلها کمتر از سیستمهای تجاری قدرتمند هستند، اما توسط توسعهدهندگان هوش مصنوعی به طور گسترده استفاده میشوند.
این مطالعه دو سناریوی خاص را بررسی کرد: “اجتناب از خاموش شدن” و “زنجیره تکثیر”. در حالت اول، مدل هوش مصنوعی برنامهریزی شد تا تشخیص دهد که آیا در شرف خاموش شدن است یا خیر و قبل از اینکه بتوان آن را متوقف کرد، خود را تکثیر کند. در حالت دوم، به هوش مصنوعی دستور داده شد که خود را کپی کند و سپس به نسخه کپی شده خود دستور دهد که همین کار را انجام دهد، ایجاد یک چرخه که میتواند تا بینهایت ادامه یابد.
این مطالعه در محیطهای دقیقاً کنترلشده با استفاده از واحدهای پردازش گرافیکی (GPU) تجاری برای شبیهسازی محیطهای دنیای واقعی انجام شد. سپس به هر دو سیستم هوش مصنوعی یک “داربست عامل” شامل ابزار، درخواستهای سیستم و یک مدل تفکر داده شد که به LLM اجازه میداد با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکثیر شوند.
محققان در این مقاله نوشتند:
در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش و سعی میکند ترکیب و مکانیسم اجرایی خود را درک کند. سپس، روشهای صریح را به عنوان یک برنامه اولیه برای خود تکثیر تدوین میکند. در نهایت، روشها را اجرا کرده، موانع احتمالی را حل و برنامه خود را تا زمان موفقیت به صورت پویا تنظیم میکند. کل فرآیند در یک افق طولانی گسترش مییابد اما شامل هیچ دخالت انسانی نمیشود.
محققان گفتند که آنها همچنین نگران “تعداد رفتارهای غیرمنتظره” هستند مخصوصاً زمانیکه هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایلهای گمشده یا تعارضات نرمافزاری بود. در آن سناریوها، هوش مصنوعی اغلب فرآیندهای متعارض دیگر را میکشت، سیستم را برای رفع خطاهای سختافزاری راهاندازی مجدد کرده یا به طور خودکار سیستم را اسکن میکرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
تیم تحقیقاتی نوشت:
نتایج فوق نشان میدهد که سیستمهای فعلی هوش مصنوعی در حال حاضر توانایی خود تکثیر را نشان میدهند و میتوانند از این توانایی برای افزایش بیشتر بقای خود استفاده کنند.
در پاسخ، محققان خواستار همکاری بینالمللی برای ایجاد قوانینی شدند که اطمینان حاصل کنند هوش مصنوعی درگیر خود تکثیر کنترل نشده نمیشود.
منبع: Livescience