بر اساس مطالعهای جدید، هوش مصنوعی ممکن است آنطور که بسیاری از آن میترسند، خطرناک نباشد و مدلهای زبان بزرگ (LLM) تنها میتوانند از دستورالعملها پیروی کنند و به تنهایی قادر به ایجاد مهارتهای جدید نیستند و ذاتاً “قابل کنترل، قابل پیشبینی و ایمن” هستند که این موضوع خبر خوبی برای ما انسانهاست.
رئیسجمهور ایالات متحده بهتازگی به مردم اعلام کرده که دفاع از کشور به یک سیستم هوش مصنوعی جدید سپرده شده است که کل زرادخانه هستهای را کنترل میکند. با فشار دادن یک دکمه، جنگ به لطف این ماشین فوقهوشمند که خطایی ندارد، تمام میشود. این هوش مصنوعی میتواند هر مهارت جدیدی را که نیاز دارد بیاموزد و هر لحظه قویتر شده و تا حد مصونیت کامل از خطاهای انسانی کارآمد است.
درحالیکه بایدن از تیم دانشمندانی که هوش مصنوعی را طراحی کردهاند تشکر کرده و برای جمعی از افراد برجسته سلامتی و موفقیت آرزو میکند، هوش مصنوعی ناگهان بدون آنکه از او خواسته شود شروع به ارسال پیامک کرده و بیرحمانه درخواستهایی مطرح و سپس تهدید میکند که اگر فوراً از این خواستهها اطاعت نشود، یک شهر بزرگ را ویران خواهد کرد!
این داستان بسیار شبیه سناریوهای کابوسواری است که در سالهای اخیر درباره هوش مصنوعی شنیدهایم. اگر کاری انجام ندهیم (اگر هنوز خیلی دیر نشده باشد)! هوش مصنوعی بهطور خودبهخود تکامل پیدا میکند، هوشیار میشود و با این فرض که تصمیم به انقراض بشریت نمیگیرد کاری میکند که انسانها به سطح حیوانات خانگی تقلیل یابند!
نکته جالب این است که این داستان به سال ۲۰۲۴ مربوط نیست بلکه به سال ۱۹۷۰ بازمیگردد. این داستان علمی تخیلی مهیج، «Colossus: The Forbin Project» است که درباره ابررایانهای است که بهراحتی جهان را تسخیر میکند. این ایده داستانی از زمان ساخت اولین رایانههای واقعی در دهه ۱۹۴۰ وجود داشته و بارها و بارها در کتابها، فیلمها، تلویزیون و بازیهای ویدئویی روایت شده است.
همچنین این ترس بسیار جدی در برخی از پیشرفتهترین متفکران علوم رایانه نیز تقریباً به همان اندازه وجود دارد. ناگفته نماند که مجلات درباره خطر تصاحب رایانهها در سال ۱۹۶۱ صحبت میکردند. در طول شش دهه گذشته، پیشبینیهای مکرری توسط کارشناسان شده است که رایانهها در عرض پنج سال به هوشی همسطح انسان دست پیدا خواهند کرد و در عرض ده سال بهمراتب از آن فراتر خواهند رفت.
باید به خاطر داشته باشیم که این دوران قبل از هوش مصنوعی نبود. هوش مصنوعی حداقل از دهه ۱۹۶۰ وجود داشته و برای چندین دهه در بسیاری از زمینهها مورد استفاده قرار گرفته است. اما ما تمایل داریم این فناوری را «جدید» تلقی کنیم زیرا اخیراً سیستمهای هوش مصنوعی که زبان و تصاویر را مدیریت میکنند بهطور گسترده در دسترس قرار گرفتهاند. اینها همچنین نمونههایی از هوش مصنوعی هستند که برای بسیاری از مردم بیشتر از حریف کامپیوتری در شطرنج، سیستمهای پرواز مستقل یا الگوریتمهای تشخیصی با آنها آشنا هستند.
این سیستمها همچنین باعث ایجاد ترس از بیکاری در میان بسیاری از افرادی شدهاند که همچون روزنامهنگاران تاکنون از تهدید اتوماتیکسازی دستگاهها جان سالم به در بردهاند.
با این حال، این پرسش بهجای خود باقی است: آیا هوش مصنوعی تهدیدی وجودی به شمار میآید؟ آیا پس از بیش از نیم قرن هشدارهای اشتباه، بالاخره ما تحت نظارت یک Colossus مدرن یا HAL 9000 قرار خواهیم گرفت؟ آیا قرار است به ماتریکس متصل شویم؟
به گفته محققان دانشگاه باث و دانشگاه فنی دارمشتات، پاسخ منفی است!
مطالعهای که به عنوان بخشی از شصتودومین نشست سالانه انجمن زبانشناسی محاسباتی (ACL 2024) منتشر شد، نشان میدهد که هوش مصنوعی و بهویژه مدلهای زبان بزرگ (LLM) بهطور ذاتی قابل کنترل، قابل پیشبینی و ایمن هستند.
دکتر هاریش طیار مدابوشی، دانشمند رایانه از دانشگاه باث گفت:
روایت غالب که این نوع هوش مصنوعی تهدیدی برای بشریت است، مانع از پذیرش و توسعه گسترده این فناوریها میشود و همچنین توجه ما را از مسائل واقعی که نیاز به تمرکز دارند منحرف میکند.
دکتر طیار مدابوشی افزود:
ترس این بود که با بزرگتر شدن و پیچیدهتر شدن، این مدلها بتوانند مشکلات جدیدی را حل کنند که در حال حاضر پیشبینی نشدهاند. این خطر وجود دارد که این مدلها قابلیتهای خطرناکی از جمله استدلال و برنامهریزی را بهدست آورند. این موضوع بحثهای زیادی را برانگیخته است به عنوان مثال، در نشست ایمنی هوش مصنوعی سال گذشته در بلچلی پارک که ما نیز در آن شرکت داشتیم. اما مطالعه ما نشان میدهد که نگرانی از اینکه مدلهای هوش مصنوعی بتوانند بهطور خودجوش کاری کاملاً غیرمنتظره و نوآورانه انجام دهند، موجه نیست.
بااینحال، تیم تحقیقاتی تأکید میکند که این بدان معنا نیست که هوش مصنوعی اصلاً هیچ تهدیدی ندارد. این سیستمها هماکنون قابلیتهای قابلتوجهی دارند و در آیندهای نزدیک بسیار پیچیدهتر خواهند شد. اینها پتانسیلهای خطرناکی برای دستکاری اطلاعات، ایجاد اخبار جعلی، ارتکاب کلاهبرداریهای آشکار و ارائه دروغها حتی بدون قصد کلاهبرداری دارند و میتوانند بهعنوان راهحلی ارزانقیمت، حقیقت را سرکوب کنند.
خطر، همچنانکه همیشه بوده است، از ماشینها نیست؛ بلکه از افرادی است که آنها را برنامهریزی و کنترل میکنند. چه از طریق نیت شرورانه یا ناتوانی، این ماشینها نیستند که باید نگران آنها باشیم، بلکه انسانهایی هستند که پشت آنها قرار دارند!
منبع: Newatlas