جستجو
Close this search box.
جستجو
Close this search box.
آیا هوش مصنوعی می‌تواند تهدیدی برای ادامه‌ی حیات بشر باشد؟

آیا هوش مصنوعی می‌تواند تهدیدی برای ادامه‌ی حیات بشر باشد؟

اشتراک‌گذاری:

بر اساس مطالعه‌ای جدید، هوش مصنوعی ممکن است آن‌طور که بسیاری از آن می‌ترسند، خطرناک نباشد و مدل‌های زبان بزرگ (LLM) تنها می‌توانند از دستورالعمل‌ها پیروی کنند و به تنهایی قادر به ایجاد مهارت‌های جدید نیستند و ذاتاً “قابل کنترل، قابل پیش‌بینی و ایمن” هستند که این موضوع خبر خوبی برای ما انسان‌هاست.

رئیس‌جمهور ایالات متحده به‌تازگی به مردم اعلام کرده که دفاع از کشور به یک سیستم هوش مصنوعی جدید سپرده شده است که کل زرادخانه هسته‌ای را کنترل می‌کند. با فشار دادن یک دکمه، جنگ به لطف این ماشین فوق‌هوشمند که خطایی ندارد، تمام می‌شود. این هوش مصنوعی می‌تواند هر مهارت جدیدی را که نیاز دارد بیاموزد و هر لحظه قوی‌تر شده و تا حد مصونیت کامل از خطاهای انسانی کارآمد است.

درحالی‌که بایدن از تیم دانشمندانی که هوش مصنوعی را طراحی کرده‌اند تشکر کرده و برای جمعی از افراد برجسته سلامتی و موفقیت آرزو می‌کند، هوش مصنوعی ناگهان بدون آن‌که از او خواسته شود شروع به ارسال پیامک کرده و بی‌رحمانه درخواست‌هایی مطرح و سپس تهدید می‌کند که اگر فوراً از این خواسته‌ها اطاعت نشود، یک شهر بزرگ را ویران خواهد کرد!

این داستان بسیار شبیه سناریوهای کابوس‌واری است که در سال‌های اخیر درباره هوش مصنوعی شنیده‌ایم. اگر کاری انجام ندهیم (اگر هنوز خیلی دیر نشده باشد)! هوش مصنوعی به‌طور خود‌به‌خود تکامل پیدا می‌کند، هوشیار می‌شود و با این فرض که تصمیم به انقراض بشریت نمی‌گیرد کاری می‌کند که انسان‌ها به سطح حیوانات خانگی تقلیل یابند!

نکته جالب این است که این داستان به سال ۲۰۲۴ مربوط نیست بلکه به سال ۱۹۷۰ بازمی‌گردد. این داستان علمی تخیلی مهیج، «Colossus: The Forbin Project» است که درباره ابررایانه‌ای است که به‌راحتی جهان را تسخیر می‌کند. این ایده داستانی از زمان ساخت اولین رایانه‌های واقعی در دهه ۱۹۴۰ وجود داشته و بارها و بارها در کتاب‌ها، فیلم‌ها، تلویزیون و بازی‌های ویدئویی روایت شده است.

همچنین این ترس بسیار جدی در برخی از پیشرفته‌ترین متفکران علوم رایانه نیز تقریباً به همان اندازه وجود دارد. ناگفته نماند که مجلات درباره خطر تصاحب رایانه‌ها در سال ۱۹۶۱ صحبت می‌کردند. در طول شش دهه گذشته، پیش‌بینی‌های مکرری توسط کارشناسان شده است که رایانه‌ها در عرض پنج سال به هوشی هم‌سطح انسان دست پیدا خواهند کرد و در عرض ده سال به‌مراتب از آن فراتر خواهند رفت.

باید به خاطر داشته باشیم که این دوران قبل از هوش مصنوعی نبود. هوش مصنوعی حداقل از دهه ۱۹۶۰ وجود داشته و برای چندین دهه در بسیاری از زمینه‌ها مورد استفاده قرار گرفته است. اما ما تمایل داریم این فناوری را «جدید» تلقی کنیم زیرا اخیراً سیستم‌های هوش مصنوعی که زبان و تصاویر را مدیریت می‌کنند به‌طور گسترده در دسترس قرار گرفته‌اند. این‌ها همچنین نمونه‌هایی از هوش مصنوعی هستند که برای بسیاری از مردم بیشتر از حریف کامپیوتری در شطرنج، سیستم‌های پرواز مستقل یا الگوریتم‌های تشخیصی با آن‌ها آشنا هستند.

این سیستم‌ها همچنین باعث ایجاد ترس از بیکاری در میان بسیاری از افرادی شده‌اند که همچون روزنامه‌نگاران تاکنون از تهدید اتوماتیک‌سازی دستگاه‌ها جان سالم به در برده‌اند.

آیا هوش مصنوعی می‌تواند تهدیدی برای ادامه‌ی حیات بشریت باشد؟

با این حال، این پرسش به‌جای خود باقی است: آیا هوش مصنوعی تهدیدی وجودی به شمار می‌آید؟ آیا پس از بیش از نیم قرن هشدارهای اشتباه، بالاخره ما تحت نظارت یک Colossus مدرن یا HAL 9000 قرار خواهیم گرفت؟ آیا قرار است به ماتریکس متصل شویم؟

به گفته محققان دانشگاه باث و دانشگاه فنی دارمشتات، پاسخ منفی است!

مطالعه‌ای که به عنوان بخشی از شصت‌ودومین نشست سالانه انجمن زبان‌شناسی محاسباتی (ACL 2024) منتشر شد، نشان می‌دهد که هوش مصنوعی و به‌ویژه مدل‌های زبان بزرگ (LLM) به‌طور ذاتی قابل کنترل، قابل پیش‌بینی و ایمن هستند.

دکتر هاریش طیار مدابوشی، دانشمند رایانه از دانشگاه باث گفت:

روایت غالب که این نوع هوش مصنوعی تهدیدی برای بشریت است، مانع از پذیرش و توسعه گسترده این فناوری‌ها می‌شود و همچنین توجه ما را از مسائل واقعی که نیاز به تمرکز دارند منحرف می‌کند.

دکتر طیار مدابوشی افزود:

ترس این بود که با بزرگ‌تر شدن و پیچیده‌تر شدن، این مدل‌ها بتوانند مشکلات جدیدی را حل کنند که در حال حاضر پیش‌بینی نشده‌اند. این خطر وجود دارد که این مدل‌ها قابلیت‌های خطرناکی از جمله استدلال و برنامه‌ریزی را به‌دست آورند. این موضوع بحث‌های زیادی را برانگیخته است به عنوان مثال، در نشست ایمنی هوش مصنوعی سال گذشته در بلچلی پارک که ما نیز در آن شرکت داشتیم. اما مطالعه ما نشان می‌دهد که نگرانی از این‌که مدل‌های هوش مصنوعی بتوانند به‌طور خودجوش کاری کاملاً غیرمنتظره و نوآورانه انجام دهند، موجه نیست.

بااین‌حال، تیم تحقیقاتی تأکید می‌کند که این بدان معنا نیست که هوش مصنوعی اصلاً هیچ تهدیدی ندارد. این سیستم‌ها هم‌اکنون قابلیت‌های قابل‌توجهی دارند و در آینده‌ای نزدیک بسیار پیچیده‌تر خواهند شد. این‌ها پتانسیل‌های خطرناکی برای دستکاری اطلاعات، ایجاد اخبار جعلی، ارتکاب کلاهبرداری‌های آشکار و ارائه دروغ‌ها حتی بدون قصد کلاهبرداری دارند و می‌توانند به‌عنوان راه‌حلی ارزان‌قیمت، حقیقت را سرکوب کنند.

خطر، همچنان‌که همیشه بوده است، از ماشین‌ها نیست؛ بلکه از افرادی است که آن‌ها را برنامه‌ریزی و کنترل می‌کنند. چه از طریق نیت شرورانه یا ناتوانی، این ماشین‌ها نیستند که باید نگران آن‌ها باشیم، بلکه انسان‌هایی هستند که پشت آن‌ها قرار دارند!

منبع: Newatlas

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *