چه بخواهیم چه نخواهیم، میتوانیم انتظار داشته باشیم که هوش مصنوعی مولد در آیندهای قابل پیشبینی، به زندگی روزمره ما نفوذ میکند. هنوز کسی از انتهای این فناوری آگاهی ندارد، اما از زمان راهاندازی ChatGPT در نوامبر 2022، این غولی بوده که گفتمان عمومی را کاملاً عوض کرده است.
در دنیای امروز، یک فرد عادی بسیار مستعد این است که فوراً جدیدترین چیزی را که میخواند یا میشنود، باور کند. اما اکنون، کاربران میتوانند تصاویر و ویدیوهایی بهطرز نگرانکنندهای واقعگرایانه، یا حتی کلونهای هوش مصنوعی از صدای کسی را با استفاده از ابزارهای عمدتاً خودکار که اغلب بهصورت رایگان یا با قیمتهای پایین در دسترس هستند، کنار هم قرار دهند. در زمانیکه گوشیها دائماً با تماسهای تلفنی که ما را طعمه قرار میدهند، بمباران میشوند، این فناوری جدید به این معناست که انجام کلاهبرداری حتی آسانتر شده است!
اما متن تولید شده توسط هوش مصنوعی مشکلات متفاوتی داشته، زیرا عنصر فریبکاری بالقوه به اندازه کافی در آن وجود ندارد، اما با این وجود، مشکلات قابلتوجهی را از خود نشان میدهد. مدلهای زبانی بزرگ (LLM) که زیربنای چتباتهایی مانند ChatGPT هستند، صرف نظر از اینکه چقدر یک درخواست خاص باشد، مستعد “توهم” هستند و منجر به داستانهای ترسناک هوش مصنوعی میشوند، مانند یک LLM که جزئیات را در یک پرونده دادگاه که از آن خواسته شده بود خلاصه کند، از خود اختراع میکند! خوشبختانه، راههایی برای تشخیص متن تولید شده توسط هوش مصنوعی، از جمله ابزارهای رایگان وجود دارد، بنابراین بیایید برخی از آنها را بررسی کنیم.
ابزارهای تشخیص متن تولید شده توسط هوش مصنوعی
آسانترین راه برای تشخیص متن تولید شده توسط هوش مصنوعی، استفاده از یکی از ابزارهای مختلف مبتنی بر وب است که برای تشخیص آن طراحی شدهاند. البته آنها کامل نیستند: این ابزارها میتوانند مثبت کاذب داشته باشند و همچنین به راحتی متنی را که از طریق ابزارهای هوش مصنوعی کمکی – مانند Grammarly و سایر مواردی که به نویسندگان در ویرایش خودکار کارشان کمک میکنند – اجرا شده است، به عنوان متنی که کاملاً توسط ابزارهای هوش مصنوعی مولد مانند ChatGPT ایجاد شده است، علامتگذاری کنند. بنابراین گاهی اوقات، آنها به اندازه کافی خوب نیستند، در حالیکه مواقع دیگر، بهطور بحثبرانگیزی بیش از حد خوب هستند. این ابزارها از قابلیت پیشبینی LLMها بر اساس دادههای آموزشی خود برای تلاش برای تشخیص اینکه آیا متن توسط هوش مصنوعی تولید شده است یا خیر، استفاده میکنند، به این معنی که عمدتاً متن را از دیدگاه زبانی بررسی خواهند کرد. در نتیجه، آشکارسازهای هوش مصنوعی میتوانند نشانههای آشکار دیگر، مانند مسائل واقعی آشکار که انتظار میرود یک نویسنده یا ویرایشگر انسانی آنها را بگیرد، از دست بدهند.
لیست ابزارهای تشخیص هوش مصنوعی که توجه قابلتوجهی را به خود جلب کردهاند شامل GPTZero، ساخته شده توسط ادوارد تیان، دانشجوی رشته علوم کامپیوتر دانشگاه پرینستون است. در ابتدا، دقت آن شانسی بود، اما با گذشت زمان بهبود یافته است. Grammarly، دستیار ویرایش کپی مبتنی بر هوش مصنوعی، برنامه تشخیص هوش مصنوعی خود را نیز دارد. این برنامه میتواند کمی شانسی باشد، به ویژه با قطعات کوتاهتر متن، اما با نوع چیزهایی که مهم است اصالت آنها را بررسی کنیم، میانگین نتیجه آن نسبتاً خوب است. GPTZero، به طور خاص، تجزیه و تحلیل دقیقتری ارائه میدهد، مانند مشخص کردن “واژگان هوش مصنوعی” که معمولاً در متن تولید شده توسط هوش مصنوعی ظاهر میشود.
ناتوانی کامل در درک موضوع!
دفعه بعد که مقالهای را در وبسایتی میخوانید که کاملاً برای شما شناخته شده نیست یا وب سایت معتبری که شناخته شده است از هوش مصنوعی مولد برای نوشتن مقالات استفاده کرده است، از خود این سوال را بپرسید: آیا به نظر میرسد که اشتباهاتی وجود دارد که یک انسان مرتکب نمیشود؟ آیا ادعاها یا مفاهیمی وجود دارد که با واقعیت تثبیت شده ما همخوانی ندارد؟ شاید تاریخهایی که نسبت به سن افرادی که در مورد آنها نوشته میشود، منطقی نیستند؟ این نشانه دیگری است که شما در حال خواندن یک مقاله تولیدشده توسط هوش مصنوعی هستید. به یادماندنیترین و برجستهترین نمونههای ناتوانی هوش مصنوعی در تشخیص موضوع را میتوانید در مقاله “۵ نمونه از اشتباهات عجیب و خندهدار هوش مصنوعی؛ از ابراز علاقه به کاربران تا افزودن چسب به پیتزا!” مطالعه کنید.
هوش مصنوعی گوگل نمیتوانست طنز یا کنایه را تشخیص دهد، حتی در حالیکه اطلاعات را از منابع کمتر معتبر مانند نظرات Reddit یا مقاله کپی شده از The Onion بررسی میکرد در نهایت منجر به موقعیتهایی میشد که بررسی اجمالی هوش مصنوعی پیشنهاد میکرد از چسب برای جلوگیری از سر خوردن پنیر از پیتزا استفاده کنید یا سنگها را برای فواید تغذیهای بخورید. حتی با منابع معتبرتر، نمیتوانست بفهمد که کتاب انتشارات دانشگاه آکسفورد که فصلی با عنوان “باراک حسین اوباما: اولین رئیس جمهور مسلمان آمریکا؟” دارد و اوباما به یک فرقه مذهبی خاص مسیحی تعلق ندارد، به این معنا نیست که اوباما در واقع مسلمان بود! اگر مقاله بسیار عجیب نوشته شدهای را میخوانید و احساس میکنید که هیچ انسانی نمیتواند آن را نوشته باشد، پس غرایز شما احتمالاً درست است!
واژگان بیش از حد تکراری با استفاده از کلمات رایج هوش مصنوعی
یکی دیگر از نشانههای بارز هوش مصنوعی مولد در متن این است که مدلهای زبانی بزرگ عادت دارند کلمات و عبارات مورد علاقه خود را بارها و بارها استفاده کنند. در زمان دیگری، این ممکن بود صرفاً به عنوان نوشتن بیش از حد پر زرق و برق دیده شود. اکنون، اغلب میتواند به تعیین اینکه آیا چیزی توسط یک ربات نوشته شده است یا خیر، کمک کند. وقتی صحبت از عبارات بارز هوش مصنوعی مولد به میان میآید، دانشمند داده، مرتضی حیدر، به طرز مفیدی آنها را در یک پست وبلاگ لینکدین در آگوست 2024 به هفت دسته تقسیم کرد: اتصال دهندههای متنی، عبارتبندی برای عدم قطعیت یا تعمیم، عبارات مؤدبانه و خنثی، عبارات پرکننده، عبارات توصیفی و توضیحی، مقدمههای رسمی و عبارات تکراری یا کلیشهای.
اگر مقالهای را میخوانید که عبارات زیادی در آن وجود دارد که احساس میکنید در یک مقاله دبیرستان نمره بدی به شما میدادند، احتمال بسیار زیاد وجود دارد که توسط هوش مصنوعی مولد نوشته شده باشد. برای مثال، “در نتیجه” یک اتصال دهنده متنی رایج هوش مصنوعی است، در حالیکه نمونههایی از عبارتبندی برای عدم قطعیت یا تعمیم، یک خط واضح وجود دارد که آنها را به هم متصل میکند. “مهم است که توجه داشته باشیم که”، “میتوان استدلال کرد که”، “به طور گسترده شناخته شده است که”، “شواهدی وجود دارد که نشان میدهد” و “در بسیاری از موارد” همگی نمونههای قابلتوجهی از عباراتی هستند که به نظر میرسد هوش مصنوعی مولد اغلب از آنها استفاده میکند. به عنوان یک قاعده کلی، اگر مقاله ای را در یک سایت مشکوک با مقدار زیادی padding میبینید که بسیار غیرطبیعی به نظر میرسد، باید در نظر داشته باشید که توسط هوش مصنوعی مولد نوشته شده است.
تحقیق در مورد نویسنده، نکات مهمی را نشان میدهد!
راه دیگر برای تشخیص اینکه آیا مقاله توسط هوش مصنوعی مولد نوشته شده است یا خیر، بررسی نویسنده است. برخی از سایتها نشانههای واضحتری دارند. برای مثال، CNET یک نام انسانی را به مقالات تولید شده توسط هوش مصنوعی اختصاص نمیدهد، فقط یک نام مانند “نوشته شده توسط CNET Money”، با یک ویرایشگر انسانی که اعتبار “ویرایش شده توسط” را دریافت میکند. سایتهای دیگر حتی به این اندازه شفاف نیستند. در نوامبر 2023، Futurism این خبر را منتشر کرد که Sports Illustrated از هوش مصنوعی مولد برای نوشتن مقالات به نام نویسندگان جعلی استفاده میکند. مقاله Futurism به عنوان طرحی برای نحوه بررسی منشأ یک نویسنده عمل میکند: با داستان “درو اورتیز” باز میشود، نویسندهای که هیچ ردپایی در اینترنت خارج از SportsIllustrated.com ندارد و عکسی که برای فروش در Generated.Photos، وب سایتی که عکسهای سر و صورت تولید شده توسط هوش مصنوعی را میفروشد، در دسترس است.
“کار” “درو اورتیز” نیز به طرز آشکاری توسط هوش مصنوعی تولید شده بود. “والیبال میتواند کمی دشوار باشد، به خصوص بدون توپ واقعی برای تمرین“، که با یک عبارت عجیب آغاز میشود. “شما باید اصول اولیه را در ذهن خود تمرین کنید قبل از اینکه بتوانید واقعاً بازی را به شکلی که قرار بود بازی شود، انجام دهید، و برای این کار، به فضای اختصاصی برای تمرین و یک توپ والیبال با اندازه کامل نیاز دارید.” شرکت مادر The Arena Group به Futurism تأیید کرد که این محتوا از یک پیمانکار، AdVon Commerce که از GenAI استفاده میکرد، بوده است.
حقایق اولیه را به گونهای اشتباه درک میکند که انسانها هرگز این کار را نمیکنند!
راه دیگر برای شناسایی یک قطعه “نوشته” تولید شده توسط هوش مصنوعی، بررسی دقیق اظهارات واقعی است که مطرح میشوند. حتی اگر حقیقت موضوع را از ابتدا ندانید، اظهارات واقعی در یک مقاله معین همچنان میتواند آنقدر عجیب و غریب باشد که واضح باشد که هیچ نویسنده انسانی با ذرهای عقل یا حرفهای نمیتوانسته آنها را بنویسد!
منبع: Slashgear