مطمئناً با رشد روزافزون هوش مصنوعی در تمام عرصههای زندگی، دیگر تعجب نخواهید کرد اگر بشنوید که هوش مصنوعی دنیا را زیر و رو کرده است. اگرچه چتباتها از زمان “چتبات” مبتنی بر قوانین الیزا در سال ۱۹۶۶ وجود داشتهاند، اما دهه ۲۰۲۰ تصویر کاملاً متفاوتی از تواناییهای آنها را ترسیم کرده است. هوش مصنوعی مولد (Generative AI) – یا همان مدلهای زبانی بزرگ (LLM) – از اواخر سال ۲۰۲۲ با پیشتازی ChatGPT از شرکت OpenAI، بهطور برجستهتری وارد آگاهی عمومی شدند.
با توجه به اینکه سیستمهای هوش مصنوعی میتوانند عملکرد خود را در طیف وسیعی از کاربردها بهبود بخشند، طبیعی است که کاربران به استفاده از این فناوری عادت کنند. اخیراً، شاهد افزایش استفاده از ChatGPT به عنوان ابزاری برای “خوددرمانی” بودهایم، که در آن کاربران جزئیات پیچیدهای از زندگی روزمره خود، از جمله اطلاعات هویتی، را به این مدلهای زبانی میگویند. همانطور که چیزهایی وجود دارد که هرگز نباید در شبکههای اجتماعی به اشتراک بگذارید، چت کردن با سیستمهای هوش مصنوعی نیز باید تابع قوانین “غریبه خطرناک” باشد. در این مطلب فهرستی از پنج دلیل برای اجتناب از به اشتراک گذاشتن اطلاعات شخصی خود با ابزارهای هوش مصنوعی آورده شده است. با اِروتِک همراه باشید.
۱. نشت اطلاعات تهدیدی برای امنیت دادههاست!
اینکه امنیت سایبری یکی از سریعترین بخشهای در حال رشد در اقتصاد دیجیتال است، دلیلی دارد. به گفته افبیآی، خسارات ناشی از جرائم اینترنتی در سال ۲۰۲۴ از ۱۶ میلیارد دلار فراتر رفته است. این رقم نسبت به سال ۲۰۲۳ افزایشی ۳۳ درصدی را نشان میدهد و فیشینگ و نقض دادههای شخصی جزو سه جرم سایبری برتر گزارششده در سال ۲۰۲۴ بودند.
این خطرات، همراه با این واقعیت که تنها ۲۴ درصد از طرحهای هوش مصنوعی مولد به درستی در برابر حملات سایبری محافظت شدهاند، باید زنگ خطر را برای کاربرانی که اطلاعات شخصی زیادی را با این چتباتها به اشتراک میگذارند، به صدا درآورد. از قبل نمونههای برجستهای از نشت دادهها وجود داشته است؛ به عنوان مثال، ChatGPT در ماه می ۲۰۲۳ یک نشت داده را تجربه کرد که اطلاعات حساس نزدیک به ۱۰۰,۰۰۰ کاربر را به خطر انداخت. در واقع، نگرانیهای مربوط به حریم خصوصی باعث شد ChatGPT برای مدت کوتاهی در سال ۲۰۲۳ از دسترس خارج شود.
این هم یک حادثه منزوی نیست. در اواخر سال ۲۰۲۳، جزئیات شخصی گروهی از خبرنگاران برای نیویورک تایمز نیز به عنوان بخشی از یک آزمایش تحقیقاتی فاش شد. به نظر ما، این سابقه نشت اطلاعات خطر به اشتراک گذاشتن اطلاعات هویتی با سیستمهای هوش مصنوعی را نشان میدهد.
۲. دیپفیکها میتوانند به کلاهبرداری هویتی کمک کنند!
به اشتراک گذاشتن اطلاعات شخصی با ابزارهای هوش مصنوعی خطرناک است، اما نه فقط به این دلیل که هکرها میتوانند در طول یک نشت داده به اطلاعات شما دسترسی پیدا کنند. کاربران همیشه عکسهای خود را در سرویسهای ویرایش عکس هوش مصنوعی آپلود میکنند – برای بهبود عکس، تبدیل عکس پروفایل به انیمه، یا حتی ایجاد یک تصویر کاملاً جدید – همگی بدون استفاده از خدمات یک فرد حرفهای.
در حالیکه این روند ممکن است راحت یا حتی سرگرمکننده باشد، با ظهور دیپفیکها، کاربران را در معرض دنیای کاملاً جدیدی از خطرات سرقت هویت قرار داده است. دیپفیکها تصاویر یا ویدیوهای دستکاریشدهای هستند که سوژه را در حال گفتن یا انجام کاری نشان میدهند که هرگز انجام نداده است و به قدری پیشرفته هستند که میتوانند ناظران عادی را فریب دهند. این فناوری، با داشتن دادههای مناسب، ارتکاب کلاهبرداری هویتی، اخاذی و سایر جرائمی که میتوانند به اعتبار عمومی قربانی آسیب بزنند را بسیار آسانتر میکند.
اگرچه نمونههای دیپفیکهایی که مستقیماً از اطلاعات هویتی شخصی سرچشمه میگیرند، نادر هستند، اما توانایی آنها در ایجاد تصاویر و صداهای متقاعدکننده یک تهدید بسیار واقعی را ایجاد میکند. با این حال، آن ماشینها برای تولید رسانههای جدید در مورد یک سوژه به دادههای صوتی و تصویری زیادی نیاز دارند. برای اکثر ما که شخصیت آنلاین عمومی خاصی نداریم، این دادهها عمدتاً از فایلهای لو رفته به دست میآید.
۳. چتباتها بیشتر از آنچه فکر میکنید به خاطر میسپارند!
یکی از ماندگارترین اصول در فرهنگ اینترنت این است که “اینترنت هرگز فراموش نمیکند.” چه در قالب یک جستجوی ساده در گوگل و چه در مکالمات پیچیده با دستیارهای مجازی مجهز به هوش مصنوعی، کاربران باید آگاه باشند که برای هر کاری که انجام میدهند، سوابقی وجود خواهد داشت. هر چیزی برای همیشه در اینترنت نمیماند، همانطور که میلیونها تورنت مرده نشان میدهند. با این حال، با استفاده از ChatGPT به عنوان یک مورد مطالعاتی، شرکت هوش مصنوعی ادعا میکند که چتهای حذفشده ظرف ۳۰ روز از سیستمهای آن “به سختی حذف” میشوند، اما این فقط برای کاربرانی صدق میکند که میخواهند کل حساب خود را از پایگاه داده OpenAI حذف کنند!
برای کاربران دائمی، ذکر شده است که اعلانهای (Prompts) خاص را نمیتوان از تاریخچه چت حذف کرد. طبق یک مطالعه علمی از دانشگاه کارولینای شمالی، حذف اطلاعات از یک LLM امکانپذیر است، اما تأیید حذف آن بسیار دشوارتر است.
با این اوصاف، ظرفیت نگهداری داده در ابزارهای هوش مصنوعی باید کاربران را وادار کند که قبل از به اشتراک گذاشتن اطلاعات شخصی با آنها، دوباره فکر کنند. اگر این اطلاعات به دست افراد اشتباه بیفتد – از طریق نشت اطلاعات در کل شرکت (که در گذشته اتفاق افتاده)، حملات هدفمند از سوی مجرمان سایبری، یا یک تغییر ساده در سیاست شرکت که شما با آن مخالف هستید – عواقب آن میتواند فاجعهبار باشد.
۴. کمک به آموزش هوش مصنوعی میتواند به مالکیت فکری شما آسیب بزند!
ابزارهای هوش مصنوعی توسط الگوریتمهای یادگیری ماشین تقویت میشوند، که اساساً یک شبکه گسترده را در میلیونها مجموعه داده برای یادگیری الگوها و ارائه پاسخهای مرتبط به اعلانهای کاربران، گسترش میدهند. این فرآیند یادگیری حتی زمانیکه کاربران به طور فعال با آنها در تعامل هستند، متوقف نمیشود؛ آموزش الگوریتمهای یادگیری ماشین بر روی اطلاعات کاربر یک بازی منصفانه در نظر گرفته میشود.
به عنوان مثال، لینکدین در اواخر سال ۲۰۲۴ به دلیل آموزش ابزارهای هوش مصنوعی بر روی دادههای کاربران مورد انتقاد قرار گرفت. در پاسخ به این خشم، این شرکت سیاست حفظ حریم خصوصی خود را به روز کرد تا به کاربران اجازه دهد با یک دکمه ضامن، از فرآیند آموزش دادهها انصراف دهند. این گزینه از آن زمان به یک استاندارد در صنعت تبدیل شده است، اما درست مانند سیاستهای داده تمام رسانههای اجتماعی، تعداد کمی از کاربران میدانند که چه چیزی را امضا میکنند و از چه چیزی میتوانند انصراف دهند.
لینکدین تنها شرکتی نیست که دادههای حساس کاربران را در روند آموزش LLM خود دخیل میکند؛ هوش مصنوعی متا تا حدی بر روی پستهای فیسبوک و اینستاگرام آموزش دیده و آمازون نیز از دادههای تعاملات مشتریان با الکسا برای آموزش مدل خود استفاده میکند. پیامدهای این وضعیت میتواند در نقض مالکیت فکری ظاهر شود. نویسندگان و هنرمندان با سبک خلاقانه منحصر به فرد خود ممکن است ناگهان با مطالب تولیدشده توسط هوش مصنوعی با شباهتهای چشمگیر به کار خود مواجه شوند که با میلیونها کاربر به اشتراک گذاشته میشود. این امر منجر به چندین شکایت حقوقی گروهی، از جمله تجمع هنرمندان علیه Stable Diffusion در اوایل سال گذشته شد.
۵. هوش مصنوعیهای مغرض میتوانند از اطلاعات شخصی شما علیه خودتان استفاده کنند!
نقض مالکیت فکری تنها خطر جدیدی نیست که هنگام به اشتراک گذاشتن اطلاعات شخصی با ابزارهای هوش مصنوعی باید با آن دست و پنجه نرم کرد. ماهیت فرآیند آموزش به این معنی است که LLMها مستعد ایجاد سوگیریهایی هستند که میتواند تأثیر منفی بر کاربران و دیگران داشته باشد.
به عنوان مثال، مرکز حریم خصوصی و فناوری دانشگاه جورجتاون در سال ۲۰۱۶ تخمین زد که تصویر یک نفر از هر دو بزرگسال آمریکایی در یک شبکه تشخیص چهره مجری قانون ذخیره شده است. بر اساس آمار زندان، آمریکاییهای آفریقاییتبار نزدیک به ۴۰ درصد از جمعیت زندانی را تشکیل میدهند. با توجه به اینکه این دادهها به هوش مصنوعیها داده میشود، منطقی است که الگوریتمهای تشخیص چهره هنگام ساختن یک پروفایل از یک مظنون بالقوه جرم، یا هنگام تلاش برای تطبیق یک توصیف متنی یا یک عکس با یک چهره، مقداری سوگیری را معرفی کنند.
همین فناوری برای انتخاب نامزدها برای یک شغل، اعطای وام مسکن و موارد دیگر استفاده میشود. بدون مراقبت بیشتر، به همان اندازه مستعد سوگیری است. به همین ترتیب، به اشتراک گذاشتن جزئیات خاصی در مورد خودتان میتواند شما را در معرض اثرات منفی پروفایلسازی قرار دهد. در سال ۲۰۱۵، آمازون مجبور شد آزمایش استخدام خودکار خود را متوقف کند پس از اینکه مشخص شد به طور سیستماتیک علیه زنان تبعیض قائل میشود. با این حال، گاهی اوقات کارهای زیادی برای محافظت از خود در برابر این سوگیریها نمیتوانید انجام دهید، زیرا مدلها بر روی هزاران داده آموزش میبینند که یک کاربر تنها نمیتواند آنها را شکل دهد. تلاش برای محافظت از دادههای خود یک شروع خوب است، اما این امر هنگام درخواست شغل یا تلاش برای اجاره خانه ممکن است غیرممکن باشد.
منبع: Slashgear