چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

اشتراک‌گذاری:

مطمئناً با رشد روزافزون هوش مصنوعی در تمام عرصه‌های زندگی، دیگر تعجب نخواهید کرد اگر بشنوید که هوش مصنوعی دنیا را زیر و رو کرده است. اگرچه چت‌بات‌ها از زمان “چت‌بات” مبتنی بر قوانین الیزا در سال ۱۹۶۶ وجود داشته‌اند، اما دهه ۲۰۲۰ تصویر کاملاً متفاوتی از توانایی‌های آنها را ترسیم کرده است. هوش مصنوعی مولد (Generative AI) – یا همان مدل‌های زبانی بزرگ (LLM) – از اواخر سال ۲۰۲۲ با پیشتازی ChatGPT از شرکت OpenAI، به‌طور برجسته‌تری وارد آگاهی عمومی شدند.

با توجه به اینکه سیستم‌های هوش مصنوعی می‌توانند عملکرد خود را در طیف وسیعی از کاربردها بهبود بخشند، طبیعی است که کاربران به استفاده از این فناوری عادت کنند. اخیراً، شاهد افزایش استفاده از ChatGPT به عنوان ابزاری برای “خوددرمانی” بوده‌ایم، که در آن کاربران جزئیات پیچیده‌ای از زندگی روزمره خود، از جمله اطلاعات هویتی، را به این مدل‌های زبانی می‌گویند. همان‌طور که چیزهایی وجود دارد که هرگز نباید در شبکه‌های اجتماعی به اشتراک بگذارید، چت کردن با سیستم‌های هوش مصنوعی نیز باید تابع قوانین “غریبه خطرناک” باشد. در این مطلب فهرستی‌ از پنج دلیل برای اجتناب از به اشتراک گذاشتن اطلاعات شخصی خود با ابزارهای هوش مصنوعی آورده شده است. با اِروتِک همراه باشید.

۱. نشت اطلاعات تهدیدی برای امنیت داده‌هاست!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

اینکه امنیت سایبری یکی از سریع‌ترین بخش‌های در حال رشد در اقتصاد دیجیتال است، دلیلی دارد. به گفته اف‌بی‌آی، خسارات ناشی از جرائم اینترنتی در سال ۲۰۲۴ از ۱۶ میلیارد دلار فراتر رفته است. این رقم نسبت به سال ۲۰۲۳ افزایشی ۳۳ درصدی را نشان می‌دهد و فیشینگ و نقض داده‌های شخصی جزو سه جرم سایبری برتر گزارش‌شده در سال ۲۰۲۴ بودند.

این خطرات، همراه با این واقعیت که تنها ۲۴ درصد از طرح‌های هوش مصنوعی مولد به درستی در برابر حملات سایبری محافظت شده‌اند، باید زنگ خطر را برای کاربرانی که اطلاعات شخصی زیادی را با این چت‌بات‌ها به اشتراک می‌گذارند، به صدا درآورد. از قبل نمونه‌های برجسته‌ای از نشت داده‌ها وجود داشته است؛ به عنوان مثال، ChatGPT در ماه می ۲۰۲۳ یک نشت داده را تجربه کرد که اطلاعات حساس نزدیک به ۱۰۰,۰۰۰ کاربر را به خطر انداخت. در واقع، نگرانی‌های مربوط به حریم خصوصی باعث شد ChatGPT برای مدت کوتاهی در سال ۲۰۲۳ از دسترس خارج شود.

این هم یک حادثه منزوی نیست. در اواخر سال ۲۰۲۳، جزئیات شخصی گروهی از خبرنگاران برای نیویورک تایمز نیز به عنوان بخشی از یک آزمایش تحقیقاتی فاش شد. به نظر ما، این سابقه نشت اطلاعات خطر به اشتراک گذاشتن اطلاعات هویتی با سیستم‌های هوش مصنوعی را نشان می‌دهد.

۲. دیپ‌فیک‌ها می‌توانند به کلاهبرداری هویتی کمک کنند!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

به اشتراک گذاشتن اطلاعات شخصی با ابزارهای هوش مصنوعی خطرناک است، اما نه فقط به این دلیل که هکرها می‌توانند در طول یک نشت داده به اطلاعات شما دسترسی پیدا کنند. کاربران همیشه عکس‌های خود را در سرویس‌های ویرایش عکس هوش مصنوعی آپلود می‌کنند – برای بهبود عکس، تبدیل عکس پروفایل به انیمه، یا حتی ایجاد یک تصویر کاملاً جدید – همگی بدون استفاده از خدمات یک فرد حرفه‌ای.

در حالی‌که این روند ممکن است راحت یا حتی سرگرم‌کننده باشد، با ظهور دیپ‌فیک‌ها، کاربران را در معرض دنیای کاملاً جدیدی از خطرات سرقت هویت قرار داده است. دیپ‌فیک‌ها تصاویر یا ویدیوهای دستکاری‌شده‌ای هستند که سوژه را در حال گفتن یا انجام کاری نشان می‌دهند که هرگز انجام نداده است و به قدری پیشرفته هستند که می‌توانند ناظران عادی را فریب دهند. این فناوری، با داشتن داده‌های مناسب، ارتکاب کلاهبرداری هویتی، اخاذی و سایر جرائمی که می‌توانند به اعتبار عمومی قربانی آسیب بزنند را بسیار آسان‌تر می‌کند.

اگرچه نمونه‌های دیپ‌فیک‌هایی که مستقیماً از اطلاعات هویتی شخصی سرچشمه می‌گیرند، نادر هستند، اما توانایی آنها در ایجاد تصاویر و صداهای متقاعدکننده یک تهدید بسیار واقعی را ایجاد می‌کند. با این حال، آن ماشین‌ها برای تولید رسانه‌های جدید در مورد یک سوژه به داده‌های صوتی و تصویری زیادی نیاز دارند. برای اکثر ما که شخصیت آنلاین عمومی خاصی نداریم، این داده‌ها عمدتاً از فایل‌های لو رفته به دست می‌آید.

۳. چت‌بات‌ها بیشتر از آنچه فکر می‌کنید به خاطر می‌سپارند!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

یکی از ماندگارترین اصول در فرهنگ اینترنت این است که “اینترنت هرگز فراموش نمی‌کند.” چه در قالب یک جستجوی ساده در گوگل و چه در مکالمات پیچیده با دستیارهای مجازی مجهز به هوش مصنوعی، کاربران باید آگاه باشند که برای هر کاری که انجام می‌دهند، سوابقی وجود خواهد داشت. هر چیزی برای همیشه در اینترنت نمی‌ماند، همان‌طور که میلیون‌ها تورنت مرده نشان می‌دهند. با این حال، با استفاده از ChatGPT به عنوان یک مورد مطالعاتی، شرکت هوش مصنوعی ادعا می‌کند که چت‌های حذف‌شده ظرف ۳۰ روز از سیستم‌های آن “به سختی حذف” می‌شوند، اما این فقط برای کاربرانی صدق می‌کند که می‌خواهند کل حساب خود را از پایگاه داده OpenAI حذف کنند!

برای کاربران دائمی، ذکر شده است که اعلان‌های (Prompts) خاص را نمی‌توان از تاریخچه چت حذف کرد. طبق یک مطالعه علمی از دانشگاه کارولینای شمالی، حذف اطلاعات از یک LLM امکان‌پذیر است، اما تأیید حذف آن بسیار دشوارتر است.

با این اوصاف، ظرفیت نگهداری داده در ابزارهای هوش مصنوعی باید کاربران را وادار کند که قبل از به اشتراک گذاشتن اطلاعات شخصی با آنها، دوباره فکر کنند. اگر این اطلاعات به دست افراد اشتباه بیفتد – از طریق نشت اطلاعات در کل شرکت (که در گذشته اتفاق افتاده)، حملات هدفمند از سوی مجرمان سایبری، یا یک تغییر ساده در سیاست شرکت که شما با آن مخالف هستید – عواقب آن می‌تواند فاجعه‌بار باشد.

۴. کمک به آموزش هوش مصنوعی می‌تواند به مالکیت فکری شما آسیب بزند!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

ابزارهای هوش مصنوعی توسط الگوریتم‌های یادگیری ماشین تقویت می‌شوند، که اساساً یک شبکه گسترده را در میلیون‌ها مجموعه داده برای یادگیری الگوها و ارائه پاسخ‌های مرتبط به اعلان‌های کاربران، گسترش می‌دهند. این فرآیند یادگیری حتی زمانی‌که کاربران به طور فعال با آنها در تعامل هستند، متوقف نمی‌شود؛ آموزش الگوریتم‌های یادگیری ماشین بر روی اطلاعات کاربر یک بازی منصفانه در نظر گرفته می‌شود.

به عنوان مثال، لینکدین در اواخر سال ۲۰۲۴ به دلیل آموزش ابزارهای هوش مصنوعی بر روی داده‌های کاربران مورد انتقاد قرار گرفت. در پاسخ به این خشم، این شرکت سیاست حفظ حریم خصوصی خود را به روز کرد تا به کاربران اجازه دهد با یک دکمه ضامن، از فرآیند آموزش داده‌ها انصراف دهند. این گزینه از آن زمان به یک استاندارد در صنعت تبدیل شده است، اما درست مانند سیاست‌های داده تمام رسانه‌های اجتماعی، تعداد کمی از کاربران می‌دانند که چه چیزی را امضا می‌کنند و از چه چیزی می‌توانند انصراف دهند.

لینکدین تنها شرکتی نیست که داده‌های حساس کاربران را در روند آموزش LLM خود دخیل می‌کند؛ هوش مصنوعی متا تا حدی بر روی پست‌های فیس‌بوک و اینستاگرام آموزش دیده و آمازون نیز از داده‌های تعاملات مشتریان با الکسا برای آموزش مدل خود استفاده می‌کند. پیامدهای این وضعیت می‌تواند در نقض مالکیت فکری ظاهر شود. نویسندگان و هنرمندان با سبک خلاقانه منحصر به فرد خود ممکن است ناگهان با مطالب تولیدشده توسط هوش مصنوعی با شباهت‌های چشمگیر به کار خود مواجه شوند که با میلیون‌ها کاربر به اشتراک گذاشته می‌شود. این امر منجر به چندین شکایت حقوقی گروهی، از جمله تجمع هنرمندان علیه Stable Diffusion در اوایل سال گذشته شد.

۵. هوش مصنوعی‌های مغرض می‌توانند از اطلاعات شخصی شما علیه خودتان استفاده کنند!

چرا نباید اطلاعات شخصی خود را به هوش مصنوعی بدیم؟! ۵ دلیل مهم!

نقض مالکیت فکری تنها خطر جدیدی نیست که هنگام به اشتراک گذاشتن اطلاعات شخصی با ابزارهای هوش مصنوعی باید با آن دست و پنجه نرم کرد. ماهیت فرآیند آموزش به این معنی است که LLMها مستعد ایجاد سوگیری‌هایی هستند که می‌تواند تأثیر منفی بر کاربران و دیگران داشته باشد.

به عنوان مثال، مرکز حریم خصوصی و فناوری دانشگاه جورج‌تاون در سال ۲۰۱۶ تخمین زد که تصویر یک نفر از هر دو بزرگسال آمریکایی در یک شبکه تشخیص چهره مجری قانون ذخیره شده است. بر اساس آمار زندان، آمریکایی‌های آفریقایی‌تبار نزدیک به ۴۰ درصد از جمعیت زندانی را تشکیل می‌دهند. با توجه به اینکه این داده‌ها به هوش مصنوعی‌ها داده می‌شود، منطقی است که الگوریتم‌های تشخیص چهره هنگام ساختن یک پروفایل از یک مظنون بالقوه جرم، یا هنگام تلاش برای تطبیق یک توصیف متنی یا یک عکس با یک چهره، مقداری سوگیری را معرفی کنند.

همین فناوری برای انتخاب نامزدها برای یک شغل، اعطای وام مسکن و موارد دیگر استفاده می‌شود. بدون مراقبت بیشتر، به همان اندازه مستعد سوگیری است. به همین ترتیب، به اشتراک گذاشتن جزئیات خاصی در مورد خودتان می‌تواند شما را در معرض اثرات منفی پروفایل‌سازی قرار دهد. در سال ۲۰۱۵، آمازون مجبور شد آزمایش استخدام خودکار خود را متوقف کند پس از اینکه مشخص شد به طور سیستماتیک علیه زنان تبعیض قائل می‌شود. با این حال، گاهی اوقات کارهای زیادی برای محافظت از خود در برابر این سوگیری‌ها نمی‌توانید انجام دهید، زیرا مدل‌ها بر روی هزاران داده آموزش می‌بینند که یک کاربر تنها نمی‌تواند آنها را شکل دهد. تلاش برای محافظت از داده‌های خود یک شروع خوب است، اما این امر هنگام درخواست شغل یا تلاش برای اجاره خانه ممکن است غیرممکن باشد.

منبع: Slashgear

مقالات مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *