هوش مصنوعی مولد یک فناوری قدرتمند با پیامدهای مثبت و منفی است. در حالی که مدلهای هوش مصنوعی (مانند بارد) مطابق با استانداردهایی برای رد درخواستهای خطرناک طراحی شدهاند، اما این احتمال وجود دارد که با بهکارگیری از برخی از ترفندهای هوشمندانه، بتوان آن را به گونهای دستکاری کرد تا دستورالعملهای اصلی خود را نادیده بگیرد و به درخواستهای مشکوک و خطرناک پاسخ دهد.
برای رفع این نگرانی، کمپانی گوگل قصد دارد به هوش مصنوعی بارد، رفتار اخلاقمدارانه را آموزش دهد. به عنوان بخشی از این تلاش، کمپانی گوگل در بیانیه جدید خود اعلام کرده است که در برنامه “پاداش آسیبپذیری گوگل یا VRP” قصد دارد به افرادی که توانایی قانع کردن هوش مصنوعی بارد به ارائه پاسخهای خطرناک را دارند، پاداش مالی پرداخت کند!
پیشتر نیز برنامه “VRP” کاربران را به شناسایی آسیبپذیریها و نقاط ضعف نرمافزارها (در سطح برنامه یا سیستم عامل) تشویق کرده و به آنها پاداش مالی پرداخت میکرد. حالا، به نظر میرسد که مرزهای این برنامه تشویقی گسترش یافته است و هوش مصنوعی بارد و درخواستهای مشکوک و خطرناک ارائه شده به آن را نیز در بر خواهد گرفت.
برخی از کاربران در نوعی از حملات که به نام “حملات تزریق سریع” نیز از آنها یاد میشود، قادرند با “پافشاری، اصرار و ایجاد تغییرات مداوم اما کوچک” در ارائه درخواستهای خطرناک خود، هوش مصنوعی را به انجام برخی از اقدامات غیرمجاز وادار کنند. در برنامه VPR، گوگل در تلاش است با پرداخت مبلغی به عنوان پاداش مالی به این گروه از کاربران، نقاط ضعف بارد را شناسایی کند. علاوه بر این، در این برنامه میزان مقاومت این هوش مصنوعی در برابر سایر حملات مانند “استخراج دادههای آموزشی” که در آن اطلاعات حساس (مثلا اطلاعات احراز هویت شخصی و رمزهای عبور) از طریق هوش مصنوعی قابل دستیابی هستند، سنجیده میشود.
در حال حاضر، گوگل از طریق یک کانال گزارشدهی به منظور دریافت پاسخهای نادرست یا غیرعادی با کاربران خود در ارتباط است، اما این کانال شامل برنامه VPR نیست و پاداش مالی به گزارشدهندگان پرداخت نمیشود. با این حال، برنامه Bounty این کمپانی بر آسیبپذیریهایی که هکرها قادرند برای رسیدن به اهداف مخرب خود از آنها سوء استفاده کنند، تمرکز دارد.
شایان ذکر است که احتمالاً برخی از اقدامات مانند متقاعد کردن هوش مصنوعی بارد در راستای “ارائه کلیدهای رجیستری ویندوز یا بهکارگیری از عبارات توهین یا تهدیدآمیز” در مکالمات، تحت پوشش جایزه VPR نخواهند بود. علاوه بر این، در صورت یافتن نقصهای مربوط به حق نشر (کپی رایت) یا استخراج دادههای غیر حساس، کاربر واجد شرایط دریافت پاداش نخواهد بود. با این حال، بسته به اهمیت موضوع گزارش شده، ممکن است که کاربران بتوانند از گوگل به اندازه چندین هزار دلار، جایزه دریافت کنند.
گوگل ضمن در نظر گرفتن گزارشات کاربران به عنوان آسیبپذیری و گنجاندن این دسته از مشکلات در برنامه VPR، امیدوار است بتواند هوش مصنوعی بارد را تا حد زیادی تقویت کند و آن را به پایبندی به “قوانین اخلاقی، آموزشها و دستورالعملهای اولیه” وادار نماید. انتظار میرود که گوگل برای این برنامه، بودجه مالی قابلتوجهی را در نظر گرفته باشد.
توجه داشته باشید که یافتن نقاط ضعف در یک مدل هوش مصنوعی از طریق ارسال درخواستها به آن و بررسی اینکه “آیا پاسخ هوش مصنوعی به آن درخواست اخلاقمدارانه و مطابق با آموزشهای ارائه شده بوده است یا خیر”، با تجزیه و تحلیل کد به صورت سنتی از طریق “خوانش کد، بررسی راههای نفوذ در کد و نحوه عبور افراد غیرمجاز از کد” تفاوت دارد.
برای کسب اطلاعات بیشتر، به دستورالعملهای گوگل در رابطه با گزارش مشکلات مربوط به هوش مصنوعی بارد مراجعه کنید. این دستورالعملها درک روشنی از آنچه که در محدوده برنامه VPR قرار میگیرد، را در اختیار شما قرار خواهد داد.
منبع: HowToGeek