جنبه های امنیتی هوش مصنوعی که دانشگاه ها، ناشران و مجلات باید بدانند
ایمنی هوش مصنوعی به حوزه تحقیق و عملی اشاره دارد که هدف آن حصول اطمینان از توسعه و استقرار سیستم های هوش مصنوعی به گونه ای است که خطرات را به حداقل برساند و نتایج مثبت را برای بشریت به حداکثر برساند. امنیت هوش مصنوعی طیف گسترده ای از نگرانی ها را در بر می گیرد از جمله:
- استحکام و قابلیت اطمینان: حصول اطمینان از اینکه سیستمهای هوش مصنوعی در شرایط مختلف طبق برنامه عمل میکنند و رفتار غیرمنتظره یا مضر از خود نشان نمیدهند.
- ملاحظات اخلاقی: پرداختن به مسائل مربوط به عدالت، پاسخگویی، شفافیت و حریم خصوصی در سیستم های هوش مصنوعی برای جلوگیری از آسیب یا تبعیض برای افراد یا گروه ها.
- همسویی ارزش: اهداف و ارزشهای سیستمهای هوش مصنوعی باید با اهداف کاربران انسانی و جامعه در کل همسو باشد تا از تضادها یا پیامدهای ناخواسته جلوگیری شود.
- به حداقل رساندن ریسک: توسعه استراتژی ها و مکانیسم هایی برای شناسایی، ارزیابی و کاهش خطرات بالقوه مرتبط با توسعه و استقرار فناوری های هوش مصنوعی، مانند عوارض جانبی ناخواسته، سوء استفاده یا پیامدهای ناخواسته.
- اثرات بلند مدت: پیشبینی و برنامهریزی برای اثرات بلندمدت اجتماعی، اقتصادی و وجودی فناوریهای هوش مصنوعی، از جمله مسائل مربوط به اشتغال، نابرابری و پتانسیل هوش مصنوعی برای پیشی گرفتن از تواناییهای انسانی.
به طور کلی، هدف امنیت هوش مصنوعی این است که اطمینان حاصل شود که فناوریهای هوش مصنوعی به گونهای توسعه یافته و به کار گرفته میشوند که مزایای آنها را به حداکثر میرساند و در عین حال خطرات و پتانسیل آسیبرسانی به افراد، جامعه و محیط وسیعتر را به حداقل میرساند.
تحقیقات امنیتی هوش مصنوعی هنوز یک زمینه نوظهور است و سوالات و نگرانی های امنیتی جدید تقریباً هر روز ممکن است ایجاد شود. با این حال، با افزایش استفاده از هوش مصنوعی در زمینه های مختلف علم، مهم است که ذینفعان مسائل کلیدی پیرامون ایمنی هوش مصنوعی را درک کنند.
مسمومیت داده ها
مسمومیت داده نوعی حمله یا دستکاری سایبری است که هدف آن دستکاری داده های آموزشی مورد استفاده برای توسعه یا تنظیم دقیق مدل های یادگیری ماشین است. در حملات مسمومیت داده ها، مهاجمان عمدا داده های مخرب یا گمراه کننده را به مجموعه داده های آموزشی تزریق می کنند تا عملکرد یا یکپارچگی مدل یادگیری ماشین را تضعیف کنند.
حملات مسمومیت داده ها می تواند اشکال مختلفی داشته باشد از جمله
- برچسب ها را برگردانید: مهاجمان برچسب ها یا حاشیه نویسی مرتبط با نقاط داده را دستکاری می کنند تا مدل را در طول آموزش گمراه کنند. برای مثال، میتوانید عنوان تصویر گربه را به «سگ» تغییر دهید تا مدل را اشتباه بگیرید.
- دستکاری عملکرد: مهاجمان ویژگیها یا ویژگیهای دادهها را تغییر میدهند تا سوگیریها یا سوگیریهایی را معرفی کنند که میتواند فرآیند یادگیری مدل را گمراه کند. این می تواند شامل تغییر مقادیر پیکسل در تصاویر یا تغییر متن برای درج اطلاعات گمراه کننده باشد.
- درج داده ها: مهاجمان نقاط داده کاملا جعلی یا مخرب را در مجموعه داده های آموزشی وارد می کنند تا مرزهای تصمیم مدل را مخدوش کنند یا رفتارهای خاصی را القاء کنند. این نقاط داده درج شده را می توان با دقت طراحی کرد تا از نقاط ضعف در الگوریتم های یادگیری مدل استفاده کند.
- دستکاری داده: مهاجمان می توانند توزیع داده های آموزشی را با افزودن یا حذف انتخابی نمونه ها دستکاری کنند تا پیش بینی های مدل را به نفع نتایج یا کلاس های خاص سوگیری کنند.
دیپ فیک
دیپفیکها رسانههای مصنوعی، معمولاً ویدیوهایی هستند که با استفاده از تکنیکهای یادگیری عمیق، بهویژه شبکههای متخاصم مولد (GAN) و شبکههای عصبی عمیق (DNN) ایجاد میشوند. این فناوریها دستکاری محتوای تصویری و صوتی را برای ایجاد جعلیهای بسیار واقعی که اغلب تشخیص آنها از ضبطهای اصلی دشوار است، امکانپذیر میسازد.
دیپ فیک ها به دلیل پتانسیل سوءاستفاده از جمله، توجه قابل توجهی را به خود جلب کرده اند
- اطلاعات غلط و اخبار جعلی: از دیپ فیک می توان برای ایجاد ویدیوهای قانع کننده اما کاملاً ساختگی از چهره های عمومی، سیاستمداران یا افراد مشهور استفاده کرد که کارهایی را انجام می دهند که هرگز در واقعیت انجام نداده اند. این خطر قابل توجهی برای انتشار اطلاعات نادرست و تضعیف اعتماد به رسانه ها و شخصیت های عمومی است.
- نگرانی های حریم خصوصی: فناوری Deepfake میتواند برای ایجاد هرزهنگاری یا ویدیوهای در معرض خطر از افراد بدون رضایت آنها استفاده شود، که میتواند منجر به نقض حریم خصوصی و آسیب احتمالی به قربانیان شود.
- تقلب و مهندسی اجتماعی: دیپفیکها میتوانند برای اهداف کلاهبرداری استفاده شوند، مانند جعل هویت افراد دیگر در تماسهای ویدیویی یا ایجاد پیامهای صوتی جعلی که افراد را فریب میدهد تا فکر کنند با شخصی مورد اعتمادشان ارتباط برقرار میکنند.
شفافیت و تعصب
بسیاری از سیستمهای هوش مصنوعی، بهویژه آنهایی که مبتنی بر مدلهای پیچیده یادگیری عمیق هستند، مانند «جعبههای سیاه» عمل میکنند و درک نحوه رسیدن به تصمیمهایشان را دشوار میکنند. شفافیت و توضیحپذیری در هوش مصنوعی برای ایجاد اعتماد، امکان پاسخگویی و تسهیل نظارت انسانی در برنامههای حیاتی که عواقب خطاها یا شکستها میتواند قابل توجه باشد، ضروری است.
علاوه بر این، سوگیری در سیستمهای هوش مصنوعی میتواند منجر به نتایج ناعادلانه یا تبعیضآمیز شود، بهویژه زمانی که این سیستمها در فرآیندهای تصمیمگیری کلیدی مانند استخدام، وام دادن و عدالت کیفری استفاده میشوند. پرداختن به سوگیری و ترویج عدالت در هوش مصنوعی مستلزم بررسی دقیق دادههای مورد استفاده برای آموزش مدلها و همچنین توسعه و ارزیابی الگوریتمهایی برای کاهش نتایج مغرضانه است.