اپل برای تضمین امنیت داده های هوش مصنوعی و حفظ حریم خصوصی با کار دشواری روبروست
![](https://www.jayino.com/blog/wp-content/uploads/2024/06/screenshot-2024-06-10-at-11-41-26am-780x470.png)
تقریباً همه شرکتهای فناوری اکنون از هوش مصنوعی استفاده کردهاند و اپل نیز از این قاعده مستثنی نیست. چیزی که آن را کمی متفاوت می کند این است که چگونه برنامه ریزی می کند تا امنیت داده ها و نگرانی های مربوط به حریم خصوصی را مدیریت کند.
در رویداد سالانه WWDC خود در اوایل ماه جاری، این شرکت از Apple Intelligence، نسخه مخصوص هوش مصنوعی خود، که اپل می گوید استاندارد جدیدی در حریم خصوصی و امنیت هوش مصنوعی ایجاد می کند، رونمایی کرد. این علیرغم قصد آن برای “ادغام یکپارچه” ChatGPT OpenAI در محصولات و نرم افزار آن است.
اما برخی از کارشناسان امنیتی می گویند که اگرچه آنها در نیات اپل که به گفته آنها به خصوص برای این صنعت نوع دوستانه باقی مانده است، شک ندارند، اما این شرکت کار خود را برای آن قطع کرده است و به طور بالقوه یک هدف جدید در پشت خود دارد.
ران سندروویتز، مدیر عملیات وینگ سکیوریتی، گفت: وعدههای اپل در مورد امنیت و حریم خصوصی، و همچنین قصد آن برای شفافسازی در مورد نحوه برنامهریزی این شرکت برای استفاده از فناوری هوش مصنوعی، گامی در جهت درست است. که در زمینه پشتیبانی از کاربران تخصص دارد. شرکت ها نرم افزار شخص ثالث را در سیستم های خود ایمن می کنند.
سندروویتز گفت که این وعده ها با هدف دیرینه اپل برای به حداقل رساندن جمع آوری داده ها و عدم استفاده از آن برای سود منطبق است. این به شرکت اجازه می دهد تا در “جنگل” صنعتی که نه تنها کنترل نشده باقی می ماند، بلکه تا کنون در ایجاد مجموعه ای از کدها و استانداردهای خود نیز شکست خورده است، برجسته شود.
برخلاف اپل، شرکتهایی مانند متا و گوگل مدلهای کسبوکاری دارند که مدتها پیش از محبوبیت هوش مصنوعی بر اساس جمعآوری، اشتراکگذاری و فروش دادههای کاربران به کارگزاران، تبلیغکنندگان و دیگران است.
سندروویتز گفت، اما معرفی ابزارهای هوش مصنوعی مانند مدلهای زبان بزرگ و یادگیری ماشینی، که پتانسیل ایجاد پیشرفت و نوآوری عظیم را دارند، با نگرانیهای مهمی در خصوص حریم خصوصی همراه است.
سندروویتز گفت: قرار دادن داده ها در یک LLM مانند ChatGPT “مثل گفتن رازی به یک دوست است که امیدوارید آنها فراموش کنند، اما آنها فراموش نمی کنند.” دشوار است که بدانیم یا کنترل کنیم که این داده ها کجا می روند. و حتی اگر دادههای وارد شده بلافاصله از بین بروند، آنچه LLM از آن آموخته باقی میماند.
و LLM محبوب OpenAI نقش مهمی در هوش اپل ایفا خواهد کرد. از اواخر سال جاری، در ویژگیهایی مانند سیری و ابزارهای نوشتن ظاهر میشود، اما اپل قول میدهد که کاربرانش زمان استفاده از ChatGPT را کنترل کنند و قبل از اینکه اطلاعاتشان به اشتراک گذاشته نشود، از آنها اجازه میگیرد.
به طور سنتی، اپل با محدود کردن آنچه که جمع آوری می کند به حداقل لازم برای عملکرد نرم افزار یا دستگاه مورد نظر، داده های مصرف کننده را ایمن و خصوصی نگه می دارد. علاوه بر این، این شرکت تلفنها، رایانهها و سایر دستگاههای خود را با قدرت کافی برای حفظ پردازش دادههای حساس بر روی دستگاه، به جای ارسال آن به یک سرور ابری، ساخته است.
از این گذشته، داده هایی که هرگز جمع آوری نمی شوند را نمی توان گم کرد، دزدید یا فروخت. اما از نظر طراحی، هوش مصنوعی یک تغییر دهنده بازی است. LLM ها برای آموزش و قدرتمندتر شدن به داده نیاز دارند و برخی از عملیات هوش مصنوعی را نمی توان روی تلفن ها و لپ تاپ های استاندارد انجام داد.
کریگ فدریگی، معاون ارشد مهندسی نرم افزار اپل، در جریان رویداد اصلی WWDC این شرکت گفت که درک زمینه شخصی، مانند روال روزمره و روابط کاربر، برای اینکه هوش مصنوعی واقعا مفید باشد، ضروری است، اما باید این کار را انجام داد. بلاقاصله.
فدریگی گفت: «نباید به تمام جزئیات زندگی خود اعتماد کنید تا در ابر هوش مصنوعی دیگران ذخیره و تجزیه و تحلیل شوند.
برای اطمینان از این امر، اپل میگوید تا حد امکان پردازش هوش مصنوعی را در دستگاهها حفظ خواهد کرد. و آنچه را که نمیتوان روی تلفن یا رایانه انجام داد، به سیستم محاسبات ابری خصوصی آن ارسال میشود و قابلیتهای پردازشی بیشتر و همچنین دسترسی به مدلهای هوش مصنوعی بزرگتر را ممکن میسازد.
فدریگی گفت که داده های ارسال شده هرگز ذخیره نمی شوند یا در دسترس اپل قرار نمی گیرند، و افزود که درست مانند دستگاه های اپل، کارشناسان مستقل می توانند کدهایی را که روی سرورها اجرا می شود بررسی کنند تا مطمئن شوند که اپل به قول خود عمل می کند.
خصوصی نگه داشتن ابر خصوصی
Josiah Hagen، محقق امنیتی Trend Micro با بیش از 20 سال تجربه در سیستم های هوش مصنوعی، شکی ندارد که اپل تمام تلاش خود را برای تحقق این وعده ها انجام خواهد داد. و او اضافه کرد که ابر برخی از مزایای امنیتی را ارائه می دهد، از جمله اینکه اندازه بزرگتر آن، تشخیص ناهنجاری ها و جلوگیری از تهدیدات امنیتی احتمالی را قبل از تبدیل شدن به مشکل آسان تر می کند.
به گفته او، چیزی که کلید خواهد بود این است که آیا اپل میتواند کنترلهایی ایجاد کند که مانع از استفاده مهاجمان از هوش مصنوعی برای انجام کارهای بیشتر از آنچه در نظر گرفته شده با برنامههایی باشد که به آن متصل است.
هاگن گفت: «من فکر میکنم ما شاهد استفاده نادرست از مدلهای هوش مصنوعی برای اهداف شوم خواهیم بود. آی تی. سریعتر و ارزان تر کار کنید
هاگن همچنین نگران است که غول فناوری شرکتهای خارجی را برای کمک به امنیت ابر خود وارد نکند. او گفت که تشخیص نقص در سیستم امنیتی شما زمانی که خودتان آن را ساخته اید ممکن است دشوار باشد، و یک دیدگاه بیرونی می تواند برای شناسایی آنها قبل از حمله های آنلاین بسیار مهم باشد.
هاگن گفت: «اپل یک شرکت امنیتی نیست. ایمن کردن اکوسیستم خود سخت است.
علاوه بر این، پس از سالها تمرکز بر سیستمهای سنتی رایانه شخصی و ویندوز، مجرمان سایبری اکنون به طور فزایندهای به سیستمهای iOS با بدافزار حمله میکنند و هیچ تضمینی وجود ندارد که سیستم بسته اپل از ورود آنها جلوگیری کند. این مدل سیستم بسته است که بیش از اتصال اپل به ChatGPT، هاگن را نگران می کند.
او گفت که متخصصان امنیتی مستقلی که نقصهایی را در سیستمهای کامپیوتری پیدا میکنند و سپس آنها را در ازای پاداشهایی به نام پاداشهای باگ به شرکتها ارائه میکنند، بخش مهمتری از دفاع اپل خواهند شد.
زمانی که صحبت از حریم خصوصی به میان میآید، هیگن میگوید که ممکن است مسائل حقوقی یا مالی باعث شود که اپل تغییراتی در شیوههای حفظ حریم خصوصی خود داشته باشد و این شرکت را در مسیری لغزنده قرار دهد که در نهایت منجر به تغییر در شرایط خدماتش برای فعال کردن استفاده از آن شود داده های مصرف کننده نسخه بعدی هوش مصنوعی را آموزش دهید.
این همچنین باعث نگرانی سندروویتز است که گفت او و محققانش از نزدیک هر گونه تغییر در شرایط و ضوابط اپل را بررسی می کنند، به ویژه در مورد شیوه های اشتراک گذاری داده های آن با همکاران شخص ثالث مانند OpenAI. اگرچه اپل وعده های بزرگی در مورد آن داده است، اما اعلام کرده است که تا کنون جزئیاتی در مورد آن وجود ندارد.
او گفت: «ما باید چاپ دقیق را بخوانیم.
یادداشت ویرایشگر: CNET از یک موتور هوش مصنوعی برای ایجاد چندین داستان استفاده کرد که بر این اساس برچسب گذاری شده بودند. یادداشتی که می خوانید به مقالاتی پیوست شده است که موضوع هوش مصنوعی را به طور عمیق پوشش می دهند، اما کاملاً توسط ویراستاران و ویراستاران متخصص ما ایجاد شده اند. برای کسب اطلاعات بیشتر، ما را ببینید سیاست هوش مصنوعی.