بررسی محصولات

اپل برای تضمین امنیت داده های هوش مصنوعی و حفظ حریم خصوصی با کار دشواری روبروست


تقریباً همه شرکت‌های فناوری اکنون از هوش مصنوعی استفاده کرده‌اند و اپل نیز از این قاعده مستثنی نیست. چیزی که آن را کمی متفاوت می کند این است که چگونه برنامه ریزی می کند تا امنیت داده ها و نگرانی های مربوط به حریم خصوصی را مدیریت کند.

در رویداد سالانه WWDC خود در اوایل ماه جاری، این شرکت از Apple Intelligence، نسخه مخصوص هوش مصنوعی خود، که اپل می گوید استاندارد جدیدی در حریم خصوصی و امنیت هوش مصنوعی ایجاد می کند، رونمایی کرد. این علیرغم قصد آن برای “ادغام یکپارچه” ChatGPT OpenAI در محصولات و نرم افزار آن است.

برچسب نشان هنری AI Atlas

اما برخی از کارشناسان امنیتی می گویند که اگرچه آنها در نیات اپل که به گفته آنها به خصوص برای این صنعت نوع دوستانه باقی مانده است، شک ندارند، اما این شرکت کار خود را برای آن قطع کرده است و به طور بالقوه یک هدف جدید در پشت خود دارد.

ران سندروویتز، مدیر عملیات وینگ سکیوریتی، گفت: وعده‌های اپل در مورد امنیت و حریم خصوصی، و همچنین قصد آن برای شفاف‌سازی در مورد نحوه برنامه‌ریزی این شرکت برای استفاده از فناوری هوش مصنوعی، گامی در جهت درست است. که در زمینه پشتیبانی از کاربران تخصص دارد. شرکت ها نرم افزار شخص ثالث را در سیستم های خود ایمن می کنند.

سندروویتز گفت که این وعده ها با هدف دیرینه اپل برای به حداقل رساندن جمع آوری داده ها و عدم استفاده از آن برای سود منطبق است. این به شرکت اجازه می دهد تا در “جنگل” صنعتی که نه تنها کنترل نشده باقی می ماند، بلکه تا کنون در ایجاد مجموعه ای از کدها و استانداردهای خود نیز شکست خورده است، برجسته شود.

برخلاف اپل، شرکت‌هایی مانند متا و گوگل مدل‌های کسب‌وکاری دارند که مدت‌ها پیش از محبوبیت هوش مصنوعی بر اساس جمع‌آوری، اشتراک‌گذاری و فروش داده‌های کاربران به کارگزاران، تبلیغ‌کنندگان و دیگران است.

سندروویتز گفت، اما معرفی ابزارهای هوش مصنوعی مانند مدل‌های زبان بزرگ و یادگیری ماشینی، که پتانسیل ایجاد پیشرفت و نوآوری عظیم را دارند، با نگرانی‌های مهمی در خصوص حریم خصوصی همراه است.

سندروویتز گفت: قرار دادن داده ها در یک LLM مانند ChatGPT “مثل گفتن رازی به یک دوست است که امیدوارید آنها فراموش کنند، اما آنها فراموش نمی کنند.” دشوار است که بدانیم یا کنترل کنیم که این داده ها کجا می روند. و حتی اگر داده‌های وارد شده بلافاصله از بین بروند، آنچه LLM از آن آموخته باقی می‌ماند.

و LLM محبوب OpenAI نقش مهمی در هوش اپل ایفا خواهد کرد. از اواخر سال جاری، در ویژگی‌هایی مانند سیری و ابزارهای نوشتن ظاهر می‌شود، اما اپل قول می‌دهد که کاربرانش زمان استفاده از ChatGPT را کنترل کنند و قبل از اینکه اطلاعاتشان به اشتراک گذاشته نشود، از آنها اجازه می‌گیرد.

به طور سنتی، اپل با محدود کردن آنچه که جمع آوری می کند به حداقل لازم برای عملکرد نرم افزار یا دستگاه مورد نظر، داده های مصرف کننده را ایمن و خصوصی نگه می دارد. علاوه بر این، این شرکت تلفن‌ها، رایانه‌ها و سایر دستگاه‌های خود را با قدرت کافی برای حفظ پردازش داده‌های حساس بر روی دستگاه، به جای ارسال آن به یک سرور ابری، ساخته است.

از این گذشته، داده هایی که هرگز جمع آوری نمی شوند را نمی توان گم کرد، دزدید یا فروخت. اما از نظر طراحی، هوش مصنوعی یک تغییر دهنده بازی است. LLM ها برای آموزش و قدرتمندتر شدن به داده نیاز دارند و برخی از عملیات هوش مصنوعی را نمی توان روی تلفن ها و لپ تاپ های استاندارد انجام داد.

کریگ فدریگی، معاون ارشد مهندسی نرم افزار اپل، در جریان رویداد اصلی WWDC این شرکت گفت که درک زمینه شخصی، مانند روال روزمره و روابط کاربر، برای اینکه هوش مصنوعی واقعا مفید باشد، ضروری است، اما باید این کار را انجام داد. بلاقاصله.

فدریگی گفت: «نباید به تمام جزئیات زندگی خود اعتماد کنید تا در ابر هوش مصنوعی دیگران ذخیره و تجزیه و تحلیل شوند.

برای اطمینان از این امر، اپل می‌گوید تا حد امکان پردازش هوش مصنوعی را در دستگاه‌ها حفظ خواهد کرد. و آنچه را که نمی‌توان روی تلفن یا رایانه انجام داد، به سیستم محاسبات ابری خصوصی آن ارسال می‌شود و قابلیت‌های پردازشی بیشتر و همچنین دسترسی به مدل‌های هوش مصنوعی بزرگ‌تر را ممکن می‌سازد.

فدریگی گفت که داده های ارسال شده هرگز ذخیره نمی شوند یا در دسترس اپل قرار نمی گیرند، و افزود که درست مانند دستگاه های اپل، کارشناسان مستقل می توانند کدهایی را که روی سرورها اجرا می شود بررسی کنند تا مطمئن شوند که اپل به قول خود عمل می کند.

خصوصی نگه داشتن ابر خصوصی

Josiah Hagen، محقق امنیتی Trend Micro با بیش از 20 سال تجربه در سیستم های هوش مصنوعی، شکی ندارد که اپل تمام تلاش خود را برای تحقق این وعده ها انجام خواهد داد. و او اضافه کرد که ابر برخی از مزایای امنیتی را ارائه می دهد، از جمله اینکه اندازه بزرگتر آن، تشخیص ناهنجاری ها و جلوگیری از تهدیدات امنیتی احتمالی را قبل از تبدیل شدن به مشکل آسان تر می کند.

به گفته او، چیزی که کلید خواهد بود این است که آیا اپل می‌تواند کنترل‌هایی ایجاد کند که مانع از استفاده مهاجمان از هوش مصنوعی برای انجام کارهای بیشتر از آنچه در نظر گرفته شده با برنامه‌هایی باشد که به آن متصل است.

هاگن گفت: «من فکر می‌کنم ما شاهد استفاده نادرست از مدل‌های هوش مصنوعی برای اهداف شوم خواهیم بود. آی تی. سریعتر و ارزان تر کار کنید

هاگن همچنین نگران است که غول فناوری شرکت‌های خارجی را برای کمک به امنیت ابر خود وارد نکند. او گفت که تشخیص نقص در سیستم امنیتی شما زمانی که خودتان آن را ساخته اید ممکن است دشوار باشد، و یک دیدگاه بیرونی می تواند برای شناسایی آنها قبل از حمله های آنلاین بسیار مهم باشد.

هاگن گفت: «اپل یک شرکت امنیتی نیست. ایمن کردن اکوسیستم خود سخت است.

علاوه بر این، پس از سال‌ها تمرکز بر سیستم‌های سنتی رایانه شخصی و ویندوز، مجرمان سایبری اکنون به طور فزاینده‌ای به سیستم‌های iOS با بدافزار حمله می‌کنند و هیچ تضمینی وجود ندارد که سیستم بسته اپل از ورود آنها جلوگیری کند. این مدل سیستم بسته است که بیش از اتصال اپل به ChatGPT، هاگن را نگران می کند.

او گفت که متخصصان امنیتی مستقلی که نقص‌هایی را در سیستم‌های کامپیوتری پیدا می‌کنند و سپس آنها را در ازای پاداش‌هایی به نام پاداش‌های باگ به شرکت‌ها ارائه می‌کنند، بخش مهم‌تری از دفاع اپل خواهند شد.

زمانی که صحبت از حریم خصوصی به میان می‌آید، هیگن می‌گوید که ممکن است مسائل حقوقی یا مالی باعث شود که اپل تغییراتی در شیوه‌های حفظ حریم خصوصی خود داشته باشد و این شرکت را در مسیری لغزنده قرار دهد که در نهایت منجر به تغییر در شرایط خدماتش برای فعال کردن استفاده از آن شود داده های مصرف کننده نسخه بعدی هوش مصنوعی را آموزش دهید.

این همچنین باعث نگرانی سندروویتز است که گفت او و محققانش از نزدیک هر گونه تغییر در شرایط و ضوابط اپل را بررسی می کنند، به ویژه در مورد شیوه های اشتراک گذاری داده های آن با همکاران شخص ثالث مانند OpenAI. اگرچه اپل وعده های بزرگی در مورد آن داده است، اما اعلام کرده است که تا کنون جزئیاتی در مورد آن وجود ندارد.

او گفت: «ما باید چاپ دقیق را بخوانیم.

یادداشت ویرایشگر: CNET از یک موتور هوش مصنوعی برای ایجاد چندین داستان استفاده کرد که بر این اساس برچسب گذاری شده بودند. یادداشتی که می خوانید به مقالاتی پیوست شده است که موضوع هوش مصنوعی را به طور عمیق پوشش می دهند، اما کاملاً توسط ویراستاران و ویراستاران متخصص ما ایجاد شده اند. برای کسب اطلاعات بیشتر، ما را ببینید سیاست هوش مصنوعی.




Source link

نوشته های مشابه

دکمه بازگشت به بالا