تکنولوژی

برنامه ChatGPT آیفون نگرانی هایی را در مورد حفظ حریم خصوصی ایجاد می کند

برنامه ChatGPT آیفون نگرانی هایی را در مورد حفظ حریم خصوصی ایجاد می کند

از زمانی که OpenAI ChatGPT را معرفی کرد، حامیان حریم خصوصی به مصرف کنندگان در مورد تهدید احتمالی حریم خصوصی ناشی از برنامه های کاربردی هوش مصنوعی مولد هشدار داده اند. ورود ChatGPT به اپ استور اپل دور جدیدی از احتیاط را برانگیخته است.

“[B]قبل از اینکه سریع وارد برنامه شوید، به Muskaan Saxena در Tech Radar هشدار دهید، مراقب باشید که با ربات شخصی نشوید و حریم خصوصی خود را به خطر نیندازید.

او توضیح داد که برنامه iOS با یک مبادله صریح همراه است که کاربران باید از آن آگاه باشند، از جمله این هشدار: “چت های ناشناس ممکن است توسط مربی هوش مصنوعی ما بررسی شود تا سیستم های ما بهبود یابد.”

با این حال، ناشناس بودن بلیطی برای حفظ حریم خصوصی نیست. چت های ناشناس از اطلاعاتی که می تواند آنها را با کاربران خاصی مرتبط کند، حذف می شوند. جوی استنفورد، معاون حریم خصوصی و امنیت در Platform.sh گفت: «با این حال، ناشناس‌سازی ممکن است اقدام مناسبی برای محافظت از حریم خصوصی مصرف‌کننده نباشد، زیرا داده‌های شناسایی‌شده هنوز می‌توانند با ترکیب آن‌ها با سایر منابع اطلاعاتی دوباره شناسایی شوند.» به گزارش TechNewsWorld، سازنده پلتفرم خدمات بر اساس ابر برای توسعه دهندگان مستقر در پاریس.

Gene Caltrader، محقق اصلی پروژه Mozilla Privacy Not Included توضیح داد: «مشخص شده است که ناشناس کردن اطلاعات نسبتاً آسان است، به خصوص اگر از اطلاعات مکان استفاده شود.

او به TechNewsWorld گفت: «به طور عمومی، OpenAI می‌گوید که داده‌های مکان را جمع‌آوری نمی‌کنند، اما سیاست حفظ حریم خصوصی ChatGPT آنها می‌گوید که می‌توانند این داده‌ها را جمع‌آوری کنند.

با این حال، OpenAI به کاربران ChatGPT هشدار می دهد که از اطلاعات آنها برای آموزش مدل زبان بزرگ آن استفاده خواهد شد. Caltereder گفت: “آنها در مورد آن صادق هستند. آنها چیزی را پنهان نمی کنند.”

جدی گرفتن حریم خصوصی

کالب ویترز، دستیار پژوهشی در مرکز امنیت جدید آمریکا، یک اندیشکده امنیت ملی و دفاع در واشنگتن، توضیح داد که اگر کاربر نام، محل کار و سایر اطلاعات شخصی خود را در یک جستار ChatGPT تایپ کند، این داده ها خواهد شد. ناشناس نباشید

“شما باید از خود بپرسید، “آیا این چیزی است که من به یک کارمند OpenAI می گویم؟” او به TechNewsWorld گفت.

Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، خاطرنشان کرد که OpenAI می گوید که حریم خصوصی را جدی می گیرد و اقداماتی را برای محافظت از داده های کاربر اجرا می کند.

او به TechNewsWorld گفت: «با این حال، همیشه ایده خوبی است که سیاست‌های حفظ حریم خصوصی و شیوه‌های خاص هر سرویسی را که استفاده می‌کنید مرور کنید تا متوجه شوید که داده‌های شما چگونه مدیریت می‌شود و چه محافظت‌هایی وجود دارد.


جیمز مک‌کویگان، وکیل آگاهی امنیتی در KnowBe4، ارائه‌دهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، اضافه کرد که از آنجایی که به عنوان یک سازمان به امنیت داده‌ها اختصاص دارد، ممکن است آسیب‌پذیری‌های امنیتی وجود داشته باشد که می‌تواند توسط عوامل مخرب مورد سوء استفاده قرار گیرد.

او به TechNewsWorld گفت: همیشه مهم است که مراقب باشید و نیاز به اشتراک گذاری اطلاعات حساس را در نظر بگیرید تا اطمینان حاصل شود که داده های شما تا حد امکان ایمن هستند.

وی افزود: “حفاظت از حریم خصوصی شما یک مسئولیت مشترک بین کاربران و شرکت هایی است که داده های آنها را جمع آوری و استفاده می کنند و در قراردادهای مجوز طولانی و اغلب خوانده نشده کاربر نهایی مستند شده است.”

حفاظت داخلی

مک‌کویگان خاطرنشان کرد که کاربران برنامه‌های هوش مصنوعی مولد اطلاعات حساسی مانند تولد، شماره تلفن، آدرس پستی و ایمیل را در درخواست‌های خود وارد می‌کنند. او گفت: “اگر یک سیستم هوش مصنوعی به اندازه کافی ایمن نباشد، می تواند توسط اشخاص ثالث قابل دسترسی باشد و برای اهداف مخرب مانند سرقت هویت یا هدفمند استفاده شود.”

وی افزود که برنامه های کاربردی هوش مصنوعی مولد می توانند به طور ناخواسته اطلاعات حساس کاربران را از طریق محتوای تولید شده نشان دهند. وی ادامه داد: «بنابراین، کاربران باید خطرات احتمالی حریم خصوصی استفاده از برنامه‌های کاربردی هوش مصنوعی را بدانند و اقدامات لازم را برای محافظت از اطلاعات شخصی خود انجام دهند.»

برخلاف رایانه‌های رومیزی و لپ‌تاپ، تلفن‌های همراه دارای برخی ویژگی‌های امنیتی داخلی هستند که می‌تواند نفوذ برنامه‌های در حال اجرا در حریم خصوصی را محدود کند.

با این حال، همانطور که McQuiggan اشاره می کند، “در حالی که برخی اقدامات، مانند مجوزهای برنامه و تنظیمات حریم خصوصی، می توانند سطحی از محافظت را ارائه دهند، ممکن است مانند هر برنامه ای که در تلفن هوشمند بارگذاری شده است از اطلاعات شخصی شما در برابر انواع تهدیدات حریم خصوصی محافظت نکنند. “

Vena موافقت کرده است که اقدامات داخلی مانند مجوزهای برنامه، تنظیمات حریم خصوصی و مقررات فروشگاه برنامه، سطحی از محافظت را فراهم می کند. او گفت: «اما ممکن است برای کاهش همه تهدیدات حریم خصوصی کافی نباشد. «توسعه‌دهندگان برنامه‌ها و سازندگان گوشی‌های هوشمند رویکردهای متفاوتی برای حفظ حریم خصوصی دارند و همه برنامه‌ها از بهترین شیوه‌ها پیروی نمی‌کنند.»

حتی شیوه های OpenAI از دسکتاپ به موبایل متفاوت است. Caltrader خاطرنشان کرد: “اگر از ChatGPT در وب‌سایت استفاده می‌کنید، می‌توانید به کنترل‌های داده بروید و از چت برای بهبود ChatGPT انصراف دهید. این تنظیم در برنامه iOS وجود ندارد.”

مراقب اطلاعات حریم خصوصی App Store باشید

Caltrider همچنین مجوزهای استفاده شده توسط برنامه OpenAI iOS را کمی مبهم دانست و بیان کرد که “در فروشگاه Google Play، می توانید بررسی کنید و ببینید از چه مجوزهایی استفاده می شود. شما نمی توانید این کار را از طریق فروشگاه App Apple انجام دهید.”

به کاربران هشدار داد که به اطلاعات حریم خصوصی موجود در فروشگاه های اپلیکیشن اعتماد نکنند. و اشاره کرد که “جستجوی اطلاعات امنیتی فروشگاه Google Play ما نشان می دهد که واقعاً غیر قابل اعتماد است”.


او ادامه داد: «تحقیقات دیگران در اپ استور اپل نشان می‌دهد که آن نیز غیرقابل اعتماد است. “کاربران نباید به اطلاعات امنیتی داده‌ای که در صفحات برنامه پیدا می‌کنند اعتماد کنند. آنها باید تحقیقات خود را انجام دهند که فریبنده و فریبنده است.”

او افزود: “شرکت ها باید در مورد آنچه جمع آوری و به اشتراک می گذارند صادق باشند.” OpenAI در مورد نحوه استفاده از داده‌هایی که جمع‌آوری می‌کند برای آموزش ChatGPT صادق است، اما سپس می‌گوید که وقتی داده‌ها ناشناس شدند، می‌توانند از آن‌ها به روش‌های بسیار فراتر از استانداردهای خط‌مشی رازداری استفاده کنند.

استنفورد خاطرنشان کرد که اپل برخی از سیاست‌ها را دارد که می‌تواند برخی از تهدیدات حریم خصوصی ناشی از برنامه‌های کاربردی هوش مصنوعی را برطرف کند. آنها عبارتند از:

  • کسب رضایت کاربر برای جمع آوری و به اشتراک گذاری داده ها توسط برنامه هایی که از فناوری های هوش مصنوعی مولد استفاده می کنند.
  • از طریق ویژگی AppTracking Transparency که به کاربران امکان می دهد از ردیابی بین برنامه ای خودداری کنند، شفافیت و کنترل بر نحوه و توسط چه کسانی داده ها استفاده می شود.
  • استانداردها و مقررات حفظ حریم خصوصی را برای توسعه دهندگان برنامه از طریق فرآیند بررسی App Store اجرا کنید و برنامه هایی را که آنها را نقض می کنند رد کنید.

با این حال، او اذعان کرد که «این اقدامات ممکن است برای جلوگیری از ایجاد محتوای نامناسب، مضر یا گمراه‌کننده که ممکن است حریم خصوصی و امنیت کاربران را تحت تأثیر قرار دهد، برنامه‌های کاربردی هوش مصنوعی کافی نباشد».

فراخوان قانون فدرال حریم خصوصی هوش مصنوعی

هودان عمر، تحلیلگر ارشد خط مشی هوش مصنوعی در مرکز نوآوری داده، اندیشکده ای که تلاقی داده ها، فناوری و سیاست های عمومی را مطالعه می کند، گفت: «OpenAI تنها یک شرکت است.

او به TechNewsWorld گفت: “ما به یک قانون فدرال حفظ حریم خصوصی داده ها نیاز داریم تا اطمینان حاصل کنیم که همه شرکت ها به مجموعه ای از استانداردهای واضح پایبند هستند.”

کالتریدر افزود: «با رشد و گسترش سریع هوش مصنوعی، قطعاً نیاز به نهادها و سیستم‌های نظارتی قوی و قوی برای نظارت بر بقیه افراد وجود دارد، زیرا این امر رشد می‌کند و فراگیرتر می‌شود».

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا