ایتالیا دستور مسدود شدن ChatGPT را به دلیل نگرانی های مربوط به حفاظت از داده ها صادر کرد
دو روز پس از نامه سرگشاده ای که خواستار توقف توسعه مدل های هوش مصنوعی مولد قوی تر شد تا تنظیم کننده ها بتوانند با مواردی مانند ChatGPT روبرو شوند، مقام حفاظت از داده های ایتالیا به تازگی یادآوری کرده است که برخی از کشورها قوانینی دارند که قبلاً اعمال می شود. به هوش مصنوعی […]
دو روز پس از نامه سرگشاده ای که خواستار توقف توسعه مدل های هوش مصنوعی مولد قوی تر شد تا تنظیم کننده ها بتوانند با مواردی مانند ChatGPT روبرو شوند، مقام حفاظت از داده های ایتالیا به تازگی یادآوری کرده است که برخی از کشورها قوانینی دارند که قبلاً اعمال می شود. به هوش مصنوعی پیشرفته: به OpenAI دستور داده است که پردازش داده های افراد را به صورت محلی با اثر فوری متوقف کند.
DPA ایتالیا اعلام کرد که نگران است که سازنده ChatGPT مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) را نقض کند و در حال آغاز تحقیقات است.
به طور خاص، Garante گفت که دستور مسدود کردن ChatGPT را به دلیل نگرانی هایی که OpenAI به طور غیرقانونی داده های افراد را پردازش کرده است و همچنین به دلیل فقدان سیستمی برای جلوگیری از دسترسی افراد زیر سن قانونی به این فناوری صادر کرده است.
این شرکت مستقر در سانفرانسیسکو 20 روز فرصت دارد تا به این دستور پاسخ دهد، که با تهدید برخی از مجازاتهای گوشتی در صورت عدم رعایت آن پشتیبانی میشود. (یادآوری: جریمه های نقض رژیم حفاظت از داده اتحادیه اروپا می تواند تا 4 درصد گردش مالی سالانه یا 20 میلیون یورو، هر کدام بیشتر باشد.)
شایان ذکر است که از آنجایی که OpenAI یک نهاد حقوقی مستقر در اتحادیه اروپا ندارد، هر مرجع حفاظت از داده این اختیار را دارد که در صورت مشاهده خطرات برای کاربران محلی، تحت GDPR، مداخله کند. (بنابراین جایی که ایتالیا وارد عمل می شود، دیگران ممکن است دنبال کنند.)
مجموعه ای از مسائل GDPR
GDPR هر زمان که داده های شخصی کاربران اتحادیه اروپا پردازش شود اعمال می شود. و واضح است که مدل زبان بزرگ OpenAI این نوع اطلاعات را به دست آورده است، زیرا میتواند بهعنوان مثال، زندگینامه افراد نامگذاری شده در منطقه را بر حسب تقاضا تولید کند (میدانیم؛ ما آن را امتحان کردهایم). اگرچه OpenAI از ارائه جزئیات داده های آموزشی مورد استفاده برای آخرین تکرار این فناوری، GPT-4 خودداری کرد، اما فاش کرده است که مدل های قبلی بر روی داده های خراشیده شده از اینترنت، از جمله انجمن هایی مانند Reddit، آموزش دیده اند. بنابراین اگر به طور منطقی آنلاین بوده اید، به احتمال زیاد ربات نام شما را می داند.
علاوه بر این، نشان داده شده است که ChatGPT اطلاعات کاملاً نادرستی در مورد افراد نامگذاری شده تولید میکند، و ظاهراً جزئیاتی را که دادههای آموزشی آن وجود ندارد را ایجاد میکند. این به طور بالقوه نگرانی های بیشتری را در مورد GDPR ایجاد می کند، زیرا این مقررات مجموعه ای از حقوق را در مورد داده های اروپایی ها، از جمله حق اصلاح خطاها، در اختیار اروپایی ها قرار می دهد. مشخص نیست که چگونه/آیا مردم میتوانند از OpenAI بخواهند که اظهارات اشتباهی را که در مورد آنها ایجاد شده توسط ربات، برای مثال، اصلاح کند.
بیانیه Garante همچنین نشان میدهد که این سرویس در اوایل این ماه دچار نقض اطلاعات شد، زمانی که OpenAI اعتراف کرد که یک ویژگی سابقه مکالمه چتهای کاربران را فاش میکرد و گفت ممکن است اطلاعات پرداخت برخی از کاربران را افشا کند.
نقض داده ها حوزه دیگری است که GDPR با تمرکز بر حصول اطمینان از اینکه نهادهایی که داده های شخصی را پردازش می کنند به اندازه کافی از اطلاعات محافظت می کنند تنظیم می کند. قانون سراسری اتحادیه اروپا همچنین شرکتها را ملزم میکند تا مقامات نظارتی مربوطه را از نقضهای مهم در بازههای زمانی محدود مطلع کنند.
فراگیر همه اینها، این سوال بزرگ است که OpenAI در وهله اول بر چه مبنای قانونی برای پردازش داده های اروپایی ها تکیه کرده است. به عبارت دیگر، قانونی بودن این پردازش.
GDPR برای تعدادی از احتمالات – از رضایت گرفته تا منافع عمومی – اجازه می دهد، اما مقیاس پردازش برای آموزش این مدل های زبانی بزرگ، مسئله قانونی بودن را پیچیده می کند. همانطور که Garante خاطرنشان می کند (با اشاره به “جمع آوری و ذخیره انبوه داده های شخصی”)، به حداقل رساندن داده ها یکی دیگر از تمرکز اصلی در مقررات است، که همچنین شامل اصولی است که به شفافیت و انصاف نیاز دارد. با این حال، حداقل، به نظر نمی رسد که شرکت انتفاعی (اکنون) پشت ChatGPT به افرادی که داده های آنها را برای آموزش هوش مصنوعی تجاری خود تغییر داده است، آگاه نکرده باشد. این می تواند یک مشکل بسیار چسبنده برای آن باشد.
اگر OpenAI دادههای اروپاییها را غیرقانونی پردازش کرده باشد، DPAها در سراسر بلوک میتوانند دستور حذف دادهها را بدهند، هرچند که آیا این امر شرکت را مجبور میکند تا مدلهایی را که بر اساس دادههای بهطور غیرقانونی بهدستآمده آموزش دیدهاند، بازآموزی کند، یکی از سؤالات باز است زیرا قانون موجود با فناوری پیشرفته دست و پنجه نرم میکند.
از طرف دیگر، ایتالیا ممکن است تمام یادگیری ماشینی را به طور تصادفی ممنوع کرده باشد… 😬
ضامن حریم خصوصی به کمبود اطلاعات برای کاربران و همه طرفهای ذینفعی که دادههای آنها توسط OpenAI جمعآوری میشود، اشاره میکند، اما مهمتر از همه، فقدان مبنای قانونی که جمعآوری و ذخیرهسازی انبوه دادههای شخصی را به منظور «آموزش» توجیه کند. DPA در بیانیه امروز خود [که ما از ایتالیایی با استفاده از هوش مصنوعی ترجمه کردهایم] نوشت: «الگوریتمهای زیربنای عملکرد این پلتفرم».
همانطور که با بررسی های انجام شده مشخص شد، اطلاعات ارائه شده توسط ChatGPT همیشه با داده های واقعی مطابقت ندارد، بنابراین پردازش نادرست داده های شخصی را مشخص می کند.
این مقام اضافه کرد که نگران خطر پردازش دادههای خردسالان توسط OpenAI است، زیرا این شرکت فعالانه از ثبت نام افراد زیر 13 سال برای استفاده از ربات چت، مانند استفاده از فناوری تأیید سن، جلوگیری نمیکند.
خطرات برای داده های کودکان منطقه ای است که تنظیم کننده در آن بسیار فعال بوده است و اخیراً به دلیل نگرانی های ایمنی کودک دستور ممنوعیت مشابهی را در ربات چت هوش مصنوعی دوستی مجازی Replika داده است. در سالهای اخیر، TikTok را به دلیل استفاده افراد زیر سن قانونی نیز تعقیب کرده است و شرکت را مجبور به پاکسازی بیش از نیم میلیون حساب کاربری کرده است که نمیتوانست تایید کند متعلق به کودکان نیست.
بنابراین اگر OpenAI نتواند به طور قطعی سن کاربرانی را که در ایتالیا ثبت نام کردهاند تأیید کند، حداقل میتواند مجبور شود حسابهای آنها را حذف کند و دوباره با فرآیند ثبتنام قویتر شروع کند.
برای پاسخ به سفارش Garante با OpenAI تماس گرفته شد.
لیلیان ادواردز، کارشناس حفاظت از دادهها و قانون اینترنت در دانشگاه نیوکاسل که در انجام تحقیقات در مورد مفاهیم الگوریتمهایی که به یاد میآورند، جلوتر بوده است، به TechCrunch گفت: «چیزی که جالب است این است که Replika را کم و بیش کپی پیست کرده است. در تاکید بر دسترسی کودکان به محتوای نامناسب. اما بمب ساعتی واقعی، انکار مبنای قانونی است، که باید برای همه یا حداقل بسیاری از سیستمهای یادگیری ماشین اعمال شود، نه فقط هوش مصنوعی.
او به پرونده اصلی «حق فراموش شدن» مربوط به جستجوی Google اشاره کرد، جایی که یک چالش برای پردازش بدون رضایت داده های شخصی توسط فردی در اسپانیا مطرح شد. اما در حالی که دادگاههای اروپایی این حق را برای افراد ایجاد کردهاند که از موتورهای جستجو بخواهند اطلاعات نادرست یا قدیمی درباره آنها را حذف کنند (متوازن در برابر آزمون منافع عمومی)، پردازش اطلاعات شخصی Google در آن زمینه (جستجوی اینترنتی) توسط قانونگذاران اتحادیه اروپا نقض نشد. بیش از قانونی بودن نقطه پردازش، ظاهراً به این دلیل که یک ابزار عمومی ارائه می دهد. اما همچنین، در نهایت، به این دلیل که گوگل در نهایت حقوق پاک کردن و اصلاح را برای سوژههای داده اتحادیه اروپا فراهم کرد.
ادواردز افزود: «مدلهای زبان بزرگ این راهحلها را ارائه نمیکنند و کاملاً مشخص نیست که میتوانند، میتوانند یا چه عواقبی خواهند داشت.
یا، خوب، فناوری هایی مانند ChatGPT ممکن است به سادگی قانون حفاظت از داده ها را زیر پا بگذارند…
این گزارش با توضیحات تکمیلی به روز شد. ما همچنین غلط املایی نام رگولاتور را رفع کردیم.
هیچ دیدگاهی درج نشده - اولین نفر باشید