از سرگیری آموزش هوش مصنوعی متا با استفاده از دادههای عمومی کاربران اتحادیه اروپا پس از تأیید نهادهای نظارتی

شرکت متا، مالک شبکههای اجتماعی محبوبی همچون فیسبوک و اینستاگرام، پس از وقفهای تقریباً یکساله، اعلام کرده است که آموزش مدلهای هوش مصنوعی خود را با استفاده از دادههای عمومی کاربران بزرگسال در اتحادیه اروپا از سر میگیرد. این تصمیم پس از دریافت تأییدیه از سوی هیئت حفاظت از دادههای اتحادیه اروپا (EDPB) و رفع نگرانیهای مربوط به حریم خصوصی اتخاذ شده است. متا اعلام کرده است که این آموزش هوش مصنوعی با هدف بهبود عملکرد مدلهای مولد خود و تطبیق بهتر آنها با فرهنگ، زبانها و ویژگیهای خاص کاربران اروپایی انجام میشود. در این مقاله، به بررسی جزئیات این تصمیم، نحوه اجرای آن، پیامدهای حقوقی و فنی و واکنشهای کاربران و نهادهای نظارتی میپردازیم.
در سال ۲۰۲۴، متا به دلیل فشارهای نهادهای نظارتی اتحادیه اروپا، به ویژه کمیسیون حفاظت از دادههای ایرلند (DPC)، برنامههای خود برای آموزش مدلهای هوش مصنوعی با استفاده از دادههای کاربران اروپایی را متوقف کرد. این نهادها نگرانیهایی درباره رعایت قوانین سختگیرانه حفاظت از دادهها، به ویژه مقررات عمومی حفاظت از دادهها (GDPR) داشتند که استفاده از دادههای شخصی برای آموزش هوش مصنوعی را منوط به داشتن مبنای قانونی شفاف میدانند. اعتراضات گروههای مدافع حریم خصوصی و فعالان حقوق دیجیتال نیز بر شدت این فشارها افزود و باعث شد متا به طور موقت فعالیتهای خود را در این زمینه متوقف کند تا با نهادهای نظارتی به توافق برسد.
این توقف موقت باعث شد که متا نتواند به طور کامل از دادههای ارزشمند کاربران اروپایی برای بهبود مدلهای هوش مصنوعی خود بهرهمند شود و در نتیجه، عرضه برخی قابلیتهای هوش مصنوعی در این منطقه با تأخیر مواجه شد. با این حال، متا در این مدت به همکاری سازنده با نهادهای نظارتی ادامه داد و تلاش کرد تا چارچوبهای قانونی و فنی لازم برای رعایت حریم خصوصی کاربران را فراهم کند. این همکاریها در نهایت منجر به صدور نظر مثبت هیئت حفاظت از دادههای اتحادیه اروپا در دسامبر ۲۰۲۴ شد که تأیید کرد رویکرد متا در استفاده از دادههای عمومی کاربران برای آموزش هوش مصنوعی، با قوانین اتحادیه اروپا منطبق است.
متا اعلام کرده است که آموزش مدلهای هوش مصنوعی خود را با استفاده از دادههای عمومی کاربران بزرگسال اتحادیه اروپا آغاز میکند. این دادهها شامل پستها، نظرات و تعاملات کاربران با سیستمهای هوش مصنوعی متا در پلتفرمهایی مانند فیسبوک، اینستاگرام، واتساپ و مسنجر میشود. نکته مهم این است که دادههای خصوصی مانند پیامهای شخصی بین دوستان و خانواده و همچنین دادههای کاربران زیر ۱۸ سال در این فرآیند استفاده نخواهد شد. این اقدام نشاندهنده تعهد متا به رعایت حریم خصوصی و قوانین حفاظت از دادهها است.
علاوه بر این، متا به کاربران اروپایی اطلاعرسانی خواهد کرد و از طریق اعلانهای درونبرنامهای و ایمیل، جزئیات مربوط به نوع دادههایی که برای آموزش هوش مصنوعی استفاده میشود و اهمیت این موضوع را توضیح خواهد داد. کاربران همچنین امکان دارند با پر کردن فرمهای اعتراض، از استفاده دادههای عمومی خود برای این منظور انصراف دهند و متا متعهد شده است که تمامی درخواستهای انصراف را محترم بشمارد و اجرا کند. این رویکرد شفاف و احترام به انتخاب کاربران، میتواند به افزایش اعتماد عمومی نسبت به استفاده از هوش مصنوعی در این منطقه کمک کند.
یکی از اهداف اصلی متا از آموزش مدلهای هوش مصنوعی با دادههای کاربران اروپایی، بهبود درک و تطبیق این مدلها با ویژگیهای فرهنگی، زبانی و اجتماعی خاص این منطقه است. زبانها و گویشهای متنوع، اصطلاحات محلی، شوخیها و طنزهای خاص هر کشور، از جمله مواردی هستند که مدلهای هوش مصنوعی باید بتوانند به درستی آنها را درک و پردازش کنند تا تجربه کاربری بهتری ارائه دهند. این موضوع به ویژه در زمینه تولید محتواهای متنی، صوتی، تصویری و ویدیویی توسط مدلهای مولد اهمیت فراوانی دارد.
با استفاده از دادههای محلی، مدلهای هوش مصنوعی قادر خواهند بود پاسخهای دقیقتر، طبیعیتر و مرتبطتری به کاربران ارائه دهند و در نتیجه، رضایت کاربران و میزان استفاده از خدمات هوش مصنوعی متا افزایش خواهد یافت. این امر همچنین به توسعهدهندگان و کسبوکارهای محلی کمک میکند تا محصولات و خدمات خود را بهتر با نیازهای بازارهای منطقهای تطبیق دهند. در نهایت، این رویکرد میتواند به تقویت جایگاه متا در بازارهای اروپایی و افزایش رقابتپذیری این شرکت در عرصه جهانی منجر شود.
اگرچه متا با ارائه امکان انصراف کاربران و رعایت قوانین حفاظت از دادهها تلاش کرده است نگرانیها را کاهش دهد، اما همچنان برخی فعالان حقوق دیجیتال و نهادهای مدافع حریم خصوصی نسبت به این اقدام ابراز نگرانی کردهاند. آنها معتقدند که حتی استفاده از دادههای عمومی نیز میتواند به نوعی نقض حریم خصوصی تلقی شود و خطرات احتمالی سوءاستفاده از دادهها و نقض امنیت اطلاعات را به همراه داشته باشد. همچنین، برخی منتقدان بر این باورند که شفافیت بیشتری در مورد نحوه استفاده دقیق از دادهها و الگوریتمهای بهکاررفته لازم است تا اعتماد عمومی جلب شود.
از سوی دیگر، نهادهای نظارتی اتحادیه اروپا نیز اعلام کردهاند که نظارت مستمر بر عملکرد شرکتهای فناوری و نحوه استفاده آنها از دادههای کاربران ضروری است و در صورت مشاهده هرگونه تخلف، اقدامات قانونی لازم را انجام خواهند داد. این موضوع نشاندهنده اهمیت بالای تعادل بین نوآوری در هوش مصنوعی و حفظ حقوق کاربران است. متا نیز اعلام کرده است که به همکاری با نهادهای نظارتی ادامه خواهد داد و در راستای بهبود سیاستهای حریم خصوصی و امنیت دادهها تلاش میکند.
برای کسب اطلاعات و اخبار روز با ما در بیسلند همراه باشید.