التقارير حول تحويل الصور بالذكاء الاصطناعي انتشرت على نطاق واسع خلال الفترة الماضية، إلا أن الأمر لم يخلو من التعليقات، إذ حذر عدد من خبراء الخصوصية من أن منصات الذكاء الاصطناعي قد تستخدم كميات هائلة من الصور التي جرى تحميلها لتدريب نماذج الذكاء الاصطناعي الخاصة بها، باستخدام بيانات الوجه التي جرى تحميلها طواعية، وفقًا لما ذكره موقع «The Cyber Express» المتخصص في الأمن السيبراني.
خصوصية المستخدمين في مرمى النيران
الموقع نوه إلى أن ChatGPT مُلزم قانونيًا باللائحة العامة لحماية البيانات «GDPR» للاتحاد الأوروبي، التي تُلزمه بحماية خصوصية المستخدمين وضمان الشفافية، مشيرًا إلى أن رفع صورة شخصية على أداة من أدوات الذكاء الاصطناعي على طراز استوديو جيبلي قد تكلف أكثر مما يعتقد المستخدمين.
ما يحدث بالفعل خلف الكواليس؟
الموقع كشف عن مجموعة من النقاط التي تحدث خلف الكواليس والتي جاءت كالتالي:
تدريب الذكاء الاصطناعي
يمكن استخدام بيانات وجهك لتحسين نماذج التعلم الآلي، ما يتيح للذكاء الاصطناعي تكرار وجهك في عمليات التزييف العميق أو الصور الرمزية الرقمية غير المصرح بها.
استثمار البيانات:
تحتفظ العديد من منصات الذكاء الاصطناعي بالحق في استخدام المحتوى الذي جرى تحميله لأغراض تجارية، ما يؤدي إلى ظهور صورتك في الإعلانات أو قواعد البيانات أو حتى أنظمة المراقبة.
الثغرات الأمنية:
يعتبر الوعي والسلوك الرقمي الحذر هما خطا الدفاع الأول ضد مثل هذه التهديدات، خاصة مع الاحتيال القائم على الذكاء الاصطناعي القادر على تجاوز أنظمة التعرف على الوجه.
وقود تدريبي لجهات خارجية
الموقع نوه إلى أنه ينبغي على المستخدمين التوقف قبل تحميل صورهم إلى مُولدات صور الذكاء الاصطناعي، لأنهم يقدمون بيانات تدريب مجانية لخوارزمية الذكاء الاصطناعي، وتُعد هذه الصور المُحملة والتي غالبًا ما تكون عالية الجودة وشخصية، بمثابة وقود تدريبي، ما يُحسن قدرة الذكاء الاصطناعي على إعادة إنشاء صور بشرية، بل ويُولد أحيانًا وجوهًا مُشابهة لمستخدمين آخرين.
تعليقات الفيسبوك