إزالة علامات المياه من صور الذكاء الاصطناعي

مطور برمجيات يكشف عن طريقة لإزالة علامات المياه من صور الذكاء الاصطناعي، مما يثير جدلاً حول فعالية تقنيات الحماية.

إزالة علامات المياه من صور الذكاء الاصطناعي
إزالة علامات المياه من صور الذكاء الاصطناعي

تسلط هذه القضية الضوء على التحديات التي تواجه تقنيات حماية المحتوى في عصر الذكاء الاصطناعي، مما يستدعي تطوير حلول أكثر فعالية.

كشف المطور الذي يحمل اسم المستخدم Aloshdenny عن نجاحه في عكس هندسة نظام SynthID، الذي يهدف إلى وضع علامات مائية على الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. وأوضح أنه تمكن من إزالة هذه العلامات أو إدخالها يدويًا في أعمال أخرى، وهو ما نفته جوجل بشدة.

المطور، الذي نشر عمله على منصة GitHub، ذكر أنه استخدم 200 صورة تم إنشاؤها بواسطة نموذج Gemini، بالإضافة إلى معالجة الإشارات، واصفًا العملية بأنها لم تتطلب أي شبكات عصبية أو وصول خاص. وأشار إلى أن الوقت الذي قضاه في هذا المشروع كان له دور كبير في تحقيق هذا الإنجاز.

التفاصيل

نظام SynthID هو نظام لتضمين علامات مائية غير مرئية، تم تصميمه ليكون صعب الإزالة دون التأثير على جودة الصورة. يستخدم هذا النظام بشكل واسع في منتجات الذكاء الاصطناعي التي تقدمها جوجل، حيث تحمل جميع النماذج مثل Nano Banana وVeo 3 علامات مائية من SynthID.

على الرغم من أن Aloshdenny أقر بأن نظام SynthID يتمتع بهندسة جيدة، إلا أنه لم يتمكن من إزالة العلامة المائية بالكامل، بل اعتمد على تشويش أجهزة فك التشفير الخاصة بالنظام.

السياق

تعتبر تقنيات العلامات المائية من الأدوات الأساسية لحماية المحتوى الرقمي، خاصة في عصر الذكاء الاصطناعي حيث يتم إنتاج كميات هائلة من الصور والمحتويات. وقد تم تطوير نظام SynthID كاستجابة للقلق المتزايد حول استخدام المحتوى المولد بواسطة الذكاء الاصطناعي بشكل غير قانوني أو غير أخلاقي.

التداعيات

إذا ثبتت صحة ادعاءات Aloshdenny، فإن ذلك قد يفتح الباب أمام استخدامات غير قانونية للمحتوى المولد بواسطة الذكاء الاصطناعي، مما قد يؤدي إلى تآكل الثقة في هذه التقنيات. كما أن ذلك قد يدفع الشركات الكبرى مثل جوجل إلى إعادة تقييم استراتيجياتها في حماية المحتوى.

ما هو نظام SynthID؟
نظام لتضمين علامات مائية غير مرئية على الصور المولدة بواسطة الذكاء الاصطناعي.
كيف تمكن المطور من إزالة العلامات المائية؟
استخدم تقنيات معالجة الإشارات دون الحاجة إلى شبكات عصبية.
ما هي تداعيات هذا الاكتشاف؟
قد يؤدي إلى استخدام غير قانوني للمحتوى ويثير تساؤلات حول فعالية تقنيات حماية المحتوى.

· · · · · ·