أعلنت شركة مايكروسوفت عن أداة جديدة تم تصميمها لتحديد التزييف العميق والمساعدة في مكافحة انتشار الوسائط المزيفة على الإنترنت. يمكن للتقنية الجديدة، التي يطلق عليها اسم Microsoft Video Authenticator ، تحليل كل الصور ومقاطع الفيديو والبحث عن علامات تدل على أنه تم التلاعب بالوسائط بشكل مصطنع.

بالنسبة إلى السياق، فإن التزييف العميق عبارة عن وسائط تركيبية يتم إنشاؤها عبر استخدام الذكاء الاصطناعي لتركيب صورة شخص ما على صورة أو مقطع فيديو موجود. يمكن القيام بذلك من نقطة الصفر أو باستخدام قالب، حيث يتعذر في بعض الأحيان تمييز النتيجة المعالجة عمليا عن الشيء الحقيقي. يسمح هذا للأشخاص بالظهور وكأنهم يقولون شيئًا لم يقولوه أو يبدو أنهم في أماكن لم يقصدوها.

يمكن لـ Microsoft Video Authenticator ، الذي تأمل الشركة أن يكون مفيدًا أيضًا في الفترة التي تسبق الانتخابات الرئاسية الأمريكية ، تحليل مقاطع الفيديو والصور وتوفير نسبة مئوية أو درجة ثقة لتقدير ما إذا كان قد تم التلاعب بالوسائط المتعددة بشكل مصطنع.

وتوضح مدونة مايكروسوفت: “في حالة الفيديو، يوفر البرنامج نسبة مئوية في الوقت الفعلي على كل إطار أثناء تشغيل الفيديو. هو يعمل من خلال اكتشاف حدود المزج بين عناصر التزييف العميق والتلاشي الدقيق أو عناصر التدرج الرمادي التي قد لا يمكن اكتشافها بالعين البشرية المجردة”.

أداة جديدة للكشف عن التزييف العميق

تم إنشاء الأداة باستخدام مجموعة بيانات عامة من Face Forensics ++ وأجري اختبارها باستخدام مجموعة بيانات Deepfake Detection Challenge Dataset ، وكلاهما يعتبر نموذجًا لتقنيات الكشف عن التدريب والاختبار.

في سياق متصل، تطلق Microsoft أيضًا تقنية جديدة تهدف إلى اكتشاف المحتوى الذي تم التلاعب به، فضلاً عن طمأنة القراء أن الوسائط التي يرونها حقيقية. تتكون التقنية من جزأين.

تم دمج المكون الأول في Microsoft Azure ويسمح لمنشئ المحتوى بإضافة تجزئة رقمية وشهادات إلى محتواها، والتي تبقى جزءًا منه في شكل بيانات وصفية أينما تنتشر عبر الشبكات الداخلية. المكون الثاني هو القارئ الذي يتحقق من الشهادات ويطابق التجزئات للتأكد من صحتها.

هذا ودخل عملاق التكنولوجيا في شراكة مع جامعة واشنطن ، و Sensity ، و USA Today لإطلاق اختبار تفاعلي لتثقيف الناس حول الوسائط الاصطناعية واكتشاف التزييف العميق.