تكنولوجيا – معلومات تهمك عن تقنية الـ “Deepfake” وكيف تزيف الحقائق؟

تكنولوجيا  – معلومات تهمك عن تقنية الـ “Deepfake” وكيف تزيف الحقائق؟

البوكس نيوز – تكنولوجيا – نتحدث اليوم حول معلومات تهمك عن تقنية الـ “Deepfake” وكيف تزيف الحقائق؟ والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول معلومات تهمك عن تقنية الـ “Deepfake” وكيف تزيف الحقائق؟، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.

يستخدم التزييف العميق Deepfake الذكاء الاصطناعي لإنشاء فيديو أو صوت جديد تمامًا، بهدف تصوير شيء لم يحدث بالفعل في الواقع، والذى يبدو حقيقي، ويأتي مصطلح “deepfake” من التكنولوجيا الأساسية، خوارزميات التعلم العميق، التي تعلم نفسها حل المشكلات باستخدام مجموعات كبيرة من البيانات ويمكن استخدامها لإنشاء محتوى مزيف لأشخاص حقيقيين.
 


ووفقًا لما ذكره موقع “business insider”، قالت كريستينا لوبيز، كبيرة المحللين في Graphika ، وهي شركة تبحث في تدفق المعلومات عبر الشبكات الرقمية: “التزييف العميق هو لقطات يتم إنشاؤها بواسطة جهاز كمبيوتر تم تدريبه من خلال عدد لا يحصى من الصور الموجودة”.


كيف يتم إنشاء التزييف العميق؟


هناك عدة طرق لإنشاء التزييف العميق، ولكن الأكثر شيوعًا يعتمد على استخدام الشبكات العصبية العميقة التي تستخدم تقنية تبديل الوجه.

 


 تحتاج أولاً إلى فيديو مستهدف لاستخدامه كأساس للتزييف العميق ثم مجموعة من مقاطع الفيديو للشخص الذي تريد إدراجه في الهدف.

 


يمكن أن تكون مقاطع الفيديو غير مرتبطة تمامًا؛ قد يكون الهدف مقطعًا من أحد أفلام هوليوود، على سبيل المثال، وقد تكون مقاطع الفيديو الخاصة بالشخص الذي تريد إدراجه في الفيلم مقاطع عشوائية تم تنزيلها من  YouTube.


يتوقع البرنامج شكل الشخص من زوايا متعددة، ثم يقوم بتعيين هذا الشخص على الشخص الآخر في الفيديو من خلال إيجاد ميزات مشتركة.

 


وتمت إضافة نوع آخر من التعلم الآلي إلى المزيج، المعروف باسم شبكات (GANs) ، والذي يكتشف ويحسن أي عيوب في التزييف العميق خلال جولات متعددة، مما يجعل من الصعب على أجهزة الكشف عن التزييف العميق فك تشفيرها.


كيف يتم استخدام تقنية التزييف العميق؟


تم استخدام تقنية Deepfake تاريخيًا لأغراض غير مشروعة، بما في ذلك إنتاج مواد إباحية بدون موافقة. 


أصدر مكتب التحقيقات الفيدرالي (FBI) إعلانًا للخدمة العامة في يونيو 2023 يحذر الجمهور من مخاطر الذكاء الاصطناعي التوليدي، وكيفية استخدامه في “إنشاء محتوى باذىء” و “ابتزاز جنسي” و “مضايقات”.

 


أنشأ مستخدم على موقع reddit، في عام 2017 ، منتدى للإباحية يضم ممثلين يتبادلون الوجوه من خلال التقنية.


ومنذ ذلك الوقت، ظهرت الأخبار بشكل متكرر (خاصة الإباحية الانتقامية)، مما أضر بشدة بسمعة المشاهير والشخصيات البارزة.

 


كما تم استخدام تقنية التزييف العميق للنشاط الإجرامي غير الجنسي، بما في ذلك حالة واحدة في عام 2023 تضمنت استخدام تقنية التزييف العميق لتقليد صوت طفل لامرأة من أحل تهديدها وابتزازها.

 


كما تم استخدام فيديو Deepfake في السياسة، وذلك في عام 2018، على سبيل المثال، أصدر حزب سياسي بلجيكي مقطع فيديو لدونالد ترامب وهو يلقي خطابًا يدعو بلجيكا إلى الانسحاب من اتفاقية باريس للمناخ.

 


ومع ذلك، لم يلق ترامب هذا الخطاب أبدًا، لقد كان مزيفًا، لم يكن هذا هو أول استخدام لتزييف عميق لإنشاء مقاطع فيديو مضللة، ويستعد الخبراء السياسيون لموجة مستقبلية من الأخبار المزيفة التي تعرض مقاطع فيديو مزيفة واقعية بشكل مقنع.


 


 

وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

error: لا يمكنك نسخ المقالة