saudialyoom
"تابع آخر الأخبار السعودية والعربية على موقع السعودية اليوم، المصدر الأمثل للمعلومات الدقيقة والموثوقة. انضم إلينا الآن!"

هل ستصبح صناعة الترفيه ساحة لـ”Deep Fakes”؟

26٬127

حذر نجم هوليوود توم هانكس من استخدام الذكاء الاصطناعي لإنشاء إعلانات مزيفة تبدو وكأنها حقيقية.

وجاء التحذير بعد انتشار إعلان على الإنترنت يظهر فيه هانكس وهو يروج لخطة تأمين على الأسنان، لكن الممثل أكد أنه لا علاقة له بالإعلان.

وقال هانكس في مقطع فيديو نشره على إنستغرام: “هناك مقطع فيديو يروج لبعض خطط طب الأسنان باستخدام نسخة الذكاء الاصطناعي الخاصة بي… ليس لي أي علاقة بالأمر”.

وأضاف: “أنا أحذّركم من هذا النوع من الإعلانات التي تستخدم الذكاء الاصطناعي لإنشاء نسخ مزيفة من الناس. يمكن أن تكون هذه الإعلانات مضللة للغاية، وقد لا يكون من السهل معرفة أنها مزيفة”.

وتعد تقنية الذكاء الاصطناعي المستخدمة في إنشاء الإعلانات المزيفة هي تقنية “التزييف العميق” (Deep Fake)، وهي تقنية يمكنها إنشاء مقاطع فيديو وصور واقعية للغاية لأشخاص لم يقولوا أو يفعلوا ما يظهر في الفيديو.

وتستخدم هذه التقنية في مجموعة متنوعة من الأغراض، بما في ذلك الترويج للمنتجات والخدمات، ونشر المعلومات المضللة، وحتى التشهير بالأشخاص.

ويثير استخدام الذكاء الاصطناعي لإنشاء إعلانات مزيفة مخاوف بشأن سلامة المستخدمين وحماية الخصوصية.

وطالبت بعض الجهات المشرعة بوضع قوانين لحماية المستخدمين من هذه الإعلانات، كما بدأت بعض الشركات العمل على تطوير تقنيات لكشف هذه الإعلانات.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.