
Deepfake: شركة Arup البريطانية تقع فريسة لعملية احتيال بقيمة 25 مليون دولار، كيف يمكنك حماية نفسك؟
- أدى هذا الاحتيال المتطور إلى قيام أحد موظفيها في هونغ كونغ بتحويل 25 مليون دولار إلى المحتالين.
- وأبلغ أروب شرطة هونج كونج في يناير بالحادث، مؤكدا استخدام أصوات وصور مزيفة.
- تمثل تقنية Deepfake مخاطر كبيرة تتطلب اليقظة واتخاذ تدابير استباقية للتخفيف من حدتها.
أكدت شركة التصميم والهندسة البريطانية متعددة الجنسيات Arup، المشهورة بالمباني الشهيرة مثل دار الأوبرا في سيدني، أنها كانت مستهدفة بعملية احتيال عميقة.
أدى هذا الاحتيال المتطور إلى قيام أحد موظفيها في هونغ كونغ بتحويل 25 مليون دولار إلى المحتالين.
ما هو الاحتيال؟
Copy link to sectionوأخطر أروب شرطة هونغ كونغ في يناير/كانون الثاني بالحادثة، مؤكدا استخدام أصوات وصور مزيفة.
تضمنت عملية الاحتيال عاملًا ماليًا تم خداعه لحضور مكالمة فيديو مع أشخاص يعتقد أنهم المدير المالي وموظفين آخرين، وجميعهم كانوا عبارة عن عمليات ترفيهية مزيفة.
على الرغم من الشكوك الأولية بوجود رسالة بريد إلكتروني تصيدية، إلا أن المظهر الواقعي وأصوات زملائه المفترضين دفع الموظف إلى المضي قدمًا في المعاملات، التي بلغ مجموعها 200 مليون دولار هونج كونج (25.6 مليون دولار) عبر 15 عملية تحويل.
التهديد المتزايد للتكنولوجيا المزيفة العميقة
Copy link to sectionويسلط الحادث الضوء على التطور المتزايد لتكنولوجيا التزييف العميق.
وقال روب جريج، كبير مسؤولي المعلومات العالمي في Arup، Arup:
Copy link to section“مثل العديد من الشركات الأخرى في جميع أنحاء العالم، تتعرض عملياتنا لهجمات منتظمة، بما في ذلك الاحتيال في الفواتير، وعمليات التصيد الاحتيالي، وانتحال صوت WhatsApp، والتزييف العميق.”
وقد ارتفع عدد هذه الهجمات وتعقيدها بشكل حاد، مما يشكل تحديات كبيرة للشركات في جميع أنحاء العالم.
الاهتمام العالمي والاستجابة الداخلية
Copy link to sectionتتزايد مخاوف السلطات على مستوى العالم بشأن الاستخدامات الضارة لتقنية التزييف العميق.
وفي مذكرة داخلية، أكد مايكل كووك، الرئيس الإقليمي لشركة Arup في شرق آسيا ، على التكرار المتزايد لهذه الهجمات وتعقيدها، وحث الموظفين على البقاء على اطلاع وتنبيه لاكتشاف تقنيات الاحتيال المختلفة.
المرونة التشغيلية والتحقيق المستمر
Copy link to sectionوعلى الرغم من الخسارة المالية الكبيرة، أكدت شركة Arup أن استقرارها المالي وعملياتها التجارية لم يتأثر، ولم يتعرض أي من أنظمتها الداخلية للخطر. وتواصل الشركة العمل مع السلطات، والتحقيق مستمر.
يسلط هذا الحادث البارز الضوء على الحاجة الملحة للشركات لتعزيز تدابير الأمن السيبراني الخاصة بها لمكافحة التهديد المتزايد لتكنولوجيا التزييف العميق وغيرها من عمليات الاحتيال المتطورة.
ما هو التزييف العميق؟
Copy link to sectionالتزييف العميق هو محتوى تم إنشاؤه باستخدام تقنيات التعلم العميق التي تبدو حقيقية ولكنها ملفقة. عادةً ما يستخدم الذكاء الاصطناعي ( AI ) لإنشاء التزييف العميق نماذج توليدية، مثل شبكات الخصومة التوليدية (GANs) أو أجهزة التشفير التلقائي.
يمكن أن تكون التزييفات العميقة عبارة عن مقاطع فيديو أو تسجيلات صوتية أو صور تصور أفرادًا أو مجموعات يفعلون أو يقولون أشياء لم يفعلوها أبدًا.
لإنتاج محتوى مقنع، يجب على الذكاء الاصطناعي أن يتدرب على مجموعات كبيرة من البيانات للتعرف على الأنماط الطبيعية وتكرارها.
تكنولوجيا Deepfake، على الرغم من كونها مبتكرة، إلا أنها تفتح فرصًا خطيرة للاستخدام غير القانوني، بما في ذلك سرقة الهوية، وتزوير الأدلة، والتضليل، والافتراء، والتجاوز الأمني البيومتري.
غالبًا ما يستغل المحتالون سلطة الشخص المصور أو علاقته الشخصية بأهدافهم.
أنواع التزييف العميق
Copy link to sectionيمكن أن تنتج تقنية Deepfakes محتوى فيديو أو صوت أو صورة، تُستخدم كوسائط مسجلة أو في البث المباشر. يمكن مواجهة هذه التنسيقات في سيناريوهات مختلفة، بدءًا من منشورات الوسائط الاجتماعية وحتى المكالمات الهاتفية ومؤتمرات الفيديو.
تبديل الوجه: يقوم هذا التطبيق باستبدال ملامح وجه الشخص المستهدف بملامح مزيفة، غالبًا لشخص آخر.
تقنيات مثل الكشف عن معالم الوجه والتلاعب بها تجعل المزج سلسًا ويصعب اكتشافه عند عدم علمه.
استنساخ الصوت: تعمل هذه التقنية على استنساخ صوت الفرد. هناك حاجة إلى بيانات صوتية عالية الجودة من تسجيلات الشخص المستهدف الذي يتحدث في سياقات مختلفة لتدريب نموذج استنساخ الصوت.
فيديو عميق في الوقت الحقيقي
Copy link to sectionتعمل عمليات التزييف العميق للفيديو في الوقت الفعلي على إنشاء محتوى فيديو تم التلاعب به على الفور أثناء البث المباشر ومكالمات الفيديو.
يتم استخدام استنساخ الصوت وتبديل الوجه بشكل متكرر لإنشاء بيئة وهمية مقنعة. يمكن لبرنامج إنشاء Deepfake التكامل مع منصات البث وأدوات مؤتمرات الفيديو بعدة طرق:
يقوم تطبيق منفصل بالتقاط ومعالجة وإرسال بث الفيديو المعالج إلى برنامج عقد المؤتمرات.
التكامل المباشر في برنامج مؤتمرات الفيديو كميزة اختيارية أو مكون إضافي.
استخدام كاميرا افتراضية لاعتراض بث الفيديو من الكاميرا الفعلية وإخراج البث الذي تم معالجته.
كيف تحمي نفسك من التزييف العميق؟
Copy link to sectionمع تقدم تكنولوجيا التزييف العميق، من الضروري حماية نفسك ومؤسستك من الاحتيال. فيما يلي بعض الطرق للحماية من التزييف العميق:
احترس من العلامات الحمراء: ابحث عن تعبيرات أو حركات الوجه غير الواقعية، والتناقضات في الإضاءة والظلال، وحركات الرأس أو الجسم غير الطبيعية، وجودة الصوت والفيديو غير المتطابقة.
كن استباقيًا في حالة الشك: انخرط في محادثة غير رسمية للقبض على المزيف على حين غرة. اطلب من الشخص مشاركة شاشته أو تأكيد هويته من خلال تقديم معلومات حصرية أو إرسال رسالة تأكيد عبر قناة مختلفة.
قم بإعداد عبارة مرور: قم بإنشاء كلمة مرور أو عبارة مرور للمواضيع الحساسة مع الزملاء وأفراد الأسرة. هذه الطريقة فعالة في الاتصالات الصوتية والمرئية والنصية.
تمثل تقنية Deepfake مخاطر كبيرة تتطلب اليقظة واتخاذ تدابير استباقية للتخفيف من حدتها.
من خلال فهم أنواع التزييف العميق وتنفيذ الاستراتيجيات لتحديدها ومواجهتها، يمكن للأفراد والمنظمات حماية أنفسهم بشكل أفضل من الاحتيال المحتمل.
مع استمرار تطور الذكاء الاصطناعي، يعد البقاء على اطلاع واستعداد أمرًا بالغ الأهمية في الحماية من التهديد المتزايد للتزييف العميق.
تمت ترجمة هذا المقال من اللغة الإنجليزية بمساعدة أدوات الذكاء الاصطناعي، ثم تمت مراجعته وتحريره بواسطة مترجم محلي.
More industry news


