قم بمشاركة المقال
أكد أفراد تعرضهم أخيراً، لمحاولات عدة للتصيد الإلكتروني من قبل مجهولين، ينتحلون هوية رجال أعمال وشخصيات معروفة ومؤسسات موثوقة، لتنفيذ عمليات احتيال وسرقة أموال الضحايا عبر مواقع التواصل الاجتماعي والبريد الإلكتروني.
من جانبه، حذر خبير في مجال الأمن السيبراني، من انتشار «تقنية التزييف العميق» خلال الفترة الأخيرة، وانتحال هوية الأشخاص بطريقةٍ مقنِعة للغاية تمكنهم من خداع الضحية بسهولة، مؤكداً أهمية أخذ الأفراد الحيطة والحذر في الحفاظ على معلوماتهم الشخصية والمصرفية أو إجراء عملية تحويل أموال للآخرين دون التأكد من هويتهم.
اقرأ أيضاً
وتفصيلاً، قال مستخدمون لمواقع التواصل الاجتماعي إنهم رصدوا انتشار حملات إلكترونية تستغل أسماء وصور رجال أعمال وشخصيات معروفة لتنفيذ عمليات احتيالية، عبر شراء أسهم أو عقارات أو تحقيق أرباح طائلة من عمليات استثمار وهمية.
وانتشرت خلال الفترة الأخيرة حسابات على مواقع التواصل الاجتماعي تستغل اسم وصورة رجل أعمال وتزعم تقديم عوائد عالية للاستثمار في شركات مجهولة، فيما نشر رجل الأعمال تغريدة أكد فيها أنه لا علاقة له بهذه الحملات المنتشرة بشكل واسع على منصات التواصل الاجتماعي، وحذر من عمليات الاحتيال التي تستغل اسمه وصورته. وتنتشر تطبيقات عدة على مواقع إلكترونية، تمكّن المستخدمين من التزييف العميق، سواء لصورة أو لمقطع فيديو، حيث تعمل على تبديل صورة وجه شخص ما بصورة وجه آخر، مع نقل تعابير الوجه، باستخدام تقنيات الذكاء الاصطناعي، ويظهر التزييف كأنه صورة حقيقية.
اقرأ أيضاً
من جانبه، قال رئيس قسم التكنولوجيا في «هلب أي جي» نيكولاي سولينغ، لـ«الإمارات اليوم» إن الذكاء الاصطناعي يوفّر إمكانات وفرصاً مميزة على صعيدي الأمن السيبراني والمجتمع بشكلٍ عام، إلا أنّه يترافق مع تحديات قادرة على التأثير علينا في المدى القريب والبعيد.
وذكر أن أن مقاطع الفيديو والتسجيلات الصوتية بتقنية التزييف العميق Deepfake، والتي أحدثت تأثيراً كبيراً، تشكّل أولى المجالات التي شهدنا فيها على تأثير الذكاء الاصطناعي، وتشير هذه التقنية إلى الصور ومقاطع الفيديو والصوت الاصطناعية، التي يمكن استخدامها للخداع والاحتيال، على سبيل المثال، يمكن استخدام هذه التقنية لانتحال هوية أشخاص آخرين وتغيير الصوت واللهجة وحتّى اختيار الكلمات، ما يسهّل عمليات الخداع ويزيد من تعقيدها وصعوبة كشفها.
اقرأ أيضاً
وحذر سولينغ من أن ذلك يترتب عليه تأثيرات جدية على الأمن السيبراني، حيث يمكن للمهاجمين استخدام التزييف العميق في الحملات القائمة على الهندسة الاجتماعية التي يتمّ فيها خداع الفرد للقيام بعمل ما، مثل تحويل الأموال أو الكشف عن معلومات حساسة أو تثبيت تطبيق ضار.
وشرح أن الهندسة الاجتماعية تعتمد على بناء الثقة بين المهاجم والضحية، فيما تتيح تقنية التزييف العميق للمهاجمين بناء الثقة بشكلٍ أسرع وأعمق من خلال انتحال هوية الأشخاص بطريقةٍ مقنِعة للغاية يمكنها خداع الضحية بسهولة.
وأضاف أنه قد يبدو ذلك مثل الخيال العلمي، غير أنّه يحدث كلّ يوم، فقد أبلغت لجنة التجارة الفيدرالية الأميركية عن سرقة 11 مليون دولار أميركي من خلال مكالمات هاتفية احتيالية خلال العام الماضي، وهنا يبرز السؤال حول سُبُل الحفاظ على الأمن في ظلّ القدرات الكبيرة المتاحة لمحتالين.
لابدّ من الحذر لتفادي الوقوع ضحيةً لإساءة استخدام هذه التقنية، على سبيل المثال، قد يكون الهجوم على شكل مكالمة هاتفية بصوت أحد الأقرباء وهو في حالة ذعر ويتوسل لتحويل الأموال إلى حسابه. في هذه الحالة، يجب تقييم الوضع جيداً وعدم الاستعجال، إذ يمكنك الاتصال بهذا القريب على رقمه الخاص للتأكّد من صحّة الموضوع.
وتجدر الإشارة إلى أنّه لا يمكن الوثوق بالاسم الذي يظهر مع رقم المتّصل، لاسيما وأنّه يمكن تعديله ليبدو كاسم أحد المعارف أو الشركات التجارية الموثوقة.
وأكد سولينغ في حال الشك بهوية الشركة المتَّصلة، يجب إنهاء المكالمة على الفور والبحث عن رقم الشركة والاتصال بها، كما يجب عدم مشاركة معلومات حساسة أو مالية عبر الهاتف، علمًا أنّ المؤسسات والشركات الموثوقة لن تطلب تقديم تفاصيل الحساب أو كلمات المرور أو معلومات بطاقة الائتمان عبر الهاتف، بالتالي، يمكن اعتبار هذا النوع من الأسئلة كإشارة إنذار.
ولفت إلى أن التطوّرات السريعة في مجال الذكاء الاصطناعي، منحت الشركات والأفراد قدرات غير مسبوقة، وأثارت في الوقت نفسه، مخاوف بشأن التعارض بين ما هو جدير بالثقة وكيف يمكن للذكاء الاصطناعي أن يؤدّي إلى الإخلال بالثقة، وبينما نواصل معالجة هذا التناقض وتحقيق ابتكارات تسمح لنا بالتحكّم في تداعيات التقدّم التكنولوجي، لابدّ لنا من مواجهة هذا التحدي.
تكنولوجيا التزييف العميق
يعرف خبراء تكنولوجيا التزييف العميق بأنها تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي، وتقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.