مكالمات حقيقية بأصوات مزيفة… الاحتيال يدخل مرحلة يصعب كشفها

ثقة: وكالات
أصبح من الممكن اليوم أن تتلقى مكالمة من مديرك أو زميلك بصوت مألوف تماماً… لكنه في الحقيقة ليس حقيقياً. هذا ما كشفه باحثون من شركة الأمن السيبراني NCC Group، الذين نفّذوا تجارب ناجحة لهجمات تصيّد صوتي (Vishing) بالاعتماد على تقنية استنساخ الصوت في الزمن الحقيقي، وتمكنوا خلالها من الوصول إلى بيانات حسّاسة وتنفيذ إجراءات خطيرة مثل إعادة تعيين كلمات مرور وتغيير عناوين بريد إلكتروني.
كيف يعمل الاستنساخ الفوري؟
في السابق، كانت تقنيات Deepfake الصوتية تعتمد على تسجيلات معدّة مسبقاً أو أنظمة تحويل النص إلى كلام (TTS)، وهو ما يعيق المحادثة الفورية ويجعل الأصوات غير مقنعة.
لكن الباحثين طوروا نظاماً يمرّر صوت المهاجم إلى مُعدِّل آني يعتمد على التعلم الآلي، فيخرج الصوت مطابقًا لصوت شخص آخر مباشرة. الأخطر أن هذه التقنية يمكن دمجها في تطبيقات شائعة مثل Microsoft Teams وGoogle Meet، مع إمكانية تزوير رقم الهاتف الحقيقي عبر خاصية Spoofing لإضفاء الثقة.
تهديد رخيص ومتاح للجميع
التجارب أثبتت أن هذه الهجمات لا تحتاج إلى أجهزة متقدّمة أو ميزانيات ضخمة؛ أدوات بسيطة "جيدة بما يكفي" كفيلة بإنجاحها، ما يعني أن التكلفة في متناول الأفراد والمجموعات الصغيرة، وليس فقط الجهات المتطورة.
الخبراء يحذّرون
متخصصون في الأمن السيبراني وصفوا استنساخ الصوت الفوريّ بأنه مضاعِف للقوة، إذ يمنح المهاجم القدرة على الرّد في الزمن الحقيقي، تعديل النبرة، والتفاعل بمرونة تجعل الاحتيال مقنعًا وصعب الاكتشاف.
ويؤكد خبراء أن التطور في الذكاء الاصطناعي التوليدي جعل الأصوات المزيفة أقرب من أي وقت مضى إلى الحقيقة، وأنه بحلول عام 2026 قد تصبح أغلب هجمات الاحتيال الصوتي مدعومة بالكامل بالذكاء الاصطناعي.
من الصوت إلى الصورة
ورغم أن الهجمات النصية التي تنتحل صفة المديرين التنفيذيين هي الأكثر شيوعاً اليوم، فإن الباحثين يتوقعون مرحلة أخطر: دمج الصوت بالفيديو المزيف (Deepfake Video). صحيح أن هناك تحديات تقنية في المزامنة بين الصوت والصورة، لكن سرعة التطور تشير إلى أن الأمر ليس سوى مسألة وقت.
نحن أمام جيل جديد من الاحتيال الرقمي، حيث قد لا يكون الصوت الذي تسمعه في مكالمتك المقبلة سوى نسخة مزيّفة صنعها الذكاء الاصطناعي. ومع اقتراب دخول الفيديو المزيف على الخط، يبدو أن الهندسة الاجتماعية في طريقها إلى مرحلة يصعب التمييز فيها بين الحقيقة والخداع.
أصبح من الممكن اليوم أن تتلقى مكالمة من مديرك أو زميلك بصوت مألوف تماماً… لكنه في الحقيقة ليس حقيقياً. هذا ما كشفه باحثون من شركة الأمن السيبراني NCC Group، الذين نفّذوا تجارب ناجحة لهجمات تصيّد صوتي (Vishing) بالاعتماد على تقنية استنساخ الصوت في الزمن الحقيقي، وتمكنوا خلالها من الوصول إلى بيانات حسّاسة وتنفيذ إجراءات خطيرة مثل إعادة تعيين كلمات مرور وتغيير عناوين بريد إلكتروني.
كيف يعمل الاستنساخ الفوري؟
في السابق، كانت تقنيات Deepfake الصوتية تعتمد على تسجيلات معدّة مسبقاً أو أنظمة تحويل النص إلى كلام (TTS)، وهو ما يعيق المحادثة الفورية ويجعل الأصوات غير مقنعة.
لكن الباحثين طوروا نظاماً يمرّر صوت المهاجم إلى مُعدِّل آني يعتمد على التعلم الآلي، فيخرج الصوت مطابقًا لصوت شخص آخر مباشرة. الأخطر أن هذه التقنية يمكن دمجها في تطبيقات شائعة مثل Microsoft Teams وGoogle Meet، مع إمكانية تزوير رقم الهاتف الحقيقي عبر خاصية Spoofing لإضفاء الثقة.
تهديد رخيص ومتاح للجميع
التجارب أثبتت أن هذه الهجمات لا تحتاج إلى أجهزة متقدّمة أو ميزانيات ضخمة؛ أدوات بسيطة "جيدة بما يكفي" كفيلة بإنجاحها، ما يعني أن التكلفة في متناول الأفراد والمجموعات الصغيرة، وليس فقط الجهات المتطورة.
الخبراء يحذّرون
متخصصون في الأمن السيبراني وصفوا استنساخ الصوت الفوريّ بأنه مضاعِف للقوة، إذ يمنح المهاجم القدرة على الرّد في الزمن الحقيقي، تعديل النبرة، والتفاعل بمرونة تجعل الاحتيال مقنعًا وصعب الاكتشاف.
ويؤكد خبراء أن التطور في الذكاء الاصطناعي التوليدي جعل الأصوات المزيفة أقرب من أي وقت مضى إلى الحقيقة، وأنه بحلول عام 2026 قد تصبح أغلب هجمات الاحتيال الصوتي مدعومة بالكامل بالذكاء الاصطناعي.
من الصوت إلى الصورة
ورغم أن الهجمات النصية التي تنتحل صفة المديرين التنفيذيين هي الأكثر شيوعاً اليوم، فإن الباحثين يتوقعون مرحلة أخطر: دمج الصوت بالفيديو المزيف (Deepfake Video). صحيح أن هناك تحديات تقنية في المزامنة بين الصوت والصورة، لكن سرعة التطور تشير إلى أن الأمر ليس سوى مسألة وقت.
نحن أمام جيل جديد من الاحتيال الرقمي، حيث قد لا يكون الصوت الذي تسمعه في مكالمتك المقبلة سوى نسخة مزيّفة صنعها الذكاء الاصطناعي. ومع اقتراب دخول الفيديو المزيف على الخط، يبدو أن الهندسة الاجتماعية في طريقها إلى مرحلة يصعب التمييز فيها بين الحقيقة والخداع.