آخر الأخبار

الذكاء الاصطناعي يفتح الباب أمام موجة جديدة من الاحتيال الصوتي


 لم يعد إنشاء نظام ذكاء اصطناعي قادر على إجراء محادثة هاتفية طبيعية أمرًا معقدًا كما كان في السابق، فالتطورات الحديثة جعلت ما كان يحتاج إلى برمجيات متعددة ومهام معقدة أمرًا بسيطًا يمكن إنجازه خلال دقائق. ومع إطلاق واجهة RealTime API من شركة OpenAI، أصبح بناء نظام محادثة صوتية يعمل بشكل فوري في الزمن الحقيقي متاحًا لأي مطور بسهولة لافتة.

وبفضل الأكواد المتاحة للجميع، بات بالإمكان ربط نماذج الذكاء الاصطناعي بخط هاتف مباشر ليصبح النظام قادرًا على الاستماع والتحليل والرد الفوري بصوت اصطناعي يحاكي التفاعل البشري بواقعية مذهلة. لكن هذا التقدم التقني لم يأتِ دون ثمن، إذ فتح الباب أمام نوع جديد من الاحتيال يعرف باسم الاحتيال الصوتي المدعوم بالذكاء الاصطناعي أو “vishing”، وهو أحد أكثر أشكال الاحتيال تطورًا في الوقت الحالي.

في العام الماضي فقط، تعرضت شركة التكنولوجيا البريطانية Arup لعملية احتيال خُدعت خلالها وسُرق منها 25 مليون دولار باستخدام تقنية التزييف العميق للصوت، كما واجهت شركة Cisco هجومًا مشابهًا مكن المهاجمين من الوصول إلى بيانات داخلية حساسة.

أصبحت النماذج الصوتية الحديثة تلغي الحواجز التقنية أمام الاحتيال الصوتي الفوري، حيث يمكن الآن إنشاء نظام يقلد موظفًا في بنك أو قسم موارد بشرية ببضعة أسطر من التعليمات فقط. الأخطر من ذلك أن هذه الأنظمة قادرة على التفاعل بذكاء مع المحادثة وتغيير أسلوبها في الزمن الحقيقي، ما يجعلها أكثر إقناعًا وخداعًا من أي وقت مضى.

ورغم أن هذه التقنية تمتلك استخدامات مشروعة في مجالات كثيرة مثل التعليم والرعاية الصحية وخدمة العملاء، إلا أن سهولة الوصول إليها جعلت استغلالها في عمليات الاحتيال أمرًا مقلقًا. إذ يمكن لنظام واحد تنفيذ مئات الآلاف من المكالمات الاحتيالية يوميًا، وكل مكالمة يتم تخصيصها بدقة للضحية المستهدفة.

وتزداد خطورة هذا الاتجاه مع انتشار منصات مثل ElevenLabs وCartesia التي تتيح استنساخ الأصوات البشرية بدقة مذهلة من خلال عينات قصيرة جدًا. وفي حالة المشاهير أو الشخصيات العامة يصبح الأمر أسهل، إذ تتوفر تسجيلات كافية يمكن بواسطتها إنشاء نسخة طبق الأصل من صوت الشخص دون علمه. وقد حذر مكتب التحقيقات الفيدرالي الأمريكي بالفعل من هجمات استخدمت أصواتًا مزيفة لمسؤولين حكوميين.

ومع استمرار هذا التصاعد، بدأت أنظمة التحقق الصوتي التي تعتمد على بصمة الصوت تتحول من وسيلة أمان إلى نقطة ضعف، مما يجعل من الضروري الاعتماد على وسائل تحقق إضافية خصوصًا في المعاملات المالية أو الإجراءات الحساسة.

أما بالنسبة للمستخدمين العاديين، فالدرس الأوضح هو أن الصوت لم يعد دليلاً على هوية المتحدث. كما تعلم العالم سابقًا الحذر من الرسائل الإلكترونية المشبوهة، عليه اليوم أن يتعلم الشك في الأصوات المقنعة التي قد تكون من صنع الذكاء الاصطناعي. وربما يصبح المستقبل بحاجة إلى تطوير تقنيات جديدة مثل العلامات المائية الصوتية أو التوقيعات الرقمية لضمان أصالة الكلام والحد من هذا النوع المتنامي من الاحتيال.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.