عربي بوست — ArabicPost.net
No Result
View All Result
الأربعاء, أبريل 15, 2026
bunny
عربي بوست — ArabicPost.net
No Result
View All Result
bunny
No Result
View All Result
عربي بوست — ArabicPost.net
Home منوعات

الاحتيال عبر استنساخ الأصوات بالذكاء الاصطناعي يثير قلق السلطات! يصعب التفريق بين الحقيقي والمزيف منها

عربي بوست
    مراد محمد الحموي
الذكاء الاصطناعي

انتشار لعمليات احتيال باستخدام الذكاء الاصطناعي - صورة تعبيرية - Shutter Stock

تثير عمليات الاحتيال عبر استنساخ الأصوات البشرية بتقنية الذكاء الاصطناعي قلقاً متزايداً لدى السلطات، إذ تأتي هذه العمليات بالتزامن مع الازدهار الذي تشهده التكنولوجيا في الوقت الراهن، لا سيما أن هذا النوع من الاحتيال يتم بدرجة عالية من الحرفية، فضلاً عن أن استنساخ الصوت أصبح متاحاً بسهولة عبر الإنترنت. 

جينيفر ديستيفانو سيدة أمريكية استهدفها محتالون باستخدام الذكاء الاصطناعي، إذ انتابها القلق حينما سمعت صوت ابنتها وهي تبكي في مكالمة هاتفية، يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية.

نبرة صوت الابنة لم تكن حقيقية، بل مُبتكرة بواسطة تقنية الذكاء الاصطناعي، وسمعت ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول: “ساعديني يا أمي، أرجوكِ ساعديني”.

صدّقت الوالدة أنّ الصوت عائد لابنتها البالغة 15 عاماً، والتي خرجت لممارسة للتزلج، وقالت لمحطة تلفزيونية محلية في حديث يعود إلى نيسان/أبريل 2023: “كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها”، مضيفةً: “لم أشك للحظة في أنها قد لا تكون هي”.

طلب المحتال الذي اتّصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة، وتحقق السلطات في هذه الحادثة التي كان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامجَ الذكاء الاصطناعي.

لم يستطع المحتال الحصول على المال، لأن ديستيفانو تمكنت من التواصل مع ابنتها والاطمئنان عليها. 

يشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية تقريباً على تبديدها الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة. 

عمليات تزييف مقنعة

ويؤكّد المدير التنفيذي لشركة “بلاكبيرد. إيه آي” وسيم خالد، في حديث لوكالة الأنباء الفرنسية، أنّ “النسخ الصوتي عبر الذكاء الاصطناعي، والذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح للأشخاص سيئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا يعتمدون في العادة”.

وتتيح تطبيقات كثيرة مجانية ومُتاحة عبر الإنترنت بدرجة كبيرة، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص، ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.

يُشير خالد إلى أنه “من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استناداً إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية. وقد يُستخدم الصوت المُستنسخ أيضاً كصوت مُعدَّل أثناء المكالمات الحية”. 

أضاف أنّ “المحتالين يستخدمون لهجات متنوّعة، ويقلّدون الطريقة التي تتحدث بها الضحية”، مؤكداً أنّ هذه التكنولوجيا “تتيح إنشاء عمليات تزييف عميق مقنعة”.

في الصدد، أظهر استطلاع شمل نحو 7 آلاف شخص في 9 دول بينها الولايات المتحدة، أنّ شخصاً واحداً من كل 4 استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصاً تعرّض لعملية مماثلة.

أشار 70% ممّن شملهم الاستطلاع إلى أنهم لم يكونوا أكيدين من قدرتهم على التمييز بين الصوت الحقيقي وذلك المستنسخ، وفق الاستطلاع الذي نشرته شركة “ماك أفي لابز” الشهر الفائت.

بدورها، حذرت السلطات الأمريكية أخيراً من تزايد “عمليات الاحتيال التي تطال الأجداد”، وقالت لجنة التجارة الفيدرالية في تحذيرها “تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير واحتجازه من الشرطة، لكنّكم قادرون على مساعدته من خلال إرسال الأموال له”.

في التعليقات التي كُتبت تحت تحذير اللجنة الأمريكية، يشير عدد كبير من المسنّين إلى أنّهم خُدعوا بهذه الطريقة.

اقتنع جدٌّ تعرّض لعملية احتيال بما سمعه؛ لدرجة أنّه بدأ يجمع الأموال وفكّر في رهن منزله، قبل أن يتبيّن أنّ ما يحصل ليس سوى احتيال.

من جانبه، قال الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي هاني فريد، في تصريح للوكالة الفرنسية، إنّ السهولة التي يتّسم بها استنساخ الصوت تعني أن “كل مستخدم للإنترنت معرض للخطر”، وأشار إلى أنّ “عمليات الاحتيال هذه آخذة في الازدياد”.

وتعيّن على شركة “إيليفن لابس” الناشئة الاعتراف بأنّ أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعاً مزيفاً للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب “كفاحي” لأدولف هتلر.

يقول غال تال-هوشبيرغ، وهو مسؤول في شركة “تيم 8” المتخصصة في الاستثمارات التكنولوجية: “نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، والتي سيتعين علينا خلالها الاستعانة بتقنيات جديدة لنتأكّد من أنّ الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل مَن نتواصل معه”.

Tags: وكالاتcurrentاحتيالالذكاء الاصطناعي1Day
عربي بوست — ArabicPost.net

انتيغرال ميديا ستراتيجيز ليميتد أو الجهات المرخصة لها (وخاصة عربي بوست) 2020©

تصفح الموقع

  • #775 (بدون عنوان)
  • Arabicpost.net — عربي بوست
  • Home 2
  • Home 3
  • Home 4
  • Home 5
  • Home 6
  • Web Stories test
  • أحدث موبايلات 2024 
  • أغاني رمضان
  • أفلام 2024
  • أندرويد
  • الاحتباس الحراري
  • السياحة في تركيا 
  • القهوة
  • المتلازمات
  • المسلسلات التركية
  • الهجرة إلى
  • انتخابات القرن
  • تواصل معنا
  • جوازات السفر العربية 
  • سياسة الخصوصية
  • سياسة الخصوصية لـ “عربي بوست”
  • سياسة الخصوصية وملفات تعريف الارتباط
  • شروط وأحكام الموقع
  • عرب الكوشير
  • عرب المسخار
  • عربي بوست – الرئيسية
  • عربي بوست واتساب
  • قائمتنا البريدية – عربي بوست
  • ماذا تريد أن تفعل؟
  • محمد صلاح
  • مسلسلات رمضان 2024
  • نتائج الانتخابات التركية.. لحظة بلحظة
  • وصفات رمضان

تابعنا

No Result
View All Result
  • #775 (بدون عنوان)
  • Arabicpost.net — عربي بوست
  • Home 2
  • Home 3
  • Home 4
  • Home 5
  • Home 6
  • Web Stories test
  • أحدث موبايلات 2024 
  • أغاني رمضان
  • أفلام 2024
  • أندرويد
  • الاحتباس الحراري
  • السياحة في تركيا 
  • القهوة
  • المتلازمات
  • المسلسلات التركية
  • الهجرة إلى
  • انتخابات القرن
  • تواصل معنا
  • جوازات السفر العربية 
  • سياسة الخصوصية
  • سياسة الخصوصية لـ “عربي بوست”
  • سياسة الخصوصية وملفات تعريف الارتباط
  • شروط وأحكام الموقع
  • عرب الكوشير
  • عرب المسخار
  • عربي بوست – الرئيسية
  • عربي بوست واتساب
  • قائمتنا البريدية – عربي بوست
  • ماذا تريد أن تفعل؟
  • محمد صلاح
  • مسلسلات رمضان 2024
  • نتائج الانتخابات التركية.. لحظة بلحظة
  • وصفات رمضان

انتيغرال ميديا ستراتيجيز ليميتد أو الجهات المرخصة لها (وخاصة عربي بوست) 2020©