في عالم متصل بشكل متزايد ، الحيل التقنية تتطور باستمرار وقد وجد المحتالون الآن طريقة جديدة لخداع الأشخاص: من خلال استخدام الأصوات المستنسخة التي تم إنشاؤها بواسطة الذكاء الاصطناعي (AI)اطلب المال.
خدع التكنولوجيا: فهم عملية احتيال استنساخ الصوت
شاهد المزيد
في مشهد تطوير الذكاء الاصطناعي ، تتقدم الصين بينما الولايات المتحدة...
تعرف على كيفية التفاعل مع Bard ، روبوت الدردشة الجديد والمنافس من Google...
تتيح التطورات الحديثة في تقنية الذكاء الاصطناعي إنشاء أصوات مستنسخة واقعية للغاية ، باستخدام بضع ثوانٍ فقط من الصوت كمرجع.
أدوات مثل VALL-E ، التي طورتها Microsoft ، و Synthesia تجعل من الممكن إنشاء صوت طويل ومقنع بناءً على هذا التسجيل القصير.
ومع ذلك ، فقد تم استغلال هذه القدرة الجديدة من قبل المحتالين ، الذين يستغلون الأصوات المستنسخة لخداع الناس وابتزاز الأموال.
في الآونة الأخيرة ، لفتت قضية في البرازيل الانتباه: كان والد المؤثر الرقمي ضحية لهذا النوع من الاحتيال. تم الاتصال بصوت مستنسخ لابنك وطلب تحويل 600 ريال برازيلي.
كان التشابه مذهلاً لدرجة أن الأب لم يكن مشبوهًا وقام بتنفيذ الصفقة على الفور.
كيف تحمي نفسك من عملية احتيال استنساخ الصوت
في مواجهة مثل هذه المواقف ، يمكن أن تكون الخسائر هائلة. لذلك ، من الأفضل أن تعرف كيف تحمي نفسك. تحقق من بعض طرق منع الاحتيال:
- كن ذكيا مع المعلومات
قبل أن تخرج وتفعل أي شيء بناءً على مكالمة أو رسالة أو مقطع فيديو ، من المهم التحقق من المعلومات من مصادر إضافية موثوقة. اتصل مرة أخرى أو أكد عبر البريد الإلكتروني أو استشر الآخرين الذين يمكنهم أن يشهدوا على المصداقية.
لا تتعجل ، من الأفضل دائمًا أن تكون متأكدًا قبل أن تتصرف!
- حماية بياناتك
لا تتجول في مشاركة جميع بياناتك الشخصية على الإنترنت. كلما قلت المعلومات التي تقدمها ، قلت المواد المتاحة مجرمو الإنترنت الذين يريدون إنشاء التزييف العميق أو تقليد صوتك.
- ابق على اطلاع بأخبار التكنولوجيا
ابق على اطلاع حول كيفية عمل هذه التقنيات وابق على اطلاع بأحدث أساليب الاحتيال.
- تحقق قبل التحويل
تحقق دائمًا من المستلم قبل إرسال الأموال إلى أحد أفراد العائلة أو الأصدقاء ، خاصةً إذا كان الطلب قد تم عبر الهاتف. هذه نصيحة مهمة جدًا ألا تفعلهاالوقوع في ضربات.