تزايد التحذيرات بشأن استخدام الذكاء الاصطناعي في الاحتيال بالعملات الرقمية
في خطوة تحذيرية صارمة، أصدرت لجنة حل النزاعات التابعة للهيئة التنظيمية لصناعة المال في الولايات المتحدة (FINRA) تقريرًا جديدًا.
وقد حذرت فيه من ارتفاع مستوى استخدام تقنيات الذكاء الاصطناعي في تنفيذ عمليات احتيال تستهدف المستثمرين الأفراد في مجال العملات الرقمية.
ويأتي هذا التحذير وسط تصاعد لافت في استخدام أدوات الذكاء الاصطناعي التوليدي، خاصة في إنشاء محتوى مزيف يصعب تمييزه.
هذا النوع من المحتوى يتضمن مواقع إلكترونية، مقاطع فيديو، وحتى محادثات ذكية صممت لخداع الضحايا بذكاء يشبه البشر.
كيف تُستخدم تقنيات الذكاء الاصطناعي في عمليات الاحتيال؟
وفقًا لتقرير اللجنة، فإن المحتالين أصبحوا يعتمدون على روبوتات ذكية ومتقدمة لاستهداف المستثمرين المبتدئين عبر الإنترنت.
غالبًا ما تبدأ الخطة بإنشاء ملفات تعريف مزيفة على منصات التواصل الاجتماعي، مع تقديم وعود بأرباح ضخمة وسريعة.
تقوم هذه الحسابات المدعومة بالذكاء الاصطناعي بإجراء محادثات مقنعة للغاية، تهدف إلى بناء الثقة مع الضحية.
بعد ذلك، يتم إقناع المستثمرين بتحويل أموالهم إلى محافظ رقمية غير موثوقة أو إلى منصات تداول مزيفة.
وفي كثير من الأحيان، يستخدم المحتالون تقنية “الهندسة الاجتماعية” معززة بالذكاء الاصطناعي لجعل الضحايا يشعرون بالأمان والثقة.
حيث يتم استخدام نصوص صوتية أو صور شخصية تم توليدها بالذكاء الاصطناعي لتقليد شخصيات حقيقية أو مستشارين ماليين مزيفين.
انتشار واسع لتقنيات التزييف العميق
تُظهر البيانات أن المحتالين يستخدمون ما يُعرف بتقنيات “التزييف العميق” (Deepfakes) لتوليد مقاطع فيديو مزورة بإتقان عالي.
هذه المقاطع تُظهر شخصيات عامة أو مشاهير يدعمون مشاريع احتيالية، مما يعزز من مصداقية الخدعة.
ومع تزايد ثقة الجمهور في التكنولوجيا، يصبح التمييز بين الحقيقة والاحتيال أكثر صعوبة.
الأمر الذي يزيد من المخاطر المحيطة بالمستثمرين الأفراد، خاصة الذين ليست لديهم خبرة تقنية كافية.
استهداف فئة معينة من المستثمرين
أشارت FINRA إلى أن الغالبية العظمى من الضحايا هم من المستثمرين الأفراد الذين يسعون لتحقيق أرباح سريعة.
وغالبًا ما يكون هؤلاء من فئة الشباب أو المتقاعدين الباحثين عن فرص استثمارية بديلة في ظل الأوضاع الاقتصادية المتقلبة.
كما لاحظ التقرير أن المحتالين يركزون بشكل خاص على أولئك الذين لا يملكون خبرة سابقة في التعامل مع العملات الرقمية.
ما يجعلهم فريسة سهلة للحيل المتقنة المدعومة بالذكاء الاصطناعي.
توصيات رسمية لحماية المستثمرين
في ضوء هذه التهديدات، أوصت اللجنة بعدة خطوات لحماية المستثمرين من الوقوع ضحايا لهذه العمليات الاحتيالية.
أولًا، يجب التحقق من أي جهة تقدم خدمات استثمارية عبر الإنترنت، وعدم الوثوق بمواقع مجهولة المصدر.
ثانيًا، يُفضل عدم تحويل الأموال إلى أي منصة غير مرخصة أو مشكوك في هويتها القانونية.
ثالثًا، دعت اللجنة إلى تعزيز الوعي الرقمي عبر حملات توعوية تستهدف المستثمرين الجدد.
وأخيرًا، ناشدت FINRA المؤسسات المالية بتطوير أدوات اكتشاف الاحتيال الإلكتروني لتتماشى مع تطور أدوات الذكاء الاصطناعي.
وذلك لتقليل فرص نجاح المحتالين في اختراق المنظومة المالية الرقمية.
التكنولوجيا سلاح ذو حدين
من المهم التأكيد على أن الذكاء الاصطناعي بحد ذاته ليس هو المشكلة، بل الطريقة التي يُستخدم بها من قبل الفاعلين السيئين.
إذ يمكن للتكنولوجيا أن تكون أداة فاعلة لتحسين الأمان الرقمي، إذا ما تم توجيهها بشكل مسؤول ومنظم.
إلا أن الاستخدام الخاطئ لتلك الأدوات يمكن أن يؤدي إلى نتائج كارثية على المستثمرين الأفراد والاقتصاد الرقمي ككل.
وبالتالي، فإن مسؤولية المؤسسات التنظيمية تكمن في ملاحقة وتقييد الجهات التي تسخر الذكاء الاصطناعي للإضرار بالمجتمع.
نحو تنظيم رقابي أوسع
تُعد هذه التحذيرات خطوة جديدة في الاتجاه نحو تنظيم أكثر شمولًا لاستخدامات الذكاء الاصطناعي في القطاع المالي.
وقد دعت FINRA إلى تعاون دولي لتحديث السياسات واللوائح بما يتماشى مع طبيعة المخاطر الجديدة.
كما حثت اللجنة الجهات التنظيمية على اعتماد تقنيات ذكاء اصطناعي مضادة، قادرة على اكتشاف الهجمات الاحتيالية مبكرًا.
وذلك لتوفير بيئة استثمارية أكثر أمانًا وموثوقية في ظل التطورات الرقمية المتسارعة.
دور الإعلام والتثقيف العام
شدد التقرير أيضًا على أهمية دور وسائل الإعلام في نشر التوعية ومكافحة الشائعات والمعلومات المضللة.
وذلك من خلال تقديم محتوى إعلامي دقيق يسلط الضوء على المخاطر المرتبطة بالاستثمار الرقمي غير المنظم.
كما أوصى بضرورة إدماج التثقيف المالي في البرامج التعليمية، خاصة تلك الموجهة للشباب والفئات الضعيفة رقميًا.
حتى يتمكن المستثمرون الجدد من اتخاذ قرارات مالية واعية تستند إلى معلومات دقيقة ومحدثة.