تقنيات معالجة اللغات الطبيعية مستمرة في التطور والوصول لمستويات مرتفعة. وتعد هذه التقنيات من أبرز تطبيقات الذكاء الاصطناعي المستخدمة حاليًا.
وقد تمكن الباحثين في دراسة صغيرة بالاعتماد على نموذج تعلم اللغات العميق GPT-3 إلى جانب تقنيات وخدمات أخرى من صياغة محتوى رسائل البريد الإلكتروني الاحتيالية بجودة مرتفعة.
وهو ما قد أثار القلق من اعتماد المحتالين مستقبلًا على تقنيات الذكاء الاصطناعي. وذلك إلى جانب الخدمات المتاحة بأسعار منخفضة والتي قد تساعدهم على صياغة الرسائل الاحتيالية. وتحديدًا رسائل التصيّد “Phishing”.
استخدام الذكاء الاصطناعي في هجمات الاحتيال
خلال فعاليات مؤتمر Black Hat and Defcon في مدينة لاس فيجاس. عرض فريق تابع إلى الوكالة الحكومية للتكنولوجيا في سنغافورة نتائج تجربة قد تم تنفيذها.
وقد اعتمدت التجربة على إرسال رسائل تصيّد عبر البريد الإلكتروني. وهو نوع من أشهر أنواع هجمات الاختراق. كما أن الهدف الرئيسي من هذه الرسائل هو دفع المستلم للضغط على الرابط الضار الموجود فيها.
وتم إرسال تلك الرسائل إلى 200 شخص لا يعلمون بالتجربة. جزء من هذه الرسائل كانت مكتوبة بشكل بشري، أي من خلال أعضاء الفريق. والجزء الآخر كان مكتوب من طرف الذكاء الاصطناعي.
والروابط الموجودة في هذه الرسائل ليست بروابط ضارة بالطبع، إلا أنها كانت تبلغ الفريق بعدد مرات الضغط عليها. وكما يمكنك أن تتوقع، نجحت الرسائل المكتوبة من طرف تقنيات الذكاء الاصطناعي في تحقيق عدد أكبر من مرات الضغط على الرابط المخادع مقارنةً بالرسائل التي كتبها البشر، أكبر بنسبة كبيرة.
وقد صرّح الفريق بأن تطوير نموذج ذكاء اصطناعي قادر على تقديم مستوى مرتفع هو أمر يكلف ملايين الدولارات، وهو أمر يناسب الشركات الضخمة أو الحكومات، وليس الأفراد.
سهولة الاستخدام مستقبلًا
ومن ناحية أخرى، قد لا يحتاج المخادعين لتطوير أنظمة كاملة. وبدلًا من ذلك، يمكنهم استخدام خدمات الذكاء الاصطناعي المعدة مسبقًا، والتي يمكن التعامل معها بسهولة وبدون الحاجة لمعرفة برمجية.
كما يمكن استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر مثل OpenAI وغيرها.
وخلال التجربة استخدم الفريق نموذج OpenAI GPT-3 إلى جانب الاعتماد على خدمات AI أخرى متاحة، وكانت هذه الخدمات تساعد على فهم وتحليل الشخصية المستهدفة، وذلك ليسهل خداعها.
وبالرغم من النتائج والأرقام الممتازة التي تم تحقيقها ضمن هذه التجربة. إلا أن الفريق المسؤول قد أوضح أن حجم العينة المستهدفة والذي كان 200 شخص فقط لا يكشف عن نتائج نهائية، وفي حالة تكرار نفس التجربة على عينة أكبر فقد تختلف النتائج.
كما أن الرسائل التي تمت كتابتها من طرف أشخاص حقيقيون ضمن التجربة قد لا تكون بنفس مستوى الرسائل المكتوبة من طرف مخادعين محترفين. إلا أن الباحثين قد أشادوا بمستوى احترافية الرسائل التي كتبها الـAI.