استغلال ChatGPT 

لم تعد فكرة أن اكتشاف القواعد النحوية الضعيفة أو الأخطاء الإملائية يمكن أن يساعد في تحديد هجوم التصيد الاحتيالي نهجا موثوقا به.

ابق يقظا. ينصح بتوخي الحذر المتزايد أثناء مراجعة رسائل البريد الإلكتروني غير المرغوب فيها والتصيد الاحتيالي ، حيث أن العلامات المنبهة لقواعد اللغة الضعيفة بشكل هزلي والتي كانت ذات يوم هبة قد تصبح قديمة قريبا ، وذلك بفضل التقدم في تكنولوجيا الذكاء الاصطناعي.

على سبيل المثال ، حذرت يوروبول ، وكالة إنفاذ القانون في الاتحاد الأوروبي ، من احتمال إساءة استخدام ChatGPT وغيرها من النماذج اللغوية الكبيرة المماثلة من قبل مجرمي الإنترنت والمحتالين. “بالنظر إلى التحسين المستمر ل LLMs مثل ChatGPT ، فإن إمكانية استغلال أنظمة الذكاء الاصطناعي هذه من قبل الجهات الفاعلة الخبيثة ترسم صورة قاتمة” ، صرح يوروبول ، كما نقلت رويترز. كما لاحظوا أن “قدرة الذكاء الاصطناعي على إنتاج نص أصلي للغاية تجعله أداة قيمة للتصيد الاحتيالي.

الطاقة الاصطناعية. يتفق الخبراء على أن الاعتماد على تحديد القواعد النحوية أو الإملائية الضعيفة لتحديد هجمات التصيد الاحتيالي لم يعد فعالا. “فكرة أنه يمكنك استخدام قواعد نحوية أو تهجئة سيئة كمؤشر لهجوم التصيد الاحتيالي لم تعد صالحة” ، قال كوري توماس ، الرئيس التنفيذي لشركة الأمن السيبراني الأمريكية Rapid7 ، لصحيفة الغارديان.

وفقا ل Darktrace ، إحدى شركات الأمن السيبراني البارزة في المملكة المتحدة ، يتم استخدام المزيد والمزيد من روبوتات الدردشة لكتابة رسائل البريد الإلكتروني للتصيد الاحتيالي ، وفقا للصحيفة. لسوء الحظ ، فإن LLMs ماهرون في إنتاج نص موثوق ومقنع ، مما يجعلها مثالية لانتحال شخصية رسائل البريد الإلكتروني للشركات أو الرسمية. تشير بيانات Darktrace إلى أن العدد الإجمالي لرسائل البريد الإلكتروني للتصيد الاحتيالي قد انخفض ، لكن التعقيد اللغوي زاد بشكل كبير بالنسبة لرسائل البريد الإلكتروني التي حددوها. ومع ذلك ، فإن الانخفاض في الأرقام لا يعني أن المحتالين قد تباطأوا. بدلا من ذلك ، من المحتمل أن يعني ذلك أن عددا كبيرا منهم يستخدمون LLMs مثل ChatGPT لصياغة رسائل البريد الإلكتروني الاحتيالية المعقدة التي تتهرب من الكشف.

لا شيء شخصي. هذه النتائج قد تخدش السطح فقط. يقترح ماكس هاينماير ، الرئيس التنفيذي لشركة Darktrace ، أن الذكاء الاصطناعي التكنولوجيا يمكن أن تسهل نوعا من عمليات الاحتيال المصممة اجتماعيا تسمى “التصيد الاحتيالي” التي تستهدف الفرد من خلال تخصيص عملية الاحتيال لملفه الشخصي الفريد.

عادة ما يتطلب تنفيذ مثل هذه الحيل مستوى معينا من الإعداد والبحث لجمع تفاصيل محددة حول الهدف ، مما يجعل عملية الاحتيال أكثر إقناعا. ومع ذلك ، حتى الآن ، حد هذا الجهد الإضافي من انتشار هجمات التصيد الاحتيالي. بمساعدة الذكاء الاصطناعي ، يمكن أن يصبح التصيد الاحتيالي بالرمح آليا بالكامل تقريبا. “يمكنني الاستفادة من GPT من خلال الزحف عبر وسائل التواصل الاجتماعي الخاصة بك وإنشاء بريد إلكتروني مقنع للغاية ومخصص” ، أوضح هاينماير لصحيفة الغارديان. “حتى لو لم أكن أتحدث اللغة الإنجليزية بطلاقة ، يمكنني إنشاء بريد إلكتروني لا يمكن تمييزه تقريبا عن كتابة الإنسان.”

#cybersecurity #AItechnology #phishingattacks #scammers #ChatGPT

01/04/2023

إحتمالية
تأثير
المجال

التكنولوجيا

اتجاه سائد

الذكاء الاصطناعي

الاتجاه/محرك

اتجاه

الأفق

قريب

مناطق التأثير

عالمي

توجهات مستقلبية ذات صلة

تطلق ميتا نموذجًا جديدًا للذكاء الاصطناعي للتعرف على الصور

تطلق ميتا نموذجًا جديدًا للذكاء الاصطناعي للتعرف على الصور

تطلق ميتا نموذجًا جديدًا للذكاء الاصطناعي! أصدرت شركة Meta Inc ، المعروفة سابقًا باسم Facebook ، نموذجًا للذكاء الاصطناعي (AI) قادرًا على تحديد...

قراءة المزيد
صعود الإمارات العربية المتحدة كقائدة في مجال الذكاء الاصطناعي

صعود الإمارات العربية المتحدة كقائدة في مجال الذكاء الاصطناعي

استمرار صعود الإمارات العربية المتحدة! خطت دولة الإمارات العربية المتحدة خطوات كبيرة في مجال الذكاء الاصطناعي (AI) على مدار السنوات القليلة الماضية...

قراءة المزيد
تمت ترقية جوجل بارد للمنافسة مع تشات جي بي تي و جي بي تي-4

تمت ترقية جوجل بارد للمنافسة مع تشات جي بي تي و جي بي تي-4

ترقية جوجل بارد! منذ فترة ، قدمت جوجل روبوت محادثة الذكاء الاصطناعي اسمه بارد لمنافسة تشات جي بي تي. ومع ذلك ، خلال مظاهرة ، أعطى بارد الرد الخاطئ ،...

قراءة المزيد