Taking Advantage Of ChatGPT 

The notion that detecting poor grammar or misspellings can help identify a phishing attack is no longer a reliable approach.

Remain vigilant. It's advisable to exercise increased caution while reviewing spam and phishing emails, as the telltale signs of comically poor grammar that were once a giveaway may soon be obsolete, thanks to advances in AI technology.

على سبيل المثال ، حذرت يوروبول ، وكالة إنفاذ القانون في الاتحاد الأوروبي ، من احتمال إساءة استخدام ChatGPT وغيرها من النماذج اللغوية الكبيرة المماثلة من قبل مجرمي الإنترنت والمحتالين. “بالنظر إلى التحسين المستمر ل LLMs مثل ChatGPT ، فإن إمكانية استغلال أنظمة الذكاء الاصطناعي هذه من قبل الجهات الفاعلة الخبيثة ترسم صورة قاتمة” ، صرح يوروبول ، كما نقلت رويترز. كما لاحظوا أن “قدرة الذكاء الاصطناعي على إنتاج نص أصلي للغاية تجعله أداة قيمة للتصيد الاحتيالي.

الطاقة الاصطناعية. يتفق الخبراء على أن الاعتماد على تحديد القواعد النحوية أو الإملائية الضعيفة لتحديد هجمات التصيد الاحتيالي لم يعد فعالا. “فكرة أنه يمكنك استخدام قواعد نحوية أو تهجئة سيئة كمؤشر لهجوم التصيد الاحتيالي لم تعد صالحة” ، قال كوري توماس ، الرئيس التنفيذي لشركة الأمن السيبراني الأمريكية Rapid7 ، لصحيفة الغارديان.

According to Darktrace, one of the UK's prominent cybersecurity firms, more and more chatbots are being used to write phishing emails, as per the newspaper. Unfortunately, LLMs are skilled at producing authoritative and persuasive text, which makes them ideal for impersonating corporate or official emails. Darktrace's data indicates that the total number of phishing emails seems to have decreased, but the linguistic complexity has significantly increased for the emails that they've identified. However, the decline in numbers doesn't imply that scammers have slowed down. Instead, it likely means that a significant number of them are employing LLMs such as ChatGPT to draft complex scam emails that evade detection.

لا شيء شخصي. هذه النتائج قد تخدش السطح فقط. يقترح ماكس هاينماير ، الرئيس التنفيذي لشركة Darktrace ، أن الذكاء الاصطناعي التكنولوجيا يمكن أن تسهل نوعا من عمليات الاحتيال المصممة اجتماعيا تسمى “التصيد الاحتيالي” التي تستهدف الفرد من خلال تخصيص عملية الاحتيال لملفه الشخصي الفريد.

عادة ما يتطلب تنفيذ مثل هذه الحيل مستوى معينا من الإعداد والبحث لجمع تفاصيل محددة حول الهدف ، مما يجعل عملية الاحتيال أكثر إقناعا. ومع ذلك ، حتى الآن ، حد هذا الجهد الإضافي من انتشار هجمات التصيد الاحتيالي. بمساعدة الذكاء الاصطناعي ، يمكن أن يصبح التصيد الاحتيالي بالرمح آليا بالكامل تقريبا. “يمكنني الاستفادة من GPT من خلال الزحف عبر وسائل التواصل الاجتماعي الخاصة بك وإنشاء بريد إلكتروني مقنع للغاية ومخصص” ، أوضح هاينماير لصحيفة الغارديان. “حتى لو لم أكن أتحدث اللغة الإنجليزية بطلاقة ، يمكنني إنشاء بريد إلكتروني لا يمكن تمييزه تقريبا عن كتابة الإنسان.”

#cybersecurity #AItechnology #phishingattacks #scammers #ChatGPT

01/04/2023

Probability
Impact
Trend Type

Technological

Trend

Artificial Intelligence

Trend/Driver

Trend

Horizon

Nearby

Regions of Influence

Global

Related Future Trends