Experiment ukazuje, jak může umělá inteligence obrátit situaci proti kyberzločincům a získat údaje o bankovních účtech, které podvodníci používají k přesunu ukradených peněz po celém světě.
Odpovídání na podvodné e-maily a textové zprávy bylo typicky náplní práce výzkumníků hrozeb, YouTube videí a dokonce i komiků.
Jeden experiment s použitím konverzační AI k odpovídání na spamové zprávy a zapojení podvodníků do konverzací však ukázal, že velké jazykové modely (LLM) mohou interagovat s kyberzločinci a získávat zpravodajské informace o hrozbách tím, že se ponoří do králičí nory finančních podvodů – úsilí, které obvykle vyžaduje lidského analytika hrozeb.
V průběhu posledních dvou let výzkumníci z britské firmy na obranu proti podvodům Netcraft použili chatbota založeného na ChatGPT od OpenAI k odpovídání na podvody a přesvědčování kyberzločinců, aby se podělili o citlivé informace: konkrétně o čísla bankovních účtů ve více než 600 finančních institucích v 73 různých zemích, které se používají k převodu ukradených peněz.
Celkově tato technika umožňuje analytikům hrozeb získat více podrobností o infrastruktuře, kterou kyberzločinci používají k podvádění lidí o jejich peníze, říká Robert Duncan, viceprezident pro produktovou strategii společnosti Netcraft.
„V podstatě používáme AI k napodobení oběti, takže hrajeme hru s podvodem, abychom se dostali k konečnému cíli, kterým je pro podvodníka typicky získání peněz v nějaké formě,“ říká. „Ukázalo se to jako pozoruhodně robustní při přizpůsobování se různým typům kriminální činnosti… měnící chování mezi něčím jako je romantický podvod, který může trvat měsíce, a podvodem s předem zaplaceným poplatkem – kde se dostanete na konec velmi rychle.“
Zatímco mezinárodní podvodné kruhy profitují z podvodů – zejména romantických a investičních podvodů operujících z center kybernetických podvodů v jihovýchodní Asii – obránci hledají způsoby, jak odhalit finanční a infrastrukturní komponenty kyberzločinců a zastavit je. Země jako Spojené arabské emiráty se pustily do partnerství s cílem rozvíjet umělou inteligenci způsoby, které mohou zlepšit kybernetickou bezpečnost. Použití AI chatbotů by mohlo přesunout technologickou výhodu od útočníků zpět k obráncům, což je forma proaktivní kybernetické obrany.
Persony s místními jazyky
Výzkum společnosti Netcraft ukazuje, že AI chatboti by mohli pomoci omezit kyberkriminalitu tím, že donutí kyberzločince pracovat tvrději. V současné době kyberzločinci a podvodníci používají masové e-mailové a textové kampaně k rozhozu široké sítě v naději, že chytí několik důvěřivých obětí, od kterých mohou ukrást peníze.
Dvouletý výzkumný projekt odhalil tisíce účtů spojených s podvodníky. I když Duncan nechtěl prozradit názvy bank, účty podvodníků byly hlavně ve Spojených státech a Spojeném království – pravděpodobně proto, že persony, které AI chatboti používali, byly také z těchto regionů. Finanční podvody fungují lépe při použití bankovních účtů ve stejné zemi jako oběť, říká.
Společnost již vidí, že se toto rozložení mění, jak přidává do schopností svého chatbota více jazyků.
„Když rozjedeme nějaké nové persony v Itálii, nyní vidíme, že přichází více italských účtů, takže je to opravdu funkce toho, kde tyto persony provozujeme a jakým jazykem je necháváme mluvit,“ říká.
Příslib použití AI chatbotů k zapojení podvodníků a kyberzločinců spočívá v tom, že stroje mohou vést takové konverzace ve velkém měřítku. Netcraft vsadil na tuto technologii jako způsob získávání zpravodajských informací o hrozbách, které by jinak nebyly k dispozici, a na konferenci RSA v květnu oznámil svou službu Conversational Scam Intelligence.
AI na AI
Typicky se podvodníci snaží přesvědčit oběti, aby si koupily kryptoměnu nebo dárkové karty jako preferovaný způsob platby, ale nakonec předají informace o bankovním účtu, podle Netcraftu. Cílem použití AI chatbota je udržet konverzaci dostatečně dlouho, aby se dosáhlo těchto milníků. Průměrná konverzace vede k tomu, že kyberzločinci pošlou 32 zpráv a chatbot vydá 15 odpovědí.
Když systém AI chatbota uspěje, může od kyberzločinců získat důležitá data o hrozbách. V jednom případě podvodník slibující dědictví 5 milionů dolarů „oběti“ poslal informace o 17 různých účtech ve 12 různých bankách ve snaze dokončit převod počátečního poplatku. Jiní podvodníci se vydávali za konkrétní banky, jako je Deutsche Bank a Centrální banka Nigérie, aby přesvědčili „oběť“ k převodu peněz. Chatbot řádně shromáždil všechny informace.
Zatímco současné zaměření Netcraftu s experimentem je získat hloubkové zpravodajské informace o hrozbách, platforma by mohla být operacionalizována k zapojení podvodníků ve větším měřítku, čímž by se obrátila současná asymetrie mezi útočníky a obránci. Spíše než aby útočníci používali automatizaci ke zvýšení pracovní zátěže obránců, konverzační systém by mohl široce zapojit kyberzločince a nutit je zjišťovat, které konverzace jsou skutečné a které ne.
Takový přístup je slibný, zejména proto, že útočníci začínají také novými způsoby adoptovat AI, říká Duncan.
„Rozhodně jsme viděli indikátory, že útočníci posílají texty, které se podobají typu textů, které vydává ChatGPT,“ říká. „Opět je velmi těžké si být jistý, ale byli bychom velmi překvapeni, kdybychom už nemluvili zpět s AI, a v podstatě máme konverzaci AI na AI.“
Zdroj: darkreading.com
Zdroj: IT SECURITY NETWORK NEWS