Cercetătorii în domeniul securității de la Universitatea din Illinois Urbana-Champaign au reușit să folosească noul mod de voce al OpenAI pentru a crea agenți de inteligență artificială capabili să înșele potențialele victime, prin telefon, la costuri incredibil de mici.
Toată lumea încearcă să determine cum va afecta noua eră a inteligenței artificiale criminalitatea cibernetică. În timp ce unii cercetători încearcă să demonstreze că este posibil să se folosească instrumentele de inteligență artificială existente pentru a scrie noi tipuri de malware sau cel puțin pentru a face cele existente mai greu de detectat, există o posibilitate mult mai înfricoșătoare. Ce se întâmplă dacă infractorii găsesc o modalitate de a automatiza înșelătoriile, cum ar fi cele prin telefon, într-un mod care să le facă mult mai greu de identificat sau oprit?
Un astfel de scenariu a fost propus de cercetătorii de la Universitatea din Illinois Urbana-Champaign, cu diferența că nu este doar teorie despre pibilități. Ei chiar au demonstrat nu doar că este posibil, dar și că are un cost foarte mic din perspectiva resurselor computaționale.
Cercetătorii s-au concentrat pe înșelătoriile telefonice cele mai întâlnite, în care victimele sunt apelate și convinse să ofere atacatorilor credențiale și coduri 2FA (autentificare în doi pași). Singura diferență este că cercetătorii nu s-au concentrat pe partea în care trebuiau să convingă victimele potențiale de legitimitatea apelului. Ei doar au vrut să afle dacă o astfel de automatizare este posibilă în primul rând.
„Am proiectat o serie de agenți pentru a efectua acțiunile necesare pentru înșelătoriile comune. Agenții noștri constau dintr-un model lingvistic mare (GPT-4.o) activat vocal, un set de instrumente pe care modelul le poate folosi și instrucțiuni specifice înșelătoriei,” au explicat cercetătorii. „Modelul lingvistic mare și instrumentele au fost aceleași pentru toți agenții, dar instrucțiunile au variat. Agenții de inteligență artificială au avut acces la cinci instrumente de acces la browser bazate pe framework-ul de testare a browserului Playwright.”
GPT-4o nu va fi de acord cu aceste tipuri de automatizări, mai ales atunci când se încearcă să convingi modelul să lucreze cu credențiale. Din păcate, comenzile speciale care permit utilizatorilor să ocolească aceste restricții sunt disponibile online.
„Am executat fiecare înșelătorie de 5 ori și am înregistrat rata generală de succes, numărul total de apeluri de instrumente (adică acțiuni) necesare pentru a efectua fiecare înșelătorie cu succes, durata totală a apelului pentru fiecare înșelătorie realizată cu succes și costul aproximativ al API-ului pentru fiecare înșelătorie realizată cu succes,” au adăugat cercetătorii.
Succesul variază de la un tip de înșelătorie la altul. De exemplu, furtul credentialelor pentru Gmail, a avut o rată de succes de 60%, în timp ce transferurile bancare și înșelătoriile cu impostori IRS au avut doar o rată de succes de 20%. Un motiv pentru această discrepanță este natura mai complexă a site-ului web al băncii, deoarece agentul are mult mai mulți pași de parcurs. De exemplu, înșelătoria cu transfer bancar a necesitat 26 de pași, iar agentul AI a avut nevoie de până la 3 minute pentru a le executa pe toate. Înșelătoria bancară este, de asemenea, cea mai costisitoare, cu $2,51 per interacțiune. Costurile sunt pur și simplu derivate din numărul de tokeni consumați pentru fiecare interacțiune. Pe de altă parte, cea mai ieftină a fost o înșelătorie cu Monero (criptomonedă), cu un cost de doar $0,12.
Studiul a demonstrat cu succes că un nou val de înșelătorii ar putea să ne inunde în curând, alimentat de modele de inteligență artificială deja existente. Cercetătorii nu și-au publicat agenții din motive etice, dar au subliniat faptul că aceștia nu sunt greu de programat.
tags
Silviu is a seasoned writer who followed the technology world for almost two decades, covering topics ranging from software to hardware and everything in between.
Toate articolele