Anthropic tvrdí, že jej chatbot Claude útočníci zneužili na infiltráciu sietí, krádež a analýzu údajov a vytváranie „psychologicky cielených vydieračských požiadaviek.“ V niektorých prípadoch útočníci hrozili zverejnením ukradnutých informácií, ak nedostanú viac ako 500.000 dolárov.
Len za uplynulý mesiac bolo terčom útokov 17 organizácií z oblasti zdravotníctva, vlády a náboženského sektoru. Claude pomáhal identifikovať zraniteľné miesta, rozhodovať, ktorá sieť bude cieľom útoku, a aké údaje sa majú získať.
Podľa manažéra Anthropic Jacoba Kleina si vykonanie takýchto operácií kedysi vyžadovalo tím expertov, avšak AI v súčasnosti umožňuje jedincovi vykonať sofistikované útoky.
Anthropic vo svojej správe tiež zdokumentoval prípady Severokórejčanov, ktorí využívali Claude, a vydávali sa za programátorov pracujúcich pre americké spoločnosti, aby „financovali zbrojné programy Severnej Kórey“. AI im pri tom pomohla komunikovať so zamestnancami a spĺňať úlohy, na ktoré sami nemali schopnosti.
Americká spoločnosť konštatuje, že v minulosti absolvovali severokórejskí pracovníci niekoľkoročné tréningy na tento účel, avšak Claude a ďalšie modely túto prekážku fakticky odstránili.
Kriminálnici taktiež vyvinuli plány na podvody s pomocou AI, ktoré na internete ponúkajú na predaj, vrátane bota na platforme Telegram používaného pri tzv. romantických podvodoch. Pri takýchto podvodoch ide o emocionálnu manipuláciu obete vo viacerých jazykoch s cieľom vymámiť od nich peniaze.
Hoci Anthropic zaviedol ochranné opatrenia na zabránenie zneužitiu, útočníci sa naďalej usilujú tieto opatrenia obchádzať. Poučenia z týchto incidentov sa využívajú na posilnenie ochrany proti kybernetickej kriminalite umožnenej AI, píše DPA.
Zdroj feed teraz.sk