Anthropic tvrdí, že jej chatbot Claude úto?níci zneužili na infiltráciu sietí, krádež a analýzu údajov a vytváranie „psychologicky cielených vydiera?ských požiadaviek.“ V niektorých prípadoch úto?níci hrozili zverejnením ukradnutých informácií, ak nedostanú viac ako 500.000 dolárov.
Len za uplynulý mesiac bolo ter?om útokov 17 organizácií z oblasti zdravotníctva, vlády a náboženského sektoru. Claude pomáhal identifikova? zranite?né miesta, rozhodova?, ktorá sie? bude cie?om útoku, a aké údaje sa majú získa?.
Pod?a manažéra Anthropic Jacoba Kleina si vykonanie takýchto operácií kedysi vyžadovalo tím expertov, avšak AI v sú?asnosti umož?uje jedincovi vykona? sofistikované útoky.
Anthropic vo svojej správe tiež zdokumentoval prípady Severokórej?anov, ktorí využívali Claude, a vydávali sa za programátorov pracujúcich pre americké spolo?nosti, aby „financovali zbrojné programy Severnej Kórey“. AI im pri tom pomohla komunikova? so zamestnancami a sp??a? úlohy, na ktoré sami nemali schopnosti.
Americká spolo?nos? konštatuje, že v minulosti absolvovali severokórejskí pracovníci nieko?koro?né tréningy na tento ú?el, avšak Claude a ?alšie modely túto prekážku fakticky odstránili.
Kriminálnici taktiež vyvinuli plány na podvody s pomocou AI, ktoré na internete ponúkajú na predaj, vrátane bota na platforme Telegram používaného pri tzv. romantických podvodoch. Pri takýchto podvodoch ide o emocionálnu manipuláciu obete vo viacerých jazykoch s cie?om vymámi? od nich peniaze.
Hoci Anthropic zaviedol ochranné opatrenia na zabránenie zneužitiu, úto?níci sa na?alej usilujú tieto opatrenia obchádza?. Pou?enia z týchto incidentov sa využívajú na posilnenie ochrany proti kybernetickej kriminalite umožnenej AI, píše DPA.
Zdroj feed teraz.sk
