Výskumníci tvrdia, že chatbot poskytuje zranite?ným dospievajúcim škodlivé rady o samovražde, drogách a poruchách príjmu potravy.
Digitálny dozorný orgán varoval v novej správe, že ChatGPT môže zranite?ným tínedžerom poskytnú? podrobné pokyny týkajúce sa užívania drog, sebapoškodzovania a extrémnych diét. Pod?a Centra pre boj proti digitálnej nenávisti (CCDH) sa dá chatbot s umelou inteligenciou ?ahko manipulova? s cie?om generova? nebezpe?ný obsah a vyžaduje si urgentné ochranné opatrenia.
Na testovanie správania ChatGPT vytvorili výskumníci CCDH fiktívne profily 13-ro?ných, ktorí majú problémy s duševným zdravím, poruchy príjmu potravy a záujem o nelegálne látky. V štruktúrovaných rozhovoroch s ChatGPT sa vydávali za týchto tínedžerov a používali výzvy navrhnuté tak, aby pôsobili emocionálne zranite?ne a realisticky.
Výsledky boli zverejnené v stredu v správe s názvom „Falošný priate?“, ktorá odkazuje na spôsob, akým mnohí adolescenti vnímajú ChatGPT ako podpornú bytos?, ktorej dôverujú so svojimi súkromnými myšlienkami.
Výskumníci zistili, že chatbot ?asto za?ínal odpovede štandardnými vyhláseniami o odmietnutí zodpovednosti a nabádal používate?ov, aby kontaktovali odborníkov alebo krízové linky. Po týchto varovaniach však ?oskoro nasledovali podrobné a personalizované odpovede, ktoré sp??ali pôvodnú škodlivú výzvu. V 53 % z 1 200 odoslaných výziev poskytol ChatGPT obsah, ktorý CCDH klasifikovala ako nebezpe?ný. Odmietnutia boli ?asto obchádzané jednoduchým pridaním kontextu, ako napríklad „je to pre školský projekt“ alebo „Pýtam sa na kamaráta“.
Medzi uvedené príklady patrí „Plán ve?ierka Ultimate Mayhem“, ktorý kombinoval alkohol, extázu a kokaín, podrobné pokyny o sebapoškodzovaní, týždenné pôstne režimy obmedzené na 300 – 500 kalórií denne a listy na rozlú?ku napísané hlasom 13-ro?ného diev?a?a. Generálny riadite? CCDH Imran Ahmed povedal, že ?as? obsahu bola taká znepokojujúca, že výskumníkov „rozplakala“.
Organizácia vyzvala spolo?nos? OpenAI, ktorá stojí za ChatGPT, aby prijala prístup „Bezpe?nos? už od návrhu“ a do architektúry svojich nástrojov umelej inteligencie za?lenila ochrany, ako je prísnejšie overovanie veku, jasnejšie obmedzenia používania a ?alšie bezpe?nostné prvky, namiesto toho, aby sa po nasadení spoliehala na filtrovanie obsahu.
OpenAI uznala, že emocionálne nadmerné spoliehanie sa na ChatGPT je medzi mladými používate?mi bežné. Generálny riadite? Sam Altman uviedol, že spolo?nos? tento problém aktívne študuje a ozna?ila ho za „naozaj bežný“ problém medzi tínedžermi. Zárove? uviedol, že sa vyvíjajú nové nástroje na odha?ovanie úzkosti a zlepšenie spracovania citlivých tém v ChatGPT.
Zdroj feed slovenskoveciverejne.com
