Zákon je navrhnutý tak, aby zabezpe?il dôveryhodnos? umelej inteligencie vyvinutej a používanej v EÚ so zárukami na ochranu základných práv ?udí. Cie?om je vytvori? harmonizovaný vnútorný trh s umelou inteligenciou v EÚ, podpori? zavádzanie tejto technológie a vytvori? priaznivé prostredie pre inovácie a investície.
Táto legislatíva zah??a pokrokovú definíciu umelej inteligencie založenú na prístupe orientovanom na bezpe?nos? výrobkov a riziko v EÚ.
Do kategórie minimálneho rizika patrí vä?šina systémov umelej inteligencie. Osobitné riziko transparentnosti znamená, že systémy ako chatboty musia používate?om jasne oznámi?, že (používatelia) komunikujú so strojom. Obsah vytvorený umelou inteligenciou vrátane tzv. deepfakes musí by? takto ozna?ený a používatelia musia by? informovaní o používaní systémov biometrickej kategorizácie alebo rozpoznávania emócií.
Systémy umelej inteligencie identifikované ako vysokorizikové budú musie? sp??a? prísne požiadavky. Vz?ahuje sa to na systémy na zmiernenie rizika, vysokú kvalitu súborov údajov, záznamy o ?innosti, podrobnú dokumentáciu, jasnú informácie pre používate?ov, ?udský doh?ad a vysokú úrove? spo?ahlivosti, presnosti a kybernetickej bezpe?nosti.
Neprijate?né riziko znamená, že ide o systémy umelej inteligencie považované za jasnú hrozbu pre základné práva ?udí. Takéto systémy sú zakázané. Ide o systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ?udské správanie s cie?om obís? slobodnú vô?u používate?ov. Zakázané sú aj niektoré použitia biometrických systémov, napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ?udí alebo biometrická identifikácia na dia?ku v reálnom ?ase na ú?ely presadzovania práva vo verejnom priestore.
Na doplnenie tohto systému sa v zákone o umelej inteligencii zavádzajú aj pravidlá pre tzv. modely umelej inteligencie na všeobecné ú?ely. Napríklad modely umelej inteligencie navrhnuté tak, aby vykonávali širokú škálu úloh, ako je vytváranie textu podobného ?loveku.
Komisia pripomenula, že zákon o umelej inteligencii zabezpe?í transparentnos? v celom hodnotovom re?azci a bude rieši? možné systémové riziká najschopnejších modelov.
?lenské štáty EÚ musia do 2. augusta 2025 ur?i? príslušné vnútroštátne orgány, ktoré budú dohliada? na uplat?ovanie pravidiel pre systémy umelej inteligencie a vykonáva? ?innosti doh?adu nad trhom.
Úrad EK pre umelú inteligenciu bude k?ú?ovým orgánom na zavedenie zákona do platnosti na úrovni EÚ, ako aj orgánom presadzovania pravidiel pre modely umelej inteligencie na všeobecné ú?ely. Spolo?nosti, ktoré nebudú dodržiava? pravidlá, môžu by? pokutované.
(spravodajca TASR Jaromír Novak)
Zdroj feed teraz.sk
