-6.7 C
Kosice
streda, 14 januára, 2026
HomeEkonomikaO AI sa šíri mnoho hoaxov, technológie sú bezpečné

O AI sa šíri mnoho hoaxov, technológie sú bezpečné

Bratislava 15. júna (TASR) – O umelej inteligencii (AI) sa šíri ve?ké množstvo hoaxov. „Ani neviem, ktorý je najvä?ší. ?udia majú strach z technológií, niektorí sa ich boja. Môžeme vzdeláva?, aby sme ukázali, že technológie sú bezpe?né a zárove? sa snaži? ich robi? ešte bezpe?nejšie ako dnes. To je asi jediné, ?o môžeme urobi?,“ povedal v rozhovore pre TASR šéf nemeckého centra pre výskum umelej inteligencie (DFKI) Philipp Slusallek, ktorý je expertom na dôveryhodnú AI.

Poukázal na to, že v prípade novej technológie je dôležité, aby jej ?udia mohli dôverova?, inak ju nebudú používa?. „V Nemecku máme ve?a malých a stredných firiem, ktoré, ak do svojho produktu pridajú umelú inteligenciu, sú lídrami na trhu vo svojom odbore. Potom ho dodajú napríklad do Indie, a tam im produkt nefunguje a ?elia problémom. Potrebujú technológiu, ktorej môžu skuto?ne dôverova?. Problémom je, že pojem dôveryhodný používajú všetci a niekedy sa stáva takmer bezvýznamným,“ skonštatoval pre TASR Slusallek.

Dôveryhodná umelá inteligencia je pod?a jeho slov taká, ktorej sa dá dôverova?. „Ide o umelú inteligenciu, pri ktorej môžete poskytnú? záruky funk?nosti, férovosti alebo robustnosti, ktorú systém ponúka, teda skuto?né dôkazy, že systému môžete dôverova?. Snažíme sa dosta? o krok ?alej, než je všeobecná dôveryhodnos?, ale celá myšlienka dôveryhodnosti je rozhodujúca,“ uviedol.

Ve?kou témou v tejto oblasti sú autonómne autá. „Ak die?a vbehne pod auto chceme, aby ho umelá inteligencia ?o najviac chránila. Nemáme však žiadne dáta, pretože nerobíme experimenty s de?mi, takže umelú inteligenciu nemôžeme trénova? pomocou reálnych údajov. Preto modelujeme, ako sa chodci vrátane detí pohybujú a ako sa správajú v dopravných scenároch. Potom môžeme simulova?, ako die?a vbehne pod auto v po?íta?i. Dáta sa potom použijú nielen na trénovanie umelej inteligencie, ale ?o je dôležitejšie, aj na jej validáciu,“ priblížil.

Momentálne nie je dostatok dôkazov, že je AI pri rozhodnutiach, ako je riadenie autonómnych vozidiel, úplne bezpe?ná, z ?oho pod?a Slusalleka pramení ve?a strachu. „Ak sa ma niekto spýta, musím poveda? nie, nemôžem zaru?i?, že nerobí chyby. A preto potrebujeme dôkazy. Vieme, že ?udí nemôžeme ve?mi zlepši? a robia chyby. V prípade stroja to je, ale, iný príbeh,“ skonštatoval.

Poznamenal, že technológie môžeme vždy vylepši?, a preto sa o?akáva, že umelá inteligencia bude bezpe?nejšia ako ?udskí vodi?i. „Ale len by? lepšia ako ?udský vodi? nesta?í, o?akávame, že bude ove?a lepšia. V tejto chvíli nevieme spo?ahlivo, aké dobré sú autonómne systémy. Takže v tejto oblasti sa musíme zlepši?,“ uzavrel.

Odborníci z DFKI budú aj s ?alšími európskymi expertmi spolupracova? so slovenským Kempelenovým inštitútom inteligentných technológií (KInIT) v projekte lorAI – Low Resource AI podporenom v grantovom programe Horizon Europe. Šes?ro?ný projekt má inštitút pozdvihnú? na centrum excelentnosti v oblasti AI, prepoji? akademickú sféru s biznisom a prinies? pokrok vo vývoji jazykových modelov pre sloven?inu.

Zdroj feed teraz.sk

RELATED ARTICLES

ZANECHAJTE KOMENTÁR

Zadajte svoj komentár!
Sem zadajte svoje meno

Most Popular

Recent Comments