16.4 C
Zvolen
sobota, 1 novembra, 2025

Become a member

Get the best offers and updates relating to Liberty Case News.

― Reklama ―

Chýbate nám tu? Dajte nám o sebe vedieť .. kontakt

OKTÓBER V NEMECKU – výberový prehľad udalostí uplynulého mesiaca

Bratislava/Berlín 1. novembra (TASR) - Tlačová agentúra SR prináša októbrový výberový prehľad udalostí v Nemecku. Sú v ňom zahrnuté správy významného politického charakteru, ďalej...
HomeEkonomikaV rámci AI sa pozeráme na iné formy zodpovednosti

V rámci AI sa pozeráme na iné formy zodpovednosti

Bratislava 1. novembra (TASR) – V rámci umelej inteligencie (AI) sa pozeráme na iné formy zodpovednosti ako tie štandardné a skúšame ich nanovo ustanoviť pre ľudského i neľudského aktéra. Pre TASR to uviedla Daniela Vacek z Filozofického ústavu Slovenskej akadémie vied (SAV), ktorá sa venuje etike umelej inteligencie v Kempelenovom inštitúte inteligentných technológií. Je tiež laureátkou ocenenia Eset Science Award v kategórii Výnimočná osobnosť vedy do 35 rokov.

„V osobnom výskume sa venujem zodpovednosti. Ide tam o ten pozitívny dosah umelej inteligencie na svet, ale aj o ten negatívny. Na jednej strane umelá inteligencia generuje napríklad nádherné obrázky, niektoré z nich dokonca vyhrali fotografické súťaže, a na druhej strane máme ten negatívny dosah, napríklad keď auto niekoho zrazí na ceste. A teraz otázka, čo s tým, lebo umelá inteligencia zrejme tú zodpovednosť v štandardnom zmysle niesť nemôže,“ priblížila Vacek.

Skúma, kto nesie zodpovednosť, ak autonómne auto zrazí človeka alebo ak umelá inteligencia zlyhá pri rozhodovaní. Podľa nej je problém v tom, že žiadny z kandidátov na určenie zodpovednosti nie je perfektný. „Žiadny nesplňuje tie naše typické podmienky pre zodpovednosť. A teraz otázka je, čo s tým. Môžeme sa pozrieť aj na iné pojmy zodpovednosti, ako tie štandardné, a skúsiť ich nanovo ustanoviť pre ľudského i neľudského aktéra,“ dodala.

V rámci pripravovaného projektu financovaného Európskou radou pre výskum plánuje podľa vlastných slov predstaviť stratégiu, ako sa s otázkou zodpovednosti umelej inteligencie vyrovnať. „Tá stratégia spočíva v tom, že niečo z tých štandardov, ktoré máme napríklad na ľudského priateľa, spoločníka alebo terapeuta, aplikujeme aj na umelú inteligenciu. Keď máme nejaké normy, očakávania či povinnosti, mali by sme si premyslieť, či to isté očakávame aj od umelej inteligencie, alebo je tam rozdiel v schopnostiach,“ vysvetlila.

Pripomína, že AI už dnes zastáva reálne roly. „Umelá inteligencia v súčasnosti obsadzuje roly, ako sú terapeut, spoločník, priateľ, dokonca ministerka v Albánsku. Nedávno sa medializoval aj prípad herečky. Takže tie roly už začínajú byť obsadzované, a teraz je otázka: čo s našimi normami, ktoré sa viažu na tieto roly? Zahodíme ich do koša, lebo AI je niečo radikálne iné, alebo sa nimi necháme inšpirovať,“ pýta sa.

Za dôležité považuje najmä vzdelávanie verejnosti o umelej inteligencii. „Je správne, aby sa aj deti na školách o týchto veciach učili. Napríklad aj ten prípad toho chlapca (medializovaný prípad tínedžera, ktorý po opakovanej komunikácii s chatbotom spáchal samovraždu, pozn. TASR), ktorý bol skutočne tragický, možno by sa tomu dalo predísť, keby sa už na základnej škole hovorilo o tom, že keď sa bavíte s nejakým chatbotom, to nie je váš reálny kamarát, je to veľký jazykový model. Aby mali tú sebareflexiu a uvedomovali si, že nehovoria s ľudskou bytosťou,“ povedala.

Vacek pôsobí ako výskumníčka na oddelení analytickej filozofie vo Filozofickom ústave SAV a čiastočne aj na Katedre logiky a metodológie vied Filozofickej fakulty UK.

Zdroj feed teraz.sk

ZANECHAJTE KOMENTÁR

Zadajte svoj komentár!
Sem zadajte svoje meno