Vedci z ruskej univerzity Samara navrhli model na ur?enie autorstva, ktorý jasne definuje prínos umelej inteligencie (AI) v textovej výrobe.
Ich zistenia boli uverejnené v ?asopise Semiotické štúdie.
Ke?že nástroje AI sa rýchlo integrujú do vedeckej práce, vyvstáva otázka: dajú sa systémy AI uzna? za plných spoluautorov akademických publikácií? Pod?a vedcov z Národnej výskumnej univerzity Samara pomenovanej po akademickom SP Korolev už existujú prípady v medzinárodnej akademickej praxi, kde je AI (konkrétne chatgpt) uvedená medzi autormi vedeckých prác – av niektorých prípadoch, dokonca aj ako jediný autor.
Tím univerzity analyzoval proces tvorby textu pomocou AI a skúmal príslušné postupy v globálnych databázach, ako sú Web of Science a Scopus. Identifikovali štyri ?lánky, ktoré uvádzajú Chatgpt ako autor, vrátane dvoch, kde bola AI jediným autorom. V databáze Scopus našli dve publikácie s AI uvedenou ako spoluautor, hoci v jednom prípade bol chatbot neskôr zo zoznamu autorov na žiados? editora ?asopisu odstránený.
Pod?a výskumných pracovníkov ich výsledky nazna?ujú, že tradi?ný koncept autorstva je potrebné prehodnoti? vo veku generatívnej AI. ?udský ú?astník nie je len tvorcom, ale tiež pôsobí ako kurátor, editor a tlmo?ník.
„Dospeli sme k záveru, že takéto diela majú hybridnú povahu. Tým sa otvára dvere novým modelom„ distribuovaných “a„ zapletených “autorstiev, kde sa AI stáva ú?astníkom tvorivého procesu, ale kone?ná zodpovednos? za obsah zostáva u„ Human Researcher “, ktorá je v oblasti„ Human Researcher “, komentovaná Natalia Maslenkova.
Vedci sa tiež zameriavali na etické výzvy týkajúce sa používania AI pri písaní akademických textov. Varovali pred rizikami nových foriem akademického priestupku-napríklad v prípade, že osoba odovzdá úplne AI generovaný obsah ako svoj vlastný bez toho, aby splnila úlohu redaktora alebo zodpovedného autora.
„Naše závery môžu tvori? základ pre etické a právne normy, ktoré podporujú transparentnos? pri používaní AI a pomáhajú predchádza? zneužívaniu. Je to obzvláš? dôležité pre vzdelávanie, vedu a médiá, kde je otázka zodpovednosti za obsah generovaného AI rozhodujúca,“ dodala Maslenkova.
Pod?a univerzitných expertov spo?íva novos? ich štúdia v jeho multidisciplinárnom prístupe – pokra?uje nad rámec právnej analýzy, ktorá zah??a filozofické, sociokultúrne a právne perspektívy. Vedci spájajú sú?asné postupy AI s teóriami distribuovaného a sie?ového autorstva, ktoré ponúkajú hlbšie poznatky o tom, ako sa vyvíjajú ?udské a strojové úlohy pri tvorbe textu.
„AI je„ stochastický papagáj “, ktorý napodob?uje ?udskú re? založenú na štatistických vzorcoch. Jej„ subjektivita “je zatia? sociálnym konštruktom, ktorý odráža kolektívny vstup vývojárov a používate?ov,“ poznamenala Maslenkova.
?alšou výzvou pre výskumných pracovníkov je vypracovanie usmernení pre transparentné a zodpovedné využívanie generatívnych modelov vo vzdelávaní a akademickom publikovaní, ako aj študova?, ako sa rozvíjajú vnímanie autorstva rôznych sociálnych skupín spolu s šírením AI.
Zdroj sputnik, preložené cez google
