V četrtek je avstrijska nevladna organizacija za varstvo zasebnosti, Noyb, vložila pritožbo zoper ChatGPT, jezikovni model podjetja OpenAI. Primer, ki je sprožil pritožbo, vključuje norveškega uporabnika Arveja Hjalmara Holmena, ki je avgusta lani vprašal ChatGPT za informacije o sebi. Presenetljivo je robot iznašel zgodbo, da je Holmen umoril svoja otroka.
Klepetalni roboti, kot je ChatGPT, so sposobni “halucinirati” oziroma izmišljati podatke. V Holmenovem primeru je ChatGPT pravilno navedel število in spol njegovih otrok ter njegov domači kraj, kar je zaskrbljujoče. “Najbolj me plaši dejstvo, da bi lahko ta izpis nekdo prebral in mu verjel,” je poudaril Holmen.
Pravni ukrepi in zahteve
Organizacija Noyb je pritožbo podala na norveški organ za varstvo podatkov, Datatilsynet, in zahteva, da OpenAI prejme globo ter da se iz obtoženih podatkov umaknejo neprimerne vsebine. Noyb trdi, da OpenAI krši načelo točnosti podatkov iz Splošne uredbe o varstvu podatkov (GDPR).
Poudarek na točnosti podatkov
Joakim Söderberg, odvetnik Noyb, je izjavil, da majhna izjava o omejitvi odgovornosti, ki opozarja na možnost lažnih podatkov, ni dovolj. “Ne moreš kar širiti lažnih informacij in na koncu dodati majhno izjavo o omejitvi odgovornosti,” je poudaril. Uredba GDPR jasno zahteva, da morajo osebni podatki biti točni, kar pomeni, da imajo uporabniki pravico do zahtevka po spremembi, ki bo odražala resnico.
Pretekli incidenti in širši vpliv
To ni prvič, da je Noyb vložil pritožbo zoper ChatGPT. Prejšnje leto so podobno pritožbo vložili na avstrijski organ za varstvo podatkov, ko si je ChatGPT izmislil rojstni datum ustanovitelja organizacije, Maxa Schremsa. Evropski nacionalni organi za varstvo podatkov so leta 2023 ustanovili delovno skupino, ki bi usklajevala postopke na področju varstva podatkov, uvedene zoper ChatGPT.
Umetna inteligenca in njene omejitve
Dr. Domen Mongus, profesor na Fakulteti za elektrotehniko, računalništvo in informatiko v Mariboru, pojasnjuje, da jezikovni modeli pri generiranju rezultatov pogosto delajo napake. “Ker tovrstni modeli ne razumejo vsebine, govorimo o ‘haluciniranju’, ko ustvarijo neresnično besedilo,” je dejal Mongus. Razlogi za te napake lahko izvirajo iz neuravnoteženih učnih vzorcev ali nezmožnosti modela, da pravilno prepozna kontekst skozi celotno generiranje besedila.
Umetna inteligenca je sposobna narediti velike korake, a včasih stopi tudi na stran pota. 🧠🔍
Spletna uredništvo