V porastu so z umetno inteligenco ustvarjeni ali spremenjeni posnetki, znani kot globoki ponaredki, ki vključujejo tudi podobe otrok. Ti ponaredki pogosto vsebujejo t.i. razgaljanje, kjer UI s fotografij odstrani ali spremeni oblačila resničnih oseb, da ustvari izmišljene gole ali seksualizirane podobe. Po podatkih raziskave Unicefa, organizacije za boj proti spolnim zlorabam otrok ECPAT in Europola, je bilo v 11 državah najmanj 1,2 milijona otrok žrtev tovrstnih globokih ponaredkov.
Slovenska policija je že odprla več primerov, povezanih z globokimi ponaredki, kjer so bile uporabljene podobe otrok. Kot je sporočil Robert Tekavec, vodja oddelka za mladoletniško kriminaliteto na Upravi kriminalistične policije, so te seksualizirane podobe otrok, ustvarjene ali prirejene z UI, oblika spolnega izkoriščanja.
“Zloraba z globokimi ponaredki je zloraba. In škoda, ki jo povzroča, je resnična, ne ponarejena,”
so poudarili iz Unicef Slovenije.
Unicef poziva k ukrepanju
Unicef je pozval vlade po vsem svetu, naj globoke ponaredke prepoznajo kot material za zlorabe otrok. Njihovo ustvarjanje, pridobivanje, posredovanje in razpečevanje bi moralo biti opredeljeno kot kaznivo dejanje. Poleg tega so razvijalce UI pozvali k razvoju orodij z ustrezno zaščito, ki bi preprečila zlorabe modelov UI. Unicef je izpostavil tudi pomembnost uvajanja varnostnih pristopov že pri zasnovi ter vzpostavitve trdnih zaščitnih mehanizmov za preprečevanje zlorabe sistemov.
Unicef pozdravlja prizadevanja tistih razvijalcev, ki se že trudijo uveljaviti varnostne ukrepe v svoje sisteme. S tem želijo zagotoviti zaščito otrok pred nevarnostmi, ki jih prinaša nenadzorovana uporaba umetne inteligence za ustvarjanje škodljivih vsebin.
Spletno uredništvo Naša Ljubljana










