Opis
V prispevku je analiziran pravni okvir Evropske unije za urejanje vsebin, ki jih na platformah družbenih medijev ustvarjajo uporabniki. Začne s prikazom razvoja praks moderiranja vsebin na platformah družbenih medijev in opiše prehod od samoregulacije uporabniških vsebin s strani platform k bolj strukturiranim pravnim okvirom. Ključni poudarek je na tem, ali obstoječi zakonodajni okvir ustrezno obravnava družbena tveganja, izhajajoča iz vsebin, ki jih ustvarijo uporabniki. Članek pokaže, da zakonodaja Evropske unije - Akt o digitalnih storitvah (DSA) - platformam sicer nalaga obveznosti v zvezi z odstranjevanjem nezakonite vsebine, ki jo ustvarijo uporabniki, pri urejanju škodljive, vendar zakonite vsebine, pa je zakonodaja pomanjkljiva, saj je moderiranje takšne vsebine v veliki meri prepuščeno platformam samim. To kaže na vrzel v pristopu Evropske unije k spletni varnosti, zlasti glede na edinstvene značilnosti digitalnega okolja, v katerem je možnost škode pogosto povečana na načine, ki se bistveno razlikujejo od analognega sveta. Članek v zaključku poudarja potrebo po robustnejšem regulativnem okviru, ki presega zgolj uskladitev spletnih predpisov z normativi zunaj spleta. Preizprašuje, ali načelo, da, mora biti “vse, kar je nezakonito v analognem, nezakonito tudi v digitalnem okolju”, v zadostni meri obravnava zapletenost digitalnega okolja. Članek predlaga, da se v prihodnjih predpisih sprejme metodologija ocenjevanja škode, ki omogoča ustrezno presojanje posledic škodljivih, vendar zakonitih vsebin. Poudarja, da se je še posebej pomembno osredotočiti na zmanjševanje tveganj, ki jih povzroča algoritemsko ojačevanje določenih vsebin (ki razkriva, da posredniki igrajo več kot zgolj nevtralno vlogo), ter izpostavlja potrebo po obravnavi širših družbenih učinkov škodljivih vsebin, ki jih ustvarjajo uporabniki, vključno s škodo tretjim osebam.