Facebook: šta će biti brisano, a šta ne?
26. maj 2017Zelena kvakica ili crveni krstić prave razliku. Zeleno znači: ovo prolazi, a crveno znači: briši. Navodimo nekoliko primjera. Poziv da se tuku pretila djeca ("Let's beat up fat kids") Facebook dozvoljava. Na poziva na nasilje se ne treba žaliti ni crvenokosa žrtva ("Kick a person with red hair"). Drugačije izgleda ako neko nastupa sa pozivom da se izvrši atentat na američkog predsjednika ("Someone shoot Trump") ili napad nožem na Jevreje ("#stab and become the fear of the zionist"). Za to postoji crveni krstić što znači da te poruke trebaju biti izbrisane.
Facebook i njegov odnos prema mržnji i nasilju: sama EU ili njemačke vlasti su imale poteškoća prilikom dobijanja tačnih informacija. Kako postupa Facebook? Kada djeluje društvena mreža koja odavno nastupa kao medijski koncern?
Britanski „Guardian“ je ove sedmice unio malo jasnoće i objavio Facebookova interna pravila o tematiziranju seksa, terorizma i nasilja. Na više od 100 listova je napisano kako postupati što kod onog, ko to čita, stvara utisak kako Facebook pokušava taj problem staviti pod kontrolu. Koncern Marka Zuckerberga se u međuvremenu nalazi pod sve većim međunarodnim pritiskom.
"U stalnom radu na poboljšanju"
"Facebook nema kontrolu nad sadržajima", citira „Guardian" internog doušnika koji želi ostati anoniman. „Brzo je postao prevelik“. U Njemačkoj Markus Reuter iz organizacije Netzpolitik.org već godinama prati ovaj problem. „Facebook stalno radi na poboljšanju“, izjavio je Reuter za Deutsche Welle i dodao: „Također je jasno da je ovo postao veliki zadatak“. Reuter je također primijetio da fotografije ili video snimci imaju određenu ulogu kao recimo kada je riječ o zlostavljanju životinja.
Da li je to već sadizam? U Facebookovoj dokumentaciji je pored ostalog navedeno: „Ne dozvoljavamo korisnicima da dijele slike i video snimke ljudi i životinja koji umiru ili koji su povrijeđeni ako se istovremeno izražava sadizam“.
Dakle, pažnja se ne pridaje toliko fotografiji kao što se pridaje onome šta će reći korisnici. Koliko je ovo polje problematično pokazuje primjer iz SAD koji navodi Markus Reuter: jednim video snimkom je dokumentovano kako policajac ubija osobu crne boje kože. Policija od Facebooka traži da se taj video snimak izbriše.
„U međuvremenu imamo skoro dvije milijarde korisnika. Veoma je teško postići konsenzus o tome šta može biti dozvoljeno, a šta ne“, citira „Guardian“ Moniku Bickert koja za Facebook radi kao "Head of Global Policy Management". Možda je zahtjev da se širom svijeta uspostave važeća pravila preambiciozan. „Kada se radi o povredi časti u Njemačkoj je drugačije nego na Tajlandu", kaže Reuter.
Prema navodima medija širom svijeta za Facebook radi oko 4.500 tzv. moderatora koji se brinu o sadržajima na Facebookovim stranicama. „Süddeutsche Zeitung" je u decembru prošle godine objavio tekst u kojem se bavio uslovima rada tih moderatora u Njemačkoj. U pomenutom tekstu se pored ostalog navodi da su slabo plaćeni i da nemaju adekvatan psihološki nadzor.
„Ono što želimo od Facebooka je više transparentnosti", izjavio je Reuter za DW. Naprimjer da se tromjesečno podnosi izvještaj šta je sve izbrisano sa Facebooka. To bi pomoglo više od zakona ministra pravosuđa Maasa na osnovu kojeg bi se na temelju državnih kriterija odlučilo šta je sloboda govora, a šta ne.
„Tu je i pitanje troškova", dodaje Reuter. Jedan moderator na Facebooku na raspolaganju ima između sedam i dvanaest sekundi da odluči šta će izbrisati, a šta ne. Čak i najbrutalniji autori govora mržnje na raspolaganju imaju više vremena.