Zaradi obsežnosti prometa se je Facebook že zdavnaj odločil, da bo del odgovornosti za nadzor primernosti vsebin zaupal uporabnikom. Ti lahko nevšečne objave prijavijo, nato pa jih podjetje preuči in presodi, ali jih je treba odstraniti. Kljub obsežnosti bi umetna inteligenca z jasnimi in enostavnimi pravili brez težav opravila nalogo, a razlika med primerno vsebino in neprimerno je pogosto tako subtilna, da ima s presojanjem težave celo človeška inteligenca moderatorjev, ki jih je podjetje najelo za pregledovanje prijavljenih vsebin.

Koliko časa lahko mine, preden podjetje odstrani neprimerno objavo, smo v Sloveniji spoznali ob nedavnem dogodku v Podbočju, ko sta moška do smrti pretepla osebo in vse skupaj v živo prenašala prek facebooka. Posnetek je policiji precej olajšal delo in tudi žrtvi napada je precej izboljšal možnosti za preživetje (ta je v bolnišnici podlegel ranam). Hkrati je posnetek med slovenskimi uporabniki kljub številnim prijavam krožil več kot deset ur ter ob tem imel 250.000 ogledov in dobil okoli 400 všečkov. Podobno se je zgodilo v ZDA, ko je Facebook potreboval tri ure, da je umaknil posnetek umora, na Tajskem pa je posnetek očetovega umora hčere krožil debelih 24 ur.

Med razloge za takšne zamude gre šteti tudi zavestno odločitev, da Facebook s svojega družbenega omrežja ne bo odstranil vseh posnetkov nasilja. Podjetje je namreč ponosno, da omogoča širjenje vsebin, ki ozaveščajo javnost o različnih vprašanjih. Zato dovoli objave nasilja nad protestniki in zatiranimi, saj ocenjuje, da tako pomaga žrtvam. Posnetki policijskih streljanj in ubojev temnopoltih Američanov so sprožili številne preiskave, do katerih verjetno ne bi prišlo. Kot opozarja nedavno Guardianovo razkritje Facebookovih smernic za delo moderatorjev, pa se morajo slednji zaradi množice objav, ki čakajo na pregled, o njihovi primernosti pogosto odločiti v vsega desetih sekundah.

Poleg posnetkov fizičnega nasilja nad ljudmi se morajo odločati tudi o primernosti fizičnega nasilja nad živalmi (ali gre za posnetke, ki ozaveščajo o problematiki nasilja v živilski industriji), med fotografijami neprimerne golote in dovoljenimi fotografijami golih staroselcev, med fotografijami in posnetki otrok ter pedofilijo, pornografijo in umetnostjo, resnimi grožnjami z nasiljem in troli, nagovarjanjem k prostituciji in pogovori med partnerji… Pri Guardianu so iz pridobljenih dokumentov razbrali, da moderatorji vsak mesec preučijo 54.000 potencialnih primerov objav intimnih posnetkov z namenom maščevanja ali spolnega izsiljevanja. Januarja je podjetje moralo ukiniti 14.000 uporabniških računov zaradi spolnih zlorab. Med njimi je bilo 33 primerov, ko so bili vpleteni otroci.

Kako subtilne so lahko razlike med primernimi in neprimernimi objavami, razkrivajo nekateri primeri, navedeni v priročnikih za delo moderatorjev. Fotografije golih dojenčkov in novorojenčkov so denimo dovoljene, razen če je objektiv posebej izostril genitalije. Ročno in digitalno izdelane upodobitve (slike, skulpture…) golote so dovoljene. Dovoljene so tudi ročno izdelane upodobitve spolnosti, niso pa dovoljene digitalno izdelane upodobitve spolnosti. Kaj vse opredeljujejo kot spolnost, ni povsem jasno, so pa pri podjetju moderatorjem v preteklosti svetovali, naj izbrišejo prijavljene objave slavnih umetniških del, na primer Giambolognovega kipa Ugrabitev Sabink in slikarskih del z motivom ugrabitve Evrope.

Glede na zgoraj omenjene smernice bi umetniška dela po novem znala biti dovoljena, veliko zmede in vroče krvi glede moderiranja objav pa izvira tudi iz nejasnosti statusa družbenega omrežja. Facebook trdi, da ni tradicionalni medij in da zanj ne veljajo ista pravila, medtem ko mnogi menijo, da je in da se ne trudi dovolj oziroma ni dovolj uspešen pri urednikovanju objavljenih vsebin – naj gre za sporno goloto, nasilje ali lažne novice. Guardianov anonimni vir opozarja, zakaj je tako: »Facebook ne zmore nadzirati svojih vsebin. Prehitro je postal prevelik.«