Alig pár napja, hogy az amerikai Steve Stephens egy borzalmas látnivalót ígért a Facebook követőinek: azt hogy élő közvetítésben fog megölni egy embert. Milliók figyelték a közösségi oldalon keresztül, ahogy a clevelandi belvárosban végzett a 74 éves Robert Godwinnal.
Zuckerbergék oldala rendkívül lassan reagált a tragédiára: több mint két órába telt mire az anyagot eltávolították. Az áldozat unokája a Twitteren könyörgött az embereknek, hogy ne osszák meg a megrázó felvételt. „Ez a nagyapám, mutassatok tiszteletet” – írta Ryan A. Godwin.
Azóta fellángolt a társadalmi vita a közösségi oldalak körül. „Ezek a platformok arra bíztatják a felhasználóikat, hogy produkálják magukat” – mondja Elizabeth Joh, a Kaliforniai Egyetem jogi professzora.
Többen is felhívták rá a figyelmet, hogy már korábban is voltak Stephenséhez hasonló esetek. Januárban például három svéd fiatal megerőszakolt egy nőt a tettüket pedig videón egy privát Facebook csoportnak közvetítették. Februárban a Dominikai Köztársaságban pedig két riportert lőttek le miközben Facebook Live-on tartottak közvetítést.
Ahhoz, hogy hasonló esetek ne fordulhassanak elő, szükség lenne a felkerülő tartalmak gyors, azonnali ellenőrzésére. De ez fizikailag jó formán lehetetlen. A közel két milliárd felhasználó tevékenységét már most is figyeli néhány mesterséges intelligenciával megáldott program, és persze pár emberi moderátor, de ez láthatóan nem elég. Utóbbiak figyelnek rá, hogy mikről érkeznek bejelentések, de a döntéseik sokszor népszerűtlenek. Tavaly például a Facebookon eltávolították azt a Pulitzer díjas fényképet, ami a Vietnámi háború idején készült és egy meztelen kislányt ábrázol, aki egy napalm támadás elől menekül. De a moderátori döntést annyi kritika érte, hogy a képet végül visszaállították.
A tartalmak kezelése persze nem csak a Facebooknál okoz gondot. Pár hete robbant ki a Youtube körül a botrány, amiért a vádak szerint rasszista videók mellett is megjelentették néhány nagy cég reklámját. A felhasználói tartalmak hatékony szűrésére egyelőre úgy tűnik nincs igazán jó megoldás.