Facebook inför restriktioner för livestreams efter terrordådet i Nya Zeeland

Bild: TY Lim / Shutterstock
Bild: TY Lim / Shutterstock (Foto: Shutterstock)

Initiativet vid namn Christchurch Call, som leds av de nyzeeländska och franska regeringarna, uppmanar andra världsledare och teknikjättar att vara mer vaksamma när det kommer till att kontrollera livestreams på sociala medier. Även om USA:s regering vägrat att svara på uppmaningen, har Facebook gått med på att göra några mindre förändringar i sättet de hanterar sin plattform.

Två månader efter de fruktansvärda masskjutningarna vid två Christchurch-moskéer som ledde till 50 människors död, har Facebook infört något de kallar för en "One strike"-policy, som kommer att kontrollera vem som kan använda deras tjänst för livestreaming.

Enligt uttalandet i deras blogginlägg, kommer den sociala mediejätten att banna alla användare som bryter mot deras Facebook Live-regler under en viss tidsperiod.

"Från och med nu kommer alla som bryter mot våra mest allvarliga policyer att begränsas från att använda Live under en viss period (för exempelvis under 30 dagar) redan från deras första förseelse. Om en användare exempelvis skulle dela en länk till ett uttalande från en terroristgrupp utan något sammanhang, kommer denna omedelbart att blockeras från att använda Live under en viss tid", förklarar Facebooks VD för integritet, Guy Rosen.

(OBS. Länkar i denna artikel kan vara skrivna på engelska).

Kommer det att vara tillräckligt?

Även om samma begränsningar gäller för Facebooks Dangerous Individuals and Organizations-policy (en ny metod företaget använde för att blockera personer som Alex Jones och Milo Yiannopoulos från Facebook och Instagram tidigare den här månaden), har den sociala mediejätten varken specificerat exakt hur länge dessa blockeringar kommer att gälla eller vilka regler som måste brytas för att resultera i ett permanent förbud.

Rosen säger att dessa restriktioner även kommer att tillämpas på andra delar av plattformen "under de kommande veckorna" och kommer exempelvis att blockera användare som brutit mot Facebooks Community Standards från att lägga ut annonser på hemsidan.

Facebooks användning av artificiell intelligens för att upptäcka och ta bort farligt innehåll på plattformen har visat sig vara otillräcklig. I ett försök att förbättra detta, meddelar Rosen att företaget kommer att investera cirka 7,5 miljoner dollar för att "förbättra teknologin för bild- och videoanalys".

Amanda Westberg
Content manager

Amanda Westberg älskar allt som har med gaming att göra och skriver gärna om nya spel, streams och e-sport. Som träningsfreak har hon även en förkärlek för smartklockor och håller alltid koll på de senaste modellerna och spännande nya funktioner. Filmer, serier och streamingtjänster ligger också högt upp på hennes topplista på saker att skriva om.