Det företag som rensat kommentarsfälten hos Facebook och Instagram i Afrika avsäger sig uppdraget. Människorättsgrupper varnar nu för att hot, hat och desinformation kan komma att spridas fritt på kontinenten.
Det kenyanska företaget Sama meddelade den 10 januari att de inte längre kommer moderera innehållet på företaget Metas plattformar Facebook, WhatsApp och Instagram.
Företaget säger upp tre procent av sina anställda, cirka 200 personer, för att öka effektiviteten. De kommer att fortsätta att tillhandahålla datamärkningstjänster för Meta.
Meddelandet kom samtidigt som både Sama och Meta står inför en rättegång om påstådda arbetsmissförhållande och de anklagas för att ha hindrat anställda från att bilda fackföreningar i Kenya. I en annan rättsprocess anklagas Meta för att ha tillåtit våldsbejakande inlägg att cirkulera på Facebook, något som rättighetsgrupper menar ska ha spätt på konflikten i grannlandet Etiopien. Både Sama och Meta har avvisat anklagelserna.
Aktivister har beskrivit Metas insats för att förhindra skadligt innehåll på den afrikanska marknaden som sorgligt. Företaget satsar mer i rikare länder, och människorättsgrupper har uppmanat företaget att drastiskt förbättra sina modereringsprocess.
– Samas utträde innebär en chans för Meta att rätta till saker och ting och se till att de som arbetar med moderering i Afrika får bättre arbetsvillkor, säger Bridget Andere, politiskanalytiker med fokus på Afrika som jobbar på Access Now.
Bridget Andere säger också att Meta borde öka antalet personer som jobbar med moderering i regionen och att de måste täcka in lokala språk och dialekter. Hon kräver även ökad transparens när det gäller företagets algoritmer som hon tycker bidrar till skadligt innehåll.
Meta gav inga detaljer om huruvida de hade hittat en ny partner som kan jobba med moderering i Östafrika, men de har sagt att Samas utträde inte skulle påverka användarna negativt.
– Vi respekterar Samas beslut att dra sig ur. Vi kommer att samarbeta med våra partners under denna övergång och se till att det inte påverkar vår förmåga att granska innehåll, säger Metas talesperson.
Juridiska utmaningar
De juridiska utmaningarna för Meta i Östafrika började i maj förra året efter att en tidigare anställd, Daniel Motaung, lämnat in en stämningsansökan om dåliga arbetsförhållande i Kenya.
I stämningsansökan, som också lämnades in mot Sama, hävdar han att anställda fick oregelbundna löner, otillräckligt stöd för psykisk hälsa. Fackliga initiativ motarbetades och anställda ska ha utsatts för kränkande behandling.
Sama förnekar anklagelserna och Meta säger att de kräver att deras partner ska förse anställda med branschledande löner, förmåner och stöd.
I slutet av 2022 drabbades Meta av ytterligare anklagelser om att företaget ska ha tillåtit våldsamma inlägg spridas på Facebook och på så sätt underblåst Etiopiens inbördeskrig.
I stämningen som lämnades in av två etiopiska forskare och Kenyas rättighetsgrupp Katiba Institutes, står det att Facebooks algoritmer förstärkte hatiska och våldsamma inlägg i Etiopien vilket föranledde mordet på den ena forskarens far.
Målsägande kräver att Meta stoppar våldsbejakande innehåll, öka antalet moderatorer i Nairobi och skapa en fond på cirka två miljarder dollar för de som fallit offer för våld som hetsas upp på Facebook.
Meta säger att det har strikta regler för vad som är tillåtet och inte tillåtet på Facebook och Instagram.
– Hatretorik och våldsbejakande inlägg bryter mot dessa regler, och vi investerar mycket i vårt team och vår teknik för att hitta och ta bort sådant innehåll. Vårt säkerhets- och integritetsarbete i Etiopien styrs av feedback från lokala organisationer i det civila samhället och internationella institutioner, säger Metas talesperson.
Målsägande kräver att Meta stoppar våldsbejakande innehåll, öka antalet moderatorer i Nairobi och skapa en fond på cirka två miljarder dollar för de som fallit offer för våld som hetsas upp på Facebook.
Avsluta outsourcing, granska algoritmer
Tusentals moderatorer över hela världen jobbar med att granska inlägg på sociala medier som kan innehålla våld, nakenhet, rasism eller annat som strider mot reglerna. Många arbetar för underkonsulter snarare än direkt för techjätten. Detta är inte heller första gången Meta anklagas för att deras moderatorer arbetar under dåliga förhållanden och för att de inte lyckas stoppa hat och hot online.
I juli 2021 godkände en domare i Kalifornien en uppgörelse på 85 miljoner dollar mellan Facebook och mer än 10 000 medarbetare som anklagade företaget för att de drabbats av psykisk ohälsa efter att ha blivit exponerade för explicita och våldsamma bilder i sitt jobb.
Samma år stämde rohingya-flyktingar från Myanmar Meta på 150 miljarder dollar för att företaget inte vidtagit åtgärder mot hatpropaganda riktat mot rohingyas, vilket de menade hade lett till våld mot minoritetsgruppen.
Kritiker säger att modereringen misslyckas för att de som jobbar med det inte förstår specifika kulturella och samhälleliga sammanhang. Det i kombination med en bristande kunskap om lokala språk och dialekter gör att problematiskt innehåll snabbt kan spridas och föra med sig allvarliga konsekvenser.
Cori Crider är direktör för den Londonbaserad gruppen Foxglove som arbetar för teknisk rättvisa. Han säger att de stöttar rättsprocesserna i Kenya och uppmanar Meta att sluta använda sig av underleverantörer och istället bygga egen kapacitet för att kunna hantera innehållet på plattformarna i Afrika.
– Facebook borde ta ett steg tillbaka internt genom att anställa var och en av de 260 innehållsmoderatorerna i Nairobi som gör ett viktigt säkerhetsarbete och värdesätter dessa människor med anständiga löner, fullt kliniskt stöd för mental hälsa och värdighet samt prestige, säger Crider.
Alia Al Ghussain, forskare inom AI och mänskliga rättigheter på Amnesty International, säger att Facebooks algoritmer som styr nyhetsflödet, rankningen, rekommendationerna och gruppfunktionerna och formar vad användarna ser på plattformen också behövde granskas.
– Metas engagemang baserade affärsmodell innebär att algoritmerna är programmerade för att få skadligt och upphetsande innehåll att bli viralt, säger Alia Al Ghussain.
”De tvister som vi ser både i fallet med Etiopien och Myanmar visar tydligt att problemet är systematiskt och att det är brådskande att ta itu med det genom reglering.”
Nita Bhalla
Thomson Reuters Foundation