AI: Testa, testa – men glöm inte källkontroll!


Intresset var stort för semiariet AI for Aid.

Biståndsorganisationerna måste bli bättre på att prova och testa AI-tekniken. Men glöm inte att verifiera källorna. Det var några av slutsatserna från det avslutande seminariet i det AI-projekt som organisationerna Läkarmissionen, We Effect och ICLD genomfört med finansiering av Vinnova.

Samtliga artiklar om AI i Global Bar Magazine hittar du här

Tillsammans med organisationerna  Läkarmissionen, We Effect och Internationellt Centrum för Lokal Demokrati (ICLD) och Norrsken House arrangerade Global Bar Magazine ett seminarium den 19 november i Stockholm. Med över 90 anmälda sökte representanter från akademin, tekniksektorn och civilsamhällesorganisationer svar på hur AI kan användas för att ge ett så effektivt, säkert och transparent bistånd som möjligt. Dokumentationen från ett tidigare seminarium som hölls i september 2025 hittar du här.

Norrsken, som funnits i tio år och som även bedriver verksamhet i Kigali (Rwanda) och på flera andra ställen i Europa, är hem och inkubator för ett stort antal startup-företag.

– Vi vill skapa nya Unicorns – företag som når en världsledande position och många av de startups som finns här vill göra samma sak som ni, fast ur ett företagsperspektiv, konstaterade Norrskens marknads- och partnership-chef Pelle Tamleth som inledde seminariet.

Illustration: Shutterstock.

Pengar från Vinnova

Tre organisationer som gått i bräschen för att utveckla en AI anpassad för biståndsbraschens behov är Läkarmissionen, We Effect och Internationellt centrum för lokal demokrati (ICLD). De har med pengar från Vinnova och tillsammans med företaget Capgemini genomfört ett projekt för att skapa en AI som kunde användas av biståndsorganisationerna.

– Som organisationer samlar vi på oss en stor mängd data, men som vi ofta har svårt att göra tillgänglig och använda oss av. När ChatGPT dök upp så började jag fråga mig vad vi skulle kunna göra med vår egen data, sa Henrik Hansson, ansvarig för digitala projekt på Läkarmissionen.

Felicia Wede från ICLD menar att de som organisation hade liknande problem. Användningen av den nya AI- modellen använder hon mycket, både i ansökningar, planering och utvärdering.

– Den gör mitt arbete mer effektivt. Det är nya tider för de som arbetar med biståndet och vi behöver utveckla våra program för att bli mer effektiva.

AI-modellen som skapades för projektet bygger på ChatGPT, men är specifikt anpassat för organisationernas behov. Bland annat har de kunnat ladda upp sina egna interna filer, rapporter, policyer och projektsplaner. Det gör att modellen både kan sammanställa och dra slutsatser från organisationens kvalitativa information, och formulera den utifrån dennes syften.

För varje organisation ser källmaterialet alltså olika ut och utöver detta har modellen också tillgång till all information på internet. Genom att skapa sin egen modell kunde organisationerna också bygga in de funktioner de behövde för att den skulle vara användbar.

För Kate Broussard på We Effect så var tydliga källhänvisningar en förutsättning för att hennes organisation skulle kunna använda modellen. Ett problem hon lyfte   – och som många känner igen – var när AI-modellen börjar hallucinera.Risken finns enligt Kate Broussard att modellen till exempel hade kunnat hitta på ett resultat i kommunikation med en givare.

– Det hade kunnat vara direkt hotfullt för organisationens trovärdighet. Därför drev jag på för att få ett referenssystem i AI:n. Allt som AI tar fram måste kunna verifieras mot källor, sa hon.

Illustration: Shutterstock.

Var noggrann med dina källor

Kristina Knaving, forskare i AI etik på organisationen Rise, menar att det är viktigt att veta just vilket källmaterial det är AI:n utgår ifrån när man använder den.

– Det finns en tendens bland många företag som använt AI, till exempel i rekryteringsprocesser, att skylla på AI:n när den till exempel reproducerar stereotyper, sa hon.

Ett sånt synsätt är enligt henne ett fundamentalt missförstånd av hur stora språkmodeller (LLM) fungerar. Till skillnad från andra system som programmeras uppifrån så har generativa AI-modeller utvecklats av dem som använder det. Det betyder till viss del en demokratisering av processen eftersom data kommer in från , men också att den är bärare av sina användares världsbild, identitet och värderingar.

– Man kan hävda att de som tränade de första modellerna hade goda intentioner, men de tillhörde en mycket smal grupp – västerländska, liberala och högutbildade. Varje gång vi försöker tillämpa systemen i det globala syd blir de därför paternalistiska. Det finns en sorts ”White AI Saviour Complex” inbyggt i hela modellen som också gör den oanvändbar för många.

Utifrån detta menar Kristina Knaving att det för en biståndsorganisation som planerar ett projekt i ett afrikanskt land så kan en LLM-modell vara ett ganska dåligt val, då den bygger på bristande lokal data. Samtidigt kan internationella civilsamhällesorganisationers användning av AI i olika projekt leda till att mer data från andra delar av världen introduceras i systemen. Detta i kombination med initiativ från både Afrika och Asien där man samlar in muntlig data på fler språk och introducerar i AI-modeller möjliggör en mer inkluderande demokratisk AI i framtiden.

Vi närmar oss AI på fel sätt

Carl Norling Markai från AI Sweden, har jobbat specifikt med att utforma AI-policys för civilsamhällesorganisationer. Han menar att ett vanligt misstag som görs också är att man inte ser att olika modeller har olika syften. 

– Vi närmar oss AI på fel sätt. Det är som att säga att man använder telefonen, men i praktiken använder vi ju många olika appar. Vi skulle ju inte använda miniräknaren för att ringa ett samtal. På samma sätt har olika AI-modeller olika syften. 

Både Kristina och Carl menar därför att det är viktigt att förstå skillnaden mellan generella och specifika AI-modeller.

– Specifika modeller som bara har ett användningsområde är lätta att kontrollera eftersom man vet hur de kommer att användas. Mycket av reglering, till exempel i EU, grundar sig ju på det, konstaterade Kristina Knaving.

Hon menar att de så kallade Large Language Models – som chatgpt – fungerar på ett sätt som gör de mycket svårare att komma åt med lagstiftning då de kan både ta in och använda allt de kommer över.

Integritet och säkerhet

Ett problem som alla tre organisationerna i Vinnovaprojektet behövde ta ställning till var hur de skulle skydda känsliga uppgifter. Vissa projekt som innefattar människorättsaktivister eller krigsdrabbade länder kan innehålla information som kan utsätta andra för fara, om de hamnar i fel händer.

– Det skiljer sig mycket från organisation till organisation, vilken risktolerans man har. Vi bestämde oss till exempel för att all vår data inte kommer att hanteras i detta verktyg när vi genomförde pilotprogrammet, sa Henrik Hansson. 

Felicia Wede berättade att ICLD istället löst det genom att automatiskt ta bort personuppgifter innan dokument läggs in i modellen. We Effect har, enligt Kate Broussard, istället valt en så kallad silo-lösning där endast personer med inloggning kan nå modellen. De har också valt att inte lägga in vissa dokument innehållande känsliga uppgifter.

Behöver då organisationerna ha egna policies och strategier för hur de ska använda Ai? Ja, mennar både Carl Norling Markai och Kristina Knaving.

– Även om ni inte har en policy kommer medarbetare att använda tekniken eftersom de ser att den är effektiv. Risken då är att et blir en så kallad shadow technology, där organisationen inte vet eller har kontroll över de som vet . Problemet blir då att man inte har kontroll över det, menade Carl Norling Markai.

Han har varit med och skapat guidelines för organisationer som vill skapa ett policydokument för AI-användning. Utifrån dessa hoppas han att organisationer kan få hjälp att ta ställning till sina risker och behov så AI kan vara en resurs.

När det gäller integritet och säkerhet menar Kristina Knavin också att kunskap om modellernas olika specialiteter kan vara en förutsättning för hur man ska kunna förstå de risker som uppstår.

– Det finns många exempel på när folk har använt LLM för att sortera listor på människor med hemliga identiteter, eftersom de är så bra på att organisera data. Så bristen på kunskap kan leda till att människor utsätts för risker, menade Kristina Knavin.

Så kan AI stärka demokratin

Via en inspelad presentation som du kan se nedan deltog också Audrey Tang, Taiwans första digitaliseringsminister, “civic hacker”, och Right livelihood Laureates 2025. Hen har uppmärksammats för sitt arbete med att omforma sociala medier för att främja ett demokratiskt samtal.

– Min filosofi är att AI kan och måste vara assisterad intelligens och bidra till att världen blir en bättre plats genom att fungera som en katalysator för mångfald. Det innebär att gå bortom enkel konsensus till verklig mångfald, där teknologiska verktyg förstärker snarare än överröstar unika perspektiv, sa Audrey Tang bland annat.

Organisationerna i Vinnovaprojektet ser också att användningen av AI kan ha demokratiska fördelar. Till exempel menar Kate Broussard att det är viktigt att de är transparenta med sitt arbete för allmänheten. Detta speciellt i en tid då branschen är ifrågasatt.

–  Vi har ett socialt kontrakt inom vårt arbete. Vi, som sektor, behöver visa avkastningen på våra investeringar och kommunicera våra resultat – och det är något som detta verktyg kan hjälpa oss med. Vi behöver nå människor på ett transparent och trovärdigt sätt, konstaterade hon.

seminariet avslutades av Läkarmissionens generalsekreterare Josephine Sundqvist som menade att organisationerna måste öka tempot:

– Tekniken är här och vi kan inte stå vid sidan om och vänta. Istället måste vi inom civilsamhället bli snabbare – och vi måste bli bättre på att samarbete med startup-företag, forskare och andra, menade hon.

Här kan du läsa en dokumention på engelska från seminariet

Ida Thunborg

Läs också

Uppläsning av artikel

GRATIS NYHETSBREV – ANMÄL DIG HÄR!

* indicates required

Global Bar Magazine följer utvecklingen i världen. Du får våra senaste rapporteringar direkt i din inkorg.

Dina uppgifter används endast för att ge dig nyheter från Global Bar Magazine och Global Bar. Du kan avbryta din prenumeration genom att klicka på unsubscribe-länken i sidfoten på nyhetsbrevet.

We use Mailchimp as our marketing platform. By clicking below to subscribe, you acknowledge that your information will be transferred to Mailchimp for processing. Learn more about Mailchimp's privacy practices here.