Fabio Lauria

Maskiner som (också) lär sig av våra misstag Bumerangeffekten: vi lär AI:n våra fel och den ger oss dem tillbaka... mångfaldigade!

13 april 2025
Dela på sociala medier

Några ny forskning har belyst ett intressant fenomen: det finns ett "dubbelriktat" förhållande mellan de fördomar som finns i modeller för artificiell intelligens och de som finns i det mänskliga tänkandet.

Denna interaktion skapar en mekanism som tenderar att förstärka kognitiva snedvridningar i båda riktningarna.

Denna forskning visar att AI-system inte bara ärver mänskliga fördomar från träningsdata, utan när de implementeras kan de intensifiera dem, vilket i sin tur påverkar människors beslutsprocesser. Detta skapar en cykel som, om den inte hanteras på rätt sätt, riskerar att successivt öka de ursprungliga fördomarna.

Detta fenomen är särskilt tydligt inom viktiga sektorer som t.ex:

Inom dessa områden kan små initiala fördomar förstärkas genom upprepade interaktioner mellan mänskliga operatörer och automatiserade system, och gradvis omvandlas till betydande skillnader i resultat.

Fördomarnas ursprung

I mänskligt tänkande

Den mänskliga hjärnan använder sig naturligt av "tankegenvägar" som kan leda till systematiska fel i våra bedömningar. Teorin om "dubbelt tänkande"skiljer mellan:

  • Snabbt och intuitivt tänkande (benägen att göra stereotypa bedömningar)
  • Långsamt och reflekterande tänkande (förmåga att korrigera fördomar)

Till exempel inom det medicinska området tenderar läkare att lägga för stor vikt vid initiala hypoteser och bortse från motbevis. Detta fenomen, som kallas "confirmation bias", replikeras och förstärks av AI-system som tränas på historiska diagnostiska data.

I AI-modeller

Maskininlärningsmodeller upprätthåller fördomar främst genom tre kanaler:

  1. Obalanserade utbildningsdata som återspeglar historiska ojämlikheter
  2. Urval av egenskaper som innehåller skyddade attribut (t.ex. kön eller etnicitet)
  3. Återkopplingsloopar till följd av interaktioner med redan snedvridna mänskliga beslut

En 2024 UCL-studie visade att ansiktsigenkänningssystem som tränats på känslomässiga bedömningar som gjorts av människor ärvde en 4,7-procentig tendens att märka ansikten som "ledsna", och sedan förstärkte denna tendens till 11,3 procent i efterföljande interaktioner med användare.

Hur de förstärker varandra

Dataanalys av rekryteringsplattformar visar att varje samarbetscykel mellan människa och algoritm ökar könsfördelningen med 8-14% genom ömsesidigt förstärkande återkopplingsmekanismer.

När HR-personal från AI får listor med kandidater som redan påverkats av historiska fördomar, förstärker deras efterföljande interaktioner (t.ex. valet av intervjufrågor eller prestationsutvärderingar) förvrängda representationer av modellen.

En metaanalys av 47 studier från 2025 visade att tre omgångar av samarbete mellan människa och AI ökade de demografiska skillnaderna med 1,7-2,3 gånger inom områden som hälso- och sjukvård, utlåning och utbildning.

Strategier för att mäta och mildra fördomar

Kvantifiering genom maskininlärning

Det ramverk för att mäta partiskhet som föreslås av Dong m.fl. (2024) gör det möjligt att upptäcka partiskhet utan att behöva använda etiketter med "absolut sanning" genom att analysera skillnader i beslutsmönster mellan skyddade grupper.

Kognitiva interventioner

Tekniken "algoritmisk spegel", som utvecklats av UCL-forskare, minskade könsfördelningen i befordringsbeslut med 41% genom att visa cheferna hur deras historiska val skulle se ut om de gjordes av ett AI-system.

Utbildningsprotokoll som växlar mellan IA-assistans och självständigt beslutsfattande är särskilt lovande och minskar effekterna av biasöverföring från 17% till 6% i kliniska diagnostiska studier.

Konsekvenser för samhället

Organisationer som implementerar AI-system utan att ta hänsyn till interaktioner med mänskliga fördomar utsätts för ökade juridiska och operativa risker.

En analys av mål om diskriminering i arbetslivet visar att AI-assisterade rekryteringsprocesser ökar målsägarnas framgång med 28 procent jämfört med traditionella människoledda mål, eftersom spår av algoritmiska beslut ger tydligare bevis för ojämlik påverkan.

Mot en artificiell intelligens som respekterar frihet och effektivitet

Sambandet mellan algoritmiska snedvridningar och begränsningar av valfriheten kräver att vi tänker om kring den tekniska utvecklingen utifrån ett perspektiv av individuellt ansvar och värnande om marknadens effektivitet. Det är viktigt att se till att AI blir ett verktyg för att utöka möjligheterna, inte begränsa dem.

Lovande anvisningar inkluderar:

  • Marknadslösningar som ger incitament till utveckling av opartiska algoritmer
  • Ökad transparens i automatiserade beslutsprocesser
  • Avreglering som främjar konkurrens mellan olika tekniska lösningar

Endast genom en ansvarsfull självreglering inom branschen, i kombination med valfrihet för användarna, kan vi säkerställa att teknisk innovation fortsätter att vara en motor för välstånd och möjligheter för alla dem som är villiga att sätta sina färdigheter på prov.

Fabio Lauria

VD & Grundare | Electe Electe

Jag är VD för Electe och hjälper små och medelstora företag att fatta datadrivna beslut. Jag skriver om artificiell intelligens i affärsvärlden.

Mest populära
Registrera dig för de senaste nyheterna

Få nyheter och insikter varje vecka i din inkorg
. Gå inte miste om något!

Tack så mycket! Din ansökan har tagits emot!
Oops! Något gick fel när du skickade in formuläret.