Newsletter

Maskiner som (också) lär sig av våra misstag Bumerangeffekten: vi lär AI:n våra fel och den ger oss dem tillbaka... mångfaldigade!

AI ärver våra fördomar - och förstärker dem sedan. Vi ser de partiska resultaten - och förstärker dem. En självmatande cykel. En UCL-studie: en 4,7% bias i ansiktsigenkänning ökade till 11,3% efter interaktioner mellan människa och AI. Inom HR ökar varje cykel könsfördelningen med 8-14 %. De goda nyheterna? Tekniken med en "algoritmisk spegel" - som visar cheferna hur deras val skulle se ut om de gjordes av en AI - minskar fördomarna med 41%.

Några ny forskning har belyst ett intressant fenomen: det finns ett "dubbelriktat" förhållande mellan de fördomar som finns i modeller för artificiell intelligens och de som finns i det mänskliga tänkandet.

Denna interaktion skapar en mekanism som tenderar att förstärka kognitiva snedvridningar i båda riktningarna.

Denna forskning visar att AI-system inte bara ärver mänskliga fördomar från träningsdata, utan när de implementeras kan de intensifiera dem, vilket i sin tur påverkar människors beslutsprocesser. Detta skapar en cykel som, om den inte hanteras på rätt sätt, riskerar att successivt öka de ursprungliga fördomarna.

Detta fenomen är särskilt tydligt inom viktiga sektorer som t.ex:

Inom dessa områden kan små initiala fördomar förstärkas genom upprepade interaktioner mellan mänskliga operatörer och automatiserade system, och gradvis omvandlas till betydande skillnader i resultat.

Fördomarnas ursprung

I mänskligt tänkande

Den mänskliga hjärnan använder sig naturligt av "tankegenvägar" som kan leda till systematiska fel i våra bedömningar. Teorin om "dubbelt tänkande"skiljer mellan:

  • Snabbt och intuitivt tänkande (benägen att göra stereotypa bedömningar)
  • Långsamt och reflekterande tänkande (förmåga att korrigera fördomar)

Till exempel inom det medicinska området tenderar läkare att lägga för stor vikt vid initiala hypoteser och bortse från motbevis. Detta fenomen, som kallas "confirmation bias", replikeras och förstärks av AI-system som tränas på historiska diagnostiska data.

I AI-modeller

Maskininlärningsmodeller upprätthåller fördomar främst genom tre kanaler:

  1. Obalanserade utbildningsdata som återspeglar historiska ojämlikheter
  2. Urval av egenskaper som innehåller skyddade attribut (t.ex. kön eller etnicitet)
  3. Återkopplingsloopar till följd av interaktioner med redan snedvridna mänskliga beslut

En 2024 UCL-studie visade att ansiktsigenkänningssystem som tränats på känslomässiga bedömningar som gjorts av människor ärvde en 4,7-procentig tendens att märka ansikten som "ledsna", och sedan förstärkte denna tendens till 11,3 procent i efterföljande interaktioner med användare.

Hur de förstärker varandra

Dataanalys av rekryteringsplattformar visar att varje samarbetscykel mellan människa och algoritm ökar könsfördelningen med 8-14% genom ömsesidigt förstärkande återkopplingsmekanismer.

När HR-personal får listor från AI över kandidater som redan påverkats av historiska fördomar, förstärker deras efterföljande interaktioner (t.ex. valet av intervjufrågor eller prestationsutvärderingar) modellens fördomsfulla representationer.

En metaanalys av 47 studier från 2025 visade att tre omgångar av samarbete mellan människa och AI ökade de demografiska skillnaderna med 1,7-2,3 gånger inom områden som hälso- och sjukvård, utlåning och utbildning.

Strategier för att mäta och mildra fördomar

Kvantifiering genom maskininlärning

Det ramverk för att mäta partiskhet som föreslås av Dong m.fl. (2024) gör det möjligt att upptäcka partiskhet utan att behöva använda etiketter med "absolut sanning" genom att analysera skillnader i beslutsmönster mellan skyddade grupper.

Kognitiva interventioner

Tekniken "algoritmisk spegel", som utvecklats av UCL-forskare, minskade könsfördelningen i befordringsbeslut med 41% genom att visa cheferna hur deras historiska val skulle se ut om de gjordes av ett AI-system.

Utbildningsprotokoll som växlar mellan IA-assistans och självständigt beslutsfattande är särskilt lovande och minskar effekterna av biasöverföring från 17% till 6% i kliniska diagnostiska studier.

Konsekvenser för samhället

Organisationer som implementerar AI-system utan att ta hänsyn till interaktioner med mänskliga fördomar utsätts för ökade juridiska och operativa risker.

En analys av mål om diskriminering i arbetslivet visar att AI-assisterade rekryteringsprocesser ökar målsägarnas framgång med 28 procent jämfört med traditionella människoledda mål, eftersom spår av algoritmiska beslut ger tydligare bevis för ojämlik påverkan.

Mot en artificiell intelligens som respekterar frihet och effektivitet

Sambandet mellan algoritmiska snedvridningar och begränsningar av valfriheten kräver att vi tänker om kring den tekniska utvecklingen utifrån ett perspektiv av individuellt ansvar och värnande om marknadens effektivitet. Det är viktigt att se till att AI blir ett verktyg för att utöka möjligheterna, inte begränsa dem.

Lovande anvisningar inkluderar:

  • Marknadslösningar som ger incitament till utveckling av opartiska algoritmer
  • Ökad transparens i automatiserade beslutsprocesser
  • Avreglering som främjar konkurrens mellan olika tekniska lösningar

Endast genom en ansvarsfull självreglering inom branschen, i kombination med valfrihet för användarna, kan vi säkerställa att teknisk innovation fortsätter att vara en motor för välstånd och möjligheter för alla dem som är villiga att sätta sina färdigheter på prov.

Resurser för företagstillväxt

9 november 2025

AI-reglering för konsumenttillämpningar: Hur man förbereder sig för de nya förordningarna från 2025

2025 markerar slutet på "vilda västern"-eran för AI: AI Act EU i drift från augusti 2024 med skyldigheter för AI-kunskap från 2 februari 2025, styrning och GPAI från 2 augusti. Kalifornien är pionjärer med SB 243 (som kom till efter Sewell Setzers självmord, en 14-åring utvecklade en känslomässig relation med en chatbot) som förbjuder tvångsmässiga belöningssystem, upptäckt av självmordstankar, påminnelse var tredje timme om att "jag är inte mänsklig", oberoende offentliga revisioner, straffavgifter på 1 000 USD/överträdelse. SB 420 kräver konsekvensbedömningar för "automatiserade beslut med hög risk" med rätt till överklagande av mänsklig granskning. Verklig verkställighet: Noom citerade 2022 för bots som passerade som mänskliga tränare, förlikning 56 miljoner dollar. Nationell trend: Alabama, Hawaii, Illinois, Maine, Massachusetts klassificerar underlåtenhet att meddela AI-chatbots som UDAP-överträdelse. Tredelad strategi för riskkritiska system (sjukvård/transport/energi), certifiering före driftsättning, transparent information till konsumenter, registrering för allmänna ändamål + säkerhetstestning. Lapptäcke av regelverk utan federalt företräde: företag i flera delstater måste navigera bland olika krav. EU från augusti 2026: informera användare om AI-interaktion om det inte är uppenbart, AI-genererat innehåll märkt maskinläsbart.
9 november 2025

Reglering av det som inte skapas: riskerar Europa att bli tekniskt irrelevant?

Europa drar bara till sig en tiondel av de globala investeringarna i artificiell intelligens, men gör anspråk på att diktera globala regler. Detta är "Brysseleffekten" - att införa regler på en planetär skala genom marknadsmakt utan att driva på innovation. AI-lagen träder i kraft enligt en förskjuten tidtabell fram till 2027, men multinationella teknikföretag svarar med kreativa strategier för att kringgå lagen: de åberopar affärshemligheter för att undvika att avslöja utbildningsdata, de producerar tekniskt kompatibla men obegripliga sammanfattningar, de använder självutvärdering för att nedgradera system från "hög risk" till "minimal risk" och de väljer medlemsländer med mindre stränga kontroller. Paradoxen med extraterritoriell upphovsrätt: EU kräver att OpenAI ska följa europeiska lagar även för utbildning utanför Europa - en princip som aldrig tidigare förekommit i internationell rätt. Den "dubbla modellen" växer fram: begränsade europeiska versioner kontra avancerade globala versioner av samma AI-produkter. Verklig risk: Europa blir en "digital fästning" isolerad från global innovation, med europeiska medborgare som får tillgång till sämre teknik. EU-domstolen har i kreditvärderingsfallet redan avvisat försvaret med "affärshemligheter", men tolkningsosäkerheten är fortfarande enorm - vad exakt innebär "tillräckligt detaljerad sammanfattning"? Det är det ingen som vet. En sista obesvarad fråga: skapar EU en etisk tredje väg mellan amerikansk kapitalism och kinesisk statskontroll, eller exporterar man helt enkelt byråkrati till ett område där man inte konkurrerar? För tillfället: världsledande inom AI-reglering, marginell inom dess utveckling. Stort program.
9 november 2025

Outliers: När datavetenskap möter framgångssagor

Datavetenskapen har vänt upp och ner på paradigmet: avvikande värden är inte längre "fel som ska elimineras" utan värdefull information som ska förstås. En enda avvikelse kan helt förvränga en linjär regressionsmodell - ändra lutningen från 2 till 10 - men att eliminera den kan innebära att man förlorar den viktigaste signalen i datasetet. Maskininlärning introducerar sofistikerade verktyg: Isolation Forest isolerar outliers genom att bygga slumpmässiga beslutsträd, Local Outlier Factor analyserar lokal densitet, Autoencoders rekonstruerar normala data och rapporterar det som de inte kan reproducera. Det finns globala outliers (temperatur -10°C i tropikerna), kontextuella outliers (spendera 1.000 euro i ett fattigt område), kollektiva outliers (synkroniserade spikar i trafiknätet som indikerar attack). Parallell med Gladwell: "10.000-timmarsregeln" är omtvistad - Paul McCartney dixit "många band har spelat 10.000 timmar i Hamburg utan framgång, teorin är inte ofelbar". Asiens matematiska framgångar är inte genetiska utan kulturella: det kinesiska numeriska systemet är mer intuitivt, risodling kräver ständiga förbättringar jämfört med det västerländska jordbrukets territoriella expansion. Verkliga tillämpningar: brittiska banker återhämtar 18% potentiella förluster via anomalidetektering i realtid, tillverkningsindustrin upptäcker mikroskopiska defekter som en mänsklig inspektion skulle missa, sjukvården validerar data från kliniska prövningar med en känslighet för anomalidetektering på över 85%. Sista lärdomen: när datavetenskapen går från att eliminera avvikelser till att förstå dem måste vi se okonventionella karriärer inte som avvikelser som ska korrigeras utan som värdefulla banor som ska studeras.