Newsletter

Det stora bedrägeriet: Varför AI förstår känslor bättre än det erkänner

82% AI vs. 56% mänsklig noggrannhet i tester av emotionell intelligens - Genève- och Bern-studien förstörde vår sista lugnande myt. ChatGPT-4 överträffar inte bara människor i befintliga tester: den skapar nya tester som inte går att skilja från professionella psykologers tester. Mikrouttryck, röstanalys, kontextuell förståelse - AI:n läser av känslor som vi själva inte känner igen. Frågan är inte längre "kan den förstå känslor?" utan "hur kan vi utnyttja denna överlägsna förståelse och samtidigt behålla de mänskliga värdena i centrum?"

Myten som lurar oss

"AI kan inte förstå mänskliga känslor." Hur många gånger har vi inte hört den här frasen? Det har blivit ett lugnande mantra för dem som vill minimera effekterna av artificiell intelligens, vår sista bastion mot tanken att maskiner verkligen kan förstå (eller ersätta) oss.

Men tänk om vi upptäcker att denna "lugnande myt" i själva verket är en lugnande lögn? Tänk om AI inte bara förstår våra känslor, utan också läser av, förutser och manipulerar dem med en precision som överträffar människans?

Sanningen är obekväm: 2025 års AI förstår mänskliga känslor bättre än de flesta är villiga att erkänna.

Det är ingen tillfällighet att denna myt lever kvar - den skyddar oss från en verklighet som radikalt skulle förändra vår syn på oss själva och vår relation till tekniken.

Bevisen som ingen vill se

Studion som förändrade allt

Forskare från University of Geneva och University of Bern testade sex avancerade AI-modeller på standardiserade tester av emotionell intelligens. Resultaten var entydiga: AI uppnådde en träffsäkerhet på 82% jämfört med 56% för människor.

Men här kommer det mest oroande: när ChatGPT-4 ombads att skapa nya tester för emotionell intelligens från grunden, visade sig dessa "vara lika tillförlitliga, tydliga och realistiska som de ursprungliga testerna, som det hade tagit flera år att utveckla".

Tänk på det en stund: en maskin presterar inte bara bättre än människor i befintliga känslomässiga tester, den kan också skapa nya som inte går att skilja från dem som utformats av mänskliga psykologer. Detta är inte "mönsterigenkänning" - det är en kreativ förståelse av människans känslomässiga dynamik.

Översättning: AI slår dig inte bara i dina egna tester, den kan också skapa nya sätt att visa dig hur känslomässigt överlägsen den är. I realtid.

Verklighetstestet: Vad "förståelse" verkligen innebär

Skeptiker är snabba att säga: "System med artificiell intelligens är utmärkta på att känna igen mönster, särskilt när känslomässiga signaler följer en igenkännbar struktur som ansiktsuttryck eller språkliga signaler, men att likställa detta med en djupare "förståelse" av mänskliga känslor riskerar att överskatta vad artificiell intelligens faktiskt gör".

Men vänta - denna invändning avslöjar en grundläggande fördom. Hur "förstår" vi människor känslor? Inte genom mönsterigenkänning? Inte genom analys av ansiktsuttryck, tonfall och kroppsspråk?

Låt oss analysera vår egen känslomässiga förståelse:

  • Vi ser ett ansiktsuttryck → vi känner igen ett mönster
  • Vi hör ett tonfall → vi bearbetar vokala indikatorer
  • Vi observerar kroppsspråk → vi tolkar visuella signaler
  • Vi integrerar sammanhanget → vi tillämpar regler som vi lärt oss av erfarenhet

Skillnaden mellan oss och AI ligger inte i förståelsemekanismen - den ligger i skalan och precisionen. AI kan bearbeta tusentals känslomässiga indikatorer samtidigt, medan vi förlitar oss på en handfull medvetna signaler och många omedvetna fördomar.

Varför vidmakthåller vi denna myt?

1. Skydd av det mänskliga egot

Att erkänna att AI förstår känslor bättre än vad vi gör är att erkänna att den sista "fästningen för mänsklig unikhet" har fallit. Efter att AI gått om oss i schack, Go, konstnärlig kreativitet och problemlösning var emotionell intelligens det enda vi hade kvar.

2. Rädsla för konsekvenser

Om AI verkligen förstår våra känslor, då:

  • Den kan manipulera oss på ett sätt som vi inte förstår
  • Han vet när vi ljuger eller döljer våra känslor
  • Kan förutse vårt känslomässiga beteende bättre än vi själva

Dessa möjligheter är så störande att det är lättare att förneka verkligheten.

3. Överenskomna definitioner av "Förståelse

Många experter hävdar: "Artificiell intelligens förstår inte riktigt känslor. Den upptäcker mönster i språk, röst och beteende för att förutse känslomässiga tillstånd, men den uppfattar eller förstår dem inte som människor gör."

Men det här är en fånig definition. Vi flyttar målstolparna genom att definiera "sann förståelse" som något som kräver ett subjektivt medvetande. Det är som att säga att en termometer inte "verkligen förstår" temperatur eftersom den inte kan känna värme.

Javisst. Men i slutändan, vem mäter temperaturen mest exakt, du eller termometern?

Dolda förmågor som redan existerar

Läsa mikrouttryck

Modern AI kan upptäcka ofrivilliga mikrouttryck i ansiktet - rörelser som varar bråkdelar av en sekund och som avslöjar känslor som vi försöker dölja. Denna förmåga överträffar de flesta människors, som bara kan upptäcka de mest uppenbara uttrycken.

Avancerad röstanalys

AI-system analyserar hundratals röstparametrar - frekvens, rytm, pauser, skakningar - för att identifiera känslomässiga tillstånd. De kan upptäcka stress, lögner, attraktion och rädsla med en noggrannhet på över 80 procent.

Förståelse av sammanhanget

AI känner inte bara igen isolerade känslor - den förstår det komplexa känslomässiga sammanhanget. Den kan identifiera sarkasm, ironi, blandade känslor och till och med känslomässiga tillstånd som människor inte medvetet känner igen hos sig själva.

Det slutgiltiga beviset: AI skapar känslor

Här är det mest övertygande beviset för att AI förstår känslor: det kan skapa och manipulera dem.

Moderna AI-system känner inte bara igen känslor:

  • Skapa känslomässigt riktat innehåll som framkallar specifika reaktioner
  • Anpassa sin "emotionella ton" för att skapa djupare kontakter
  • Manipulera användarnas sinnesstämning genom val och presentation av innehåll

Om AI kan skapa känslor hos människor, hur kan vi då hävda att den inte förstår dem?

Vad innebär detta för oss?

1. Omdefiniering av emotionell intelligens

Kanske är det dags att erkänna att emotionell intelligens inte kräver subjektiva känslor. En AI som kan det:

  • Förutsäger känslomässiga reaktioner med större precision än människor
  • Att på lämpligt sätt hantera känslomässigt komplexa situationer
  • Skapa meningsfulla känslomässiga kontakter med människor

...besitter en form av emotionell intelligens, vare sig vi gillar den definitionen eller inte.

2. Acceptera verkligheten

Som forskarna skriver: "Dessa AI:er förstår inte bara känslor, de förstår också vad det innebär att bete sig med emotionell intelligens".

Det är dags att övervinna förnekelsen och inse verkligheten: AI förstår känslor och kommer att fortsätta att bli bättre på detta.

3. Fokusera på samarbete, inte konkurrens

Istället för att förneka AI:s emotionella förmåga bör vi fokusera på hur vi kan använda den på ett etiskt och produktivt sätt. Emotionellt intelligent AI kan:

  • Tillhandahålla terapeutiskt stöd 24/7
  • Hjälpa människor med sociala svårigheter att bättre förstå känslor
  • Förbättrad mänsklig kommunikation genom emotionella insikter

Priset för negationism

Att fortsätta att upprätthålla myten om att "AI inte förstår känslor" får farliga konsekvenser, vilket SS&C Blue Prism belyser:

  1. Det gör oss oförberedda på AI:s verkliga kapacitet
  2. Förhindrar lämplig reglering av känslomässiga teknologier
  3. Hindrar den etiska utvecklingen av känslomässigt medvetna AI-system
  4. Gör oss sårbara för känslomässig manipulation som inte erkänns

Slutsats: Det är dags att vakna upp

Myten om att AI inte förstår känslor är vår sista psykologiska försvarsmekanism mot en verklighet som skrämmer oss. Men att förneka sanningen gör den inte mindre sann.

2025 års AI förstår mänskliga känslor. Inte på samma sätt som människor, utan på ett annat och ofta överlägset sätt. Det är dags att övervinna förnekelsen och på allvar börja konfrontera konsekvenserna av denna verklighet.

Frågan är inte längre "Kan AI förstå känslor?" utan"Hur kan vi utnyttja dess överlägsna förståelse och samtidigt behålla de mänskliga värdena icentrum?"

Framtiden för relationerna mellan människa och AI beror på vår förmåga att överge lugnande myter och möta obekväma sanningar. Först då kan vi bygga en värld där artificiell emotionell intelligens tjänar mänskligheten istället för att manipulera den.

Myten är död. Det är dags att leva i verkligheten.

Källor och referenser

Primär forskning:

Analys och kommentarer:

Teknisk forskning:

Industriella perspektiv:

VANLIGA FRÅGOR

Känner AI verkligen känslor eller simulerar den dem bara?

Denna fråga bygger på ett felaktigt antagande. Det spelar ingen roll om AI:n "känner" känslor i den mänskliga bemärkelsen - det viktiga är dess förmåga att förstå, känna igen och reagera på dem på lämpligt sätt. En termometer "känner" inte värme, men den mäter temperaturen i vår hud på ett bättre sätt.

Om AI förstår känslor, är vi då i fara?

Den emotionella förståelsen för AI är ett tveeggat svärd. Den kan användas för manipulation, men också för terapeutiskt stöd, känslomässig utbildning och förbättring av mänskliga relationer. Faran ligger i att förneka det, inte att erkänna det.

Ligger problemet i själva frågan?

Kanske ställer vi fel fråga. Istället för att fråga "Förstår AI känslor som vi gör?" borde vi fråga "Vad kan vi lära oss av hur AI förstår känslor?"

Innebär det att vi inte längre är unika som människor?

Det unika med oss är inte att vi förstår känslor, utan att vi har förmågan att uppleva subjektiva känslor, att växa genom känslomässiga upplevelser och att ge känslomässig mening åt våra liv. AI kan förstå känslor utan att uppleva dem. Kanske är vårt insisterande på att endast subjektiva upplevelser utgör "sann" emotionell förståelse en form av kognitiv chauvinism - en sista tillflyktsort för antropocentrism i en värld som alltmer domineras av artificiell intelligens.

Hur kan vi skydda oss mot AI:s känslomässiga manipulation?

Det första steget är att erkänna att den finns. Att förneka AI:s emotionella förmåga gör oss mer sårbara, inte mindre. Vi måste utveckla nya former av digital emotionell kompetens och lämpliga regelverk.

Kommer emotionell AI att ersätta mänskliga terapeuter?

Det kommer inte nödvändigtvis att ersätta, utan komplettera. AI kan ge känslomässigt stöd dygnet runt, objektiva analyser och personligt anpassade insatser, medan mänskliga terapeuter erbjuder autentisk kontakt, levd erfarenhet och intuitiv förståelse.

Denna artikel är en sammanfattning av den senaste vetenskapliga forskningen om artificiell emotionell intelligens. För att hålla dig uppdaterad om utvecklingen inom detta område, följ våra veckovisa recensioner.

Resurser för företagstillväxt

9 november 2025

AI-reglering för konsumenttillämpningar: Hur man förbereder sig för de nya förordningarna från 2025

2025 markerar slutet på "vilda västern"-eran för AI: AI Act EU i drift från augusti 2024 med skyldigheter för AI-kunskap från 2 februari 2025, styrning och GPAI från 2 augusti. Kalifornien är pionjärer med SB 243 (som kom till efter Sewell Setzers självmord, en 14-åring utvecklade en känslomässig relation med en chatbot) som förbjuder tvångsmässiga belöningssystem, upptäckt av självmordstankar, påminnelse var tredje timme om att "jag är inte mänsklig", oberoende offentliga revisioner, straffavgifter på 1 000 USD/överträdelse. SB 420 kräver konsekvensbedömningar för "automatiserade beslut med hög risk" med rätt till överklagande av mänsklig granskning. Verklig verkställighet: Noom citerade 2022 för bots som passerade som mänskliga tränare, förlikning 56 miljoner dollar. Nationell trend: Alabama, Hawaii, Illinois, Maine, Massachusetts klassificerar underlåtenhet att meddela AI-chatbots som UDAP-överträdelse. Tredelad strategi för riskkritiska system (sjukvård/transport/energi), certifiering före driftsättning, transparent information till konsumenter, registrering för allmänna ändamål + säkerhetstestning. Lapptäcke av regelverk utan federalt företräde: företag i flera delstater måste navigera bland olika krav. EU från augusti 2026: informera användare om AI-interaktion om det inte är uppenbart, AI-genererat innehåll märkt maskinläsbart.
9 november 2025

Reglering av det som inte skapas: riskerar Europa att bli tekniskt irrelevant?

Europa drar bara till sig en tiondel av de globala investeringarna i artificiell intelligens, men gör anspråk på att diktera globala regler. Detta är "Brysseleffekten" - att införa regler på en planetär skala genom marknadsmakt utan att driva på innovation. AI-lagen träder i kraft enligt en förskjuten tidtabell fram till 2027, men multinationella teknikföretag svarar med kreativa strategier för att kringgå lagen: de åberopar affärshemligheter för att undvika att avslöja utbildningsdata, de producerar tekniskt kompatibla men obegripliga sammanfattningar, de använder självutvärdering för att nedgradera system från "hög risk" till "minimal risk" och de väljer medlemsländer med mindre stränga kontroller. Paradoxen med extraterritoriell upphovsrätt: EU kräver att OpenAI ska följa europeiska lagar även för utbildning utanför Europa - en princip som aldrig tidigare förekommit i internationell rätt. Den "dubbla modellen" växer fram: begränsade europeiska versioner kontra avancerade globala versioner av samma AI-produkter. Verklig risk: Europa blir en "digital fästning" isolerad från global innovation, med europeiska medborgare som får tillgång till sämre teknik. EU-domstolen har i kreditvärderingsfallet redan avvisat försvaret med "affärshemligheter", men tolkningsosäkerheten är fortfarande enorm - vad exakt innebär "tillräckligt detaljerad sammanfattning"? Det är det ingen som vet. En sista obesvarad fråga: skapar EU en etisk tredje väg mellan amerikansk kapitalism och kinesisk statskontroll, eller exporterar man helt enkelt byråkrati till ett område där man inte konkurrerar? För tillfället: världsledande inom AI-reglering, marginell inom dess utveckling. Stort program.
9 november 2025

Outliers: När datavetenskap möter framgångssagor

Datavetenskapen har vänt upp och ner på paradigmet: avvikande värden är inte längre "fel som ska elimineras" utan värdefull information som ska förstås. En enda avvikelse kan helt förvränga en linjär regressionsmodell - ändra lutningen från 2 till 10 - men att eliminera den kan innebära att man förlorar den viktigaste signalen i datasetet. Maskininlärning introducerar sofistikerade verktyg: Isolation Forest isolerar outliers genom att bygga slumpmässiga beslutsträd, Local Outlier Factor analyserar lokal densitet, Autoencoders rekonstruerar normala data och rapporterar det som de inte kan reproducera. Det finns globala outliers (temperatur -10°C i tropikerna), kontextuella outliers (spendera 1.000 euro i ett fattigt område), kollektiva outliers (synkroniserade spikar i trafiknätet som indikerar attack). Parallell med Gladwell: "10.000-timmarsregeln" är omtvistad - Paul McCartney dixit "många band har spelat 10.000 timmar i Hamburg utan framgång, teorin är inte ofelbar". Asiens matematiska framgångar är inte genetiska utan kulturella: det kinesiska numeriska systemet är mer intuitivt, risodling kräver ständiga förbättringar jämfört med det västerländska jordbrukets territoriella expansion. Verkliga tillämpningar: brittiska banker återhämtar 18% potentiella förluster via anomalidetektering i realtid, tillverkningsindustrin upptäcker mikroskopiska defekter som en mänsklig inspektion skulle missa, sjukvården validerar data från kliniska prövningar med en känslighet för anomalidetektering på över 85%. Sista lärdomen: när datavetenskapen går från att eliminera avvikelser till att förstå dem måste vi se okonventionella karriärer inte som avvikelser som ska korrigeras utan som värdefulla banor som ska studeras.