Newsletter

Glaspärlspelet

En kritisk analys av moderna algoritmer som, precis som i Hermann Hesses verk, går vilse i komplexiteten och glömmer bort mänskligheten. En revolutionerande metafor: när AI riskerar att förlora mänskligheten i algoritmernas labyrint.

HermannHesse hade rätt: alltför komplexa intellektuella system riskerar att koppla bort sig från verkligheten. Idag löper AI samma risk som i "Glaspärlspelet" när den optimerar självrefererande mått istället för att tjäna mänskligheten.

Men Hesse var en romantiker från 1900-talet som föreställde sig ett tydligt val: den intellektuella Castalia kontra den mänskliga världen. Vi lever i en mer nyanserad verklighet: en samevolution där ”interaktioner med sociala robotar eller AI-chattbottar kan påverka våra uppfattningar, attityder och sociala interaktioner” samtidigt som vi formar de algoritmer som formar oss.Överdriven beroende av ChatGPT eller liknande AI-plattformar kan minska en individs förmåga att tänka kritiskt och utveckla självständigt tänkande", men samtidigt utvecklar AI alltmer mänskliga förmågor till kontextuell förståelse.

Det handlar inte om att "sätta människan i centrum igen", utan om att medvetet besluta om och var denna ömsesidiga omvandling ska stoppas.

Castalias värld: En metafor för det moderna tekniska ekosystemet

1943 publicerade Hermann Hesse "Glasperlenspiel" (Glaspärlspelet), en profetisk roman som utspelar sig i en avlägsen framtid. I centrum för berättelsen står Castalia, en utopisk provins som är isolerad från omvärlden av fysiska och intellektuella murar, där en intellektuell elit ägnar sig uteslutande åt att söka ren kunskap.

Castalias hjärta är ett mystiskt och oändligt komplext spel: Glaspärlspelet. Reglerna förklaras aldrig helt, men vi vet att det representerar "en sammanfattning av all mänsklig kunskap" – spelarna etablerar relationer mellan ämnen som till synes är mycket avlägsna från varandra (en Bach-konsert och en matematisk formel, till exempel). Det är ett system av extraordinär intellektuell finess, men helt abstrakt.

När man idag betraktar ekosystemet för de stora teknikföretagen är det svårt att inte se en digital Castalia: företag som skapar allt mer sofistikerade algoritmer, optimerar allt mer komplexa mätvärden, men ofta tappar bort det ursprungliga målet – att tjäna människor i den verkliga världen.

Josef Knecht och det upplysta teknikerns syndrom

Romanens huvudperson är Josef Knecht, en föräldralös pojke med exceptionella talanger som blir den yngste Magister Ludi (spelets mästare) i Castalias historia. Knecht utmärker sig i Glasperlenspiel som ingen annan, men börjar gradvis uppleva torrheten i ett system som, trots att det är perfekt, är helt frikopplat från verkligheten.

I diplomatiska kontakter med omvärlden – särskilt med Plinio Designori (hans studiekamrat som representerar den ”normala” världen) och fader Jacobus (en benediktinsk historiker) – börjar Knecht inse att Castalia, i sin strävan efter intellektuell perfektion, har skapat ett sterilt och självrefererande system.

Analogin med modern AI är slående: hur många algoritmutvecklare, som Knecht, inser att deras system, hur tekniskt sofistikerade de än må vara, har tappat kontakten med människors verkliga behov?

Ineffektiva konvergenser: När algoritmer optimerar felaktiga mätvärden

Amazon: Rekrytering som upprepar det förflutna 2018 upptäckte Amazon att deras automatiska rekryteringssystem systematiskt diskriminerade kvinnor. Algoritmen straffade CV:n som innehöll ordet ”kvinnor” och nedvärderade kvinnor med examen från kvinnliga universitet.

Det var inte ett "moraliskt misslyckande" utan ett optimeringsproblem: systemet hade blivit oerhört bra på att replikera mönster från historiska data utan att ifrågasätta effektiviteten hos dessa mål. Precis som i Spelet med glaspärlorna var det tekniskt perfekt men funktionellt sterilt – det optimerade för "överensstämmelse med det förflutna" istället för "teamets framtida prestanda".

Apple Card: Algoritmer som ärver systemiska fördomar 2019 hamnade Apple Card under utredning när det uppdagades att kortet tilldelade drastiskt lägre kreditgränser till fruar, trots att de hade samma eller högre kreditbetyg.

Algoritmen hade lärt sig att "spela" perfekt enligt finanssystemets osynliga regler, som byggde på årtionden av historisk diskriminering. Precis som Castalia, som hade "fastnat i föråldrade positioner", upprätthöll systemet ineffektiviteter som den verkliga världen höll på att övervinna. Problemet var inte algoritmens intelligens, utan måttstockens olämplighet.

Sociala medier: Oändligt engagemang kontra hållbar välfärd Sociala medier representerar den mest komplexa konvergensen: algoritmer som kopplar samman innehåll, användare och känslor på allt mer sofistikerade sätt, precis som Spelet med glaspärlorna som skapade "relationer mellan till synes mycket avlägsna individer".

Resultatet av att optimera för "engagemang" istället för "hållbar välfärd": tonåringar som tillbringar mer än 3 timmar om dagen på sociala medier löper dubbelt så stor risk att drabbas av psykiska problem. Den problematiska användningen har ökat från 7 % 2018 till 11 % 2022.

Lärdom: Det är inte så att dessa system är "omoraliska", utan att de optimerar för proxy istället för för verkliga mål.

Effektiva konvergenser: När optimering fungerar

Medicin: Mätvärden i linje med konkreta resultat AI inom medicinen visar vad som händer när konvergensen mellan människa och algoritm utformas för mätvärden som verkligen betyder något:

  • Viz.ai minskar tiden för behandling av stroke med 22,5 minuter – varje minut som sparas innebär räddade nervceller.
  • Lunit upptäcker bröstcancer upp till 6 år tidigare – tidig diagnos räddar liv
  • Royal Marsden NHS använder AI som är "nästan dubbelt så noggrann som en biopsi" för att bedöma tumörens aggressivitet

Dessa system fungerar inte för att de är "mer mänskliga", utan för att måttet är tydligt och entydigt: patientens hälsa. Det finns ingen diskrepans mellan vad algoritmen optimerar och vad människor verkligen vill.

Spotify: Anti-Bias som konkurrensfördel Medan Amazon upprepade tidigare fördomar, insåg Spotify att diversifiering av rekryteringen är en strategisk fördel. De kombinerar strukturerade intervjuer med AI för att identifiera och korrigera omedvetna fördomar.

Det är inte altruism utan systemisk intelligens: olika team presterar bättre, så att optimera för mångfald är att optimera för prestanda. Konvergens fungerar eftersom den anpassar moraliska mål och affärsmål.

Wikipedia: Skalbar balans Wikipedia visar att det är möjligt att upprätthålla komplexa system utan självreferenser: det använder avancerad teknik (AI för moderering, algoritmer för rankning) men förblir troget målet om "tillgänglig och verifierad kunskap".

I över 20 år har han visat att teknisk sofistikation + mänsklig övervakning kan förhindra Castalias isolering. Hemligheten: mätningen sker utanför själva systemet (nyttan för läsaren, inte förbättring av det interna spelet).

Mönstret för effektiva konvergenser

System som fungerar har tre gemensamma egenskaper:

  1. Icke-självreflekterande mått: Optimera för resultat i verkligheten, inte för perfektion inom systemet.
  2. Externa återkopplingsloopar: De har mekanismer för att kontrollera om de verkligen uppnår de uppsatta målen.
  3. Adaptiv utveckling: De kan ändra sina parametrar när omständigheterna förändras.

Det är inte så att Amazon, Apple och sociala medier har "misslyckats" – de har helt enkelt optimerat för andra mål än de som angivits. Amazon ville ha effektivitet i rekryteringen, Apple ville minska kreditrisken, sociala medier ville maximera användningstiden. De har lyckats perfekt.

"Problemet" uppstår först när dessa interna mål kommer i konflikt med bredare sociala förväntningar. Systemet fungerar när dessa mål är samstämmiga, men blir ineffektivt när de inte är det.

Knechts val: Att lämna Castalia

I romanen gör Josef Knecht det mest revolutionerande man kan tänka sig: han avsäger sig sin tjänst som Magister Ludi för att återvända till den verkliga världen som lärare. Det är en handling som ”bryter en sekellång tradition”.

Knechts filosofi: Castalia har blivit sterilt och självrefererande. Den enda lösningen är att överge systemet för att återknyta kontakten med den äkta mänskligheten. Ett binärt val: antingen Castalia eller den verkliga världen.

Jag ser det annorlunda.

Det finns ingen anledning att lämna Castalia – jag trivs där. Problemet är inte systemet i sig, utan hur det optimeras. Istället för att fly från komplexiteten föredrar jag att hantera den medvetet.

Min filosofi: Castalia är inte i sig sterilt – det är bara dåligt konfigurerat. Lösningen är inte att lämna det, utan att utvecklas inifrån genom pragmatisk optimering.

1. Två epoker, två strategier (tidningssektion)

Knecht (1943): Humanist från 1900-talet

  • ✅ Problem: Självreflekterande system
  • ❌ Lösning: Återgå till förteknologisk äkthet
  • Metod: Dramatisk flykt, personlig uppoffring
  • Kontext: Industriell era, mekanisk teknik, binära val

Jag (2025): Etik i den digitala tidsåldern

  • ✅ Problem: Självreflekterande system
  • ✅ Lösning: Omdesigna optimeringsparametrarna
  • Metod: Utveckling inifrån, adaptiv iteration
  • Kontext: Informationsåldern, adaptiva system, möjliga konvergenser

Skillnaden ligger inte mellan etik och pragmatism, utan mellan två etiska tillvägagångssätt som passar olika epoker. Hesse verkade i en värld av statisk teknik där det bara verkade finnas två valmöjligheter.

Knechts ironi

I romanen drunknar Knecht kort efter att han lämnat Castalia. Det ironiska är att han flyr för att "återansluta sig till det verkliga livet", men hans död orsakas av hans oerfarenhet i den fysiska världen.

Hesse föreställde sig 1943 en dikotomi: antingen Castalia (ett perfekt men sterilt intellektuellt system) eller den yttre världen (mänsklig men oorganiserad). Hans "principer" härrör från denna moraliska syn på konflikten mellan intellektuell renhet och mänsklig äkthet.

Lärdomen för 2025: Den som flyr från komplexa system utan att förstå dem riskerar att vara ineffektiv även i den ”enkla” världen. Det är bättre att bemästra komplexiteten än att fly från den.

Att bygga människocentrerad AI: Lärdomarna från Hesse kontra verkligheten 2025

Principen om "öppna dörrar"

Hesses intuition: Castalia misslyckas eftersom det isolerar sig bakom murar. AI-system måste ha "öppna dörrar": transparens i beslutsprocesserna och möjlighet till mänsklig överprövning.

Implementering 2025: Principen om strategisk observerbarhet

  • Icke-transparens för att lugna, men för att optimera prestandan
  • Dashboards som visar konfidensnivåer, mönsterigenkänning, avvikelser
  • Gemensamt mål: undvika självreferentialitet
  • Annan metod: operativa mått istället för abstrakta principer

Plinio Designoris test

Hesses intuition: I romanen representerar Designori den "normala världen" som utmanar Castalia. Varje AI-system bör klara "Designori-testet": vara begripligt för dem som inte är tekniska experter.

Implementering 2025: Test av operativ kompatibilitet

  • Inte universell förklarbarhet, utan gränssnitt som skalar med kompetens
  • Modulära användargränssnitt som anpassar sig efter operatörens kunskapsnivå
  • Gemensamt mål: att upprätthålla kontakten med den verkliga världen
  • Annan metod: anpassningsförmåga istället för standardisering

Fader Jacobus regel

Hesses intuition: Benediktinermunken representerar praktisk visdom. Innan man implementerar någon AI: "Tjänar denna teknik verkligen det långsiktiga allmänna bästa?"

Implementering 2025: Parametrar för systemisk hållbarhet

  • Inte "abstrakt allmännytta" utan hållbarhet i det operativa sammanhanget
  • Mätvärden som mäter ekosystemets hälsa över tid
  • Gemensamt mål: system som håller och fungerar
  • Annan metod: longitudinella mätningar istället för tidlösa principer

Knechts arv

Hesses intuition: Knecht väljer att undervisa eftersom han vill "påverka en mer konkret verklighet". De bästa AI-systemen är de som "undervisar" – som gör människor mer kompetenta.

Implementering 2025: Principen om ömsesidig förstärkning

  • Undvik inte beroende utan planera för ömsesidig tillväxt
  • System som lär sig av mänskligt beteende och ger feedback som förbättrar kompetensen
  • Gemensamt mål: mänsklig förstärkning
  • Annan metod: kontinuerlig förbättringsloop istället för traditionell utbildning

Varför Hesse hade rätt (och var vi kan bli bättre)

Hesse hade rätt i frågan: intellektuella system kan bli självrefererande och förlora kontakten med verklig effektivitet.

Hans lösning speglade de tekniska begränsningarna på hans tid:

  • Statiska system: Svåra att ändra efter att de har byggts
  • Binära val: Antingen inne i Castalia eller utanför
  • Begränsad kontroll: Få möjligheter att korrigera kursen

2025 har vi nya möjligheter:

  • Adaptiva system: Kan utvecklas i realtid
  • Flera konvergenser: Många möjliga kombinationer mellan mänskligt och artificiellt
  • Kontinuerlig feedback: Vi kan korrigera innan det är för sent

Hesses fyra principer gäller fortfarande. Våra fyra parametrar är helt enkelt tekniska tillämpningar av samma principer, optimerade för den digitala tidsåldern.

4. De fyra frågorna: Evolution, inte opposition

Hesse skulle fråga:

  1. Är det transparent och demokratiskt?
  2. Är det begripligt för icke-experter?
  3. Behöver vi det gemensamma bästa?
  4. Undviker du att göra människor beroende?

Vi måste också fråga oss följande år 2025:

  1. Kan operatörerna kalibrera sina beslut utifrån systemets mätvärden?
  2. Är systemet anpassat för operatörer med olika kompetenser?
  3. Förblir prestationsmätningarna stabila över långa tidsperioder?
  4. Förbättrar alla komponenter sin prestanda tack vare interaktionen?

Det är inte motsatta frågor utan kompletterande frågor. Våra är operativa tillämpningar av Hesses insikter, anpassade till system som kan utvecklas istället för att bara accepteras eller avvisas.

Bortom 1900-talets dikotomi

Hesse var en visionär som korrekt identifierade risken med självrefererande system. Hans lösningar speglade möjligheterna i hans tid: universella etiska principer för att styra binära val.

Vi år 2025 delar hans mål, men vi har andra verktyg: system som kan omprogrammeras, mått som kan omkalibreras, konvergenser som kan omformas.

Vi ersätter inte etik med pragmatism. Vi utvecklas från en etik baserad på fasta principer till en etik baserad på anpassningsbara system.

Skillnaden ligger inte mellan "bra" och "nyttigt" utan mellan statiska etiska tillvägagångssätt och evolutionära etiska tillvägagångssätt.

Verktyg för att undvika digitala kastalier

Det finns redan tekniska verktyg för utvecklare som vill följa Knechts exempel:

  • IBM AI Explainability 360: Håller "dörrarna öppna" i beslutsprocesserna
  • TensorFlow Responsible AI Toolkit: Förhindrar självreferens genom rättvisekontroller
  • Amazon SageMaker Clarify: Identifierar när ett system isolerar sig i egna fördomar

Källa: Etiska AI-verktyg 2024

Framtiden: Förhindra digital förfall

Kommer profetian att besannas?

Hesse skrev att Castalia var dömd att förfalla eftersom den hade blivit "för abstrakt och isolerad". Idag ser vi de första tecknen på detta:

  • Ökande misstroende mot algoritmer bland allmänheten
  • Allt strängare regleringar (europeisk AI-lag)
  • Talangflykt från storteknikföretagen till mer "mänskliga" sektorer

Vägen ut: Att vara Knecht, inte Castalia

Lösningen är inte att överge AI (precis som Knecht inte överger kunskap), utan att omdefiniera dess syfte:

  1. Teknik som verktyg, inte som mål
  2. Optimering för människors välbefinnande, inte för abstrakta mått
  3. Inkludering av "externa" i beslutsprocesser
  4. Modet att förändra när systemet blir självrefererande

Utöver Knecht

Hesses gräns

Hesses roman har ett slut som speglar sin tids begränsningar: Knecht, som nyligen lämnat Castalia för att åter ansluta sig till det verkliga livet, drunknar när han jagar sin unge elev Tito i en frusen sjö.

Hesse presenterar detta som ett "tragiskt men nödvändigt" slut – det offer som inspirerar till förändring. Men år 2025 håller denna logik inte längre.

Det tredje alternativet

Hesse föreställde sig bara två möjliga öden:

  • Castalia: Intellektuell perfektion men mänsklig sterilit
  • Knecht: Mänsklig äkthet men död på grund av oerfarenhet

Vi har ett tredje alternativ som han inte kunde föreställa sig: system som utvecklas istället för att gå sönder.

Vi behöver inte välja mellan teknisk förfining och mänsklig effektivitet. Vi behöver inte "undvika Castalias öde" – vi kan optimera det.

Vad händer egentligen?

År 2025 är artificiell intelligens inte ett hot som man måste fly från, utan en process som måste styras.

Den verkliga risken är inte att AI blir för intelligent, utan att den blir för bra på att optimera för felaktiga mått i världar som blir alltmer isolerade från den operativa verkligheten.

Den verkliga möjligheten är inte att "bevara mänskligheten" utan att utforma system som förstärker alla komponenters kapacitet.

Den rätta frågan

Frågan för varje utvecklare, varje företag, varje användare är inte längre den som Hesse ställde: "Bygg vi Castalia eller följer vi Knechts exempel?"

Frågan för 2025 är: "Optimerar vi för rätt mätvärden?"

  • Amazon optimerade för att upprätthålla konsekvens med det förflutna istället för framtida prestanda.
  • Sociala medier optimeras för engagemang istället för hållbar välfärd
  • Medicinska system optimeras för diagnostisk noggrannhet eftersom mätvärdena är tydliga.

Skillnaden är inte moralisk utan teknisk: vissa system fungerar, andra inte.

Epilog: Valet fortsätter

Knecht verkade i en värld där systemen var statiska: när de väl hade skapats förblev de oföränderliga. Hans enda möjlighet att förändra Castalia var att lämna det – en modig handling som krävde att han offrade sin egen position.

År 2025 har vi system som kan utvecklas. Vi behöver inte välja en gång för alla mellan Castalia och omvärlden – vi kan forma Castalia så att det bättre tjänar omvärlden.

Hesses verkliga lärdom är inte att vi måste fly från komplexa system, utan att vi måste vara vaksamma på deras inriktning. 1943 innebar detta att ha modet att överge Castalia. Idag innebär det att ha kompetensen att omforma det.

Frågan är inte längre: "Ska jag stanna eller gå?" Frågan är: "Hur kan jag se till att detta system verkligen tjänar det syfte det är avsett att tjäna?"

Källor och insikter

Dokumenterade fall:

AI-framgångar:

Etiska verktyg:

Litterära fördjupningar:

  • Hermann Hesse, "Glasperlenspiel" (1943)
  • Umberto Eco, "Rosens namn" – Klostren som slutna kunskapssystem som förlorar sig i teologiska finesser
  • Thomas Mann, "Den förtrollade berget" - Intellektuella eliter isolerade på ett sanatorium som förlorar kontakten med omvärlden.
  • Dino Buzzati, "Il Deserto dei Tartari" (Tartarernas öken) – Självrefererande militära system som väntar på en fiende som aldrig kommer.
  • Italo Calvino, "Om en vinterkväll en resenär" - Metaberättelser och självrefererande litterära system
  • Albert Camus, "Främlingen" - Obegripliga sociala logiker som bedömer individen enligt otydliga kriterier

💡 För ditt företag: Skapar dina AI-system verkligt värde eller bara teknisk komplexitet? Undvik dolda kostnader för algoritmer som optimerar felaktiga mätvärden – från diskriminerande fördomar till förlorat kundförtroende. Vi erbjuder AI-revisioner med fokus på konkret avkastning, regelefterlevnad och långsiktig hållbarhet. Kontakta oss för en kostnadsfri utvärdering som identifierar var dina algoritmer kan generera mest affärsvärde och minst juridiska risker.

Resurser för företagstillväxt