Newsletter

När AI väljer vem som ska leva (och vem som ska dö): Det moderna trolleyproblemet

Trolley-dilemmat i AI-eran: när maskiner måste fatta etiska beslut, är mänskligt omdöme verkligen alltid överlägset? En debatt som fortfarande pågår. Varför algoritmers etik kan vara bättre än människans (eller kanske inte)

Föreställ dig en okontrollerad järnvägsvagn som rusar mot fem personer. Du kan dra i en spak för att styra den över på ett annat spår, men där finns bara en person. Vad skulle du göra?

Men vänta lite: tänk om den personen var ett barn och de fem var äldre? Tänk om någon erbjöd dig pengar för att dra i spaken? Tänk om du inte såg situationen tydligt?

Vad är Trolley-problemet? Detta tankeexperiment, som formulerades av filosofen Philippa Foot 1967, presenterar ett till synes enkelt dilemma: att offra ett liv för att rädda fem. Men variationerna är oändliga: den feta mannen som ska knuffas ner från bron, läkaren som skulle kunna döda en frisk patient för att rädda fem med hans organ, domaren som skulle kunna döma en oskyldig för att stoppa ett upplopp.

Varje scenario sätter våra grundläggande moraliska principer på prov: när är det acceptabelt att orsaka skada för att förhindra större skada?

Denna komplexitet är precis det som gör etiken kring artificiell intelligens till en så viktig utmaning för vår tid.

Det berömda "trolleyproblemet" är mycket mer komplext än det verkar – och just denna komplexitet är det som gör etiken kring artificiell intelligens till en så viktig utmaning för vår tid.

Från filosofisalen till algoritmerna

Trolleyproblemet, som formulerades av filosofen Philippa Foot 1967, var aldrig avsett att lösa praktiska dilemman. SomAlan Turing Institute, var det ursprungliga syftet att visa att tankeexperiment i grunden är frikopplade från verkligheten. Men i AI-eran har detta paradox fått omedelbar relevans.

Varför är det viktigt just nu? För att för första gången i historien måste maskiner fatta etiska beslut i realtid – från självkörande bilar som navigerar i trafiken till hälso- och sjukvårdssystem som fördelar begränsade resurser.

Claude och revolutionen inom konstitutionell AI

Anthropic, företaget bakom Claude, har tagit sig an denna utmaning med en revolutionerande metod som kallas Constitutional AI. Istället för att enbart förlita sig på mänsklig feedback, är Claude tränad på en "konstitution" av uttryckliga etiska principer, inklusive delar av den allmänna förklaringen om de mänskliga rättigheterna.

Hur fungerar det i praktiken?

  • Claude kritiserar sig själv och reviderar sina svar.
  • Använd "Reinforcement Learning from AI Feedback" (RLAIF)
  • Upprätthåller transparens kring de principer som styr dess beslut

Enempirisk analys av 700 000 samtal har visat att Claude uttrycker över 3 000 unika värden, från professionalism till moralisk pluralism, och anpassar dem till olika sammanhang med bibehållen etisk konsekvens.

De verkliga utmaningarna: när teori möter praktik

Som det interaktiva projektet Absurd Trolley Problems av Neal Agarwal, är verkliga etiska dilemman sällan binära och ofta absurda i sin komplexitet. Denna insikt är avgörande för att förstå utmaningarna med modern AI.

Ny forskning visar att de etiska dilemman som AI medför sträcker sig långt bortom det klassiska trolleyproblemet. Projektet MultiTP, som testade 19 AI-modeller på över 100 språk, upptäckte betydande kulturella skillnader i etisk anpassning: modellerna är mer anpassade till mänskliga preferenser på engelska, koreanska och kinesiska, men mindre på hindi och somaliska.

De verkliga utmaningarna är bland annat:

  • Epistemisk osäkerhet: Att agera utan fullständig information
  • Kulturella fördomar: Olika värderingar mellan kulturer och samhällen
  • Delat ansvar: Vem ansvarar för AI-beslut?
  • Långsiktiga konsekvenser: Omedelbara effekter kontra framtida effekter

Mänsklig etik kontra AI-etik: olika paradigm, inte nödvändigtvis sämre

En ofta förbisedd aspekt är att AI-etik kanske inte bara är en ofullkomlig version av mänsklig etik, utan ett helt annat paradigm – och i vissa fall ett potentiellt mer konsekvent sådant.

Fallet "Jag, robot": I filmen från 2004 är detektiv Spooner (Will Smith) misstänksam mot robotar efter att ha räddats av en robot i en bilolycka, medan en 12-årig flicka lämnades att drunkna. Roboten förklarar sitt beslut:

"Jag var det logiska valet. Jag beräknade att hon hade 45 % chans att överleva. Sarah hade bara 11 %. Det var någons barn. 11 % är mer än tillräckligt."

Det är precis den typen av etik som AI fungerar efter idag: algoritmer som väger sannolikheter, optimerar resultat och fattar beslut baserade på objektiva data snarare än emotionella intuitioner eller sociala fördomar. Scenen illustrerar en viktig poäng: AI fungerar efter andra etiska principer än mänskliga, men dessa principer är inte nödvändigtvis sämre än de mänskliga:

  • Matematisk konsekvens: Algoritmerna tillämpar kriterier på ett enhetligt sätt, utan att påverkas av emotionella eller sociala fördomar – precis som en robot som beräknar överlevnadssannolikheten.
  • Procedural impartiality: They do not automatically favour children over the elderly or the rich over the poor, but assess each situation based on the available data.
  • Transparens i beslutsfattandet: Kriterierna är tydliga och verifierbara ("45 % mot 11 %"), till skillnad från människans moraliska intuition som ofta är oklar.

Konkreta exempel inom modern AI:

  • AI-baserade hälso- och sjukvårdssystem som fördelar medicinska resurser utifrån sannolikheten för behandlingsframgång
  • Matchningsalgoritmer för organtransplantationer som optimerar kompatibilitet och överlevnadschanser
  • Automatiserade triagesystem i nödsituationer som prioriterar patienter med störst chans till återhämtning

Men kanske inte: De fatala begränsningarna med algoritmisk etik

Innan vi hyllar AI-etikens överlägsenhet måste vi dock ta itu med dess inneboende begränsningar. Scenen i ”I, Robot” som verkar så logisk döljer djupa problem:

Problemet med den förlorade kontexten: När roboten väljer att rädda den vuxna personen istället för flickan baserat på sannolikheter, ignorerar den helt avgörande faktorer:

  • Det sociala och symboliska värdet av att skydda de mest utsatta
  • Den långsiktiga psykologiska påverkan på överlevande
  • Familjerelationer och känslomässiga band
  • Det ännu outnyttjade potentialen i ett ungt liv

De konkreta riskerna med ren algoritmisk etik:

Extrem reduktionism: Att omvandla komplexa moraliska beslut till matematiska beräkningar kan eliminera mänsklig värdighet från ekvationen. Vem bestämmer vilka variabler som är viktiga?

Dolda fördomar: Algoritmerna inbegriper oundvikligen fördomarna hos sina skapare och träningsdata. Ett system som "optimerar" kan upprätthålla systematisk diskriminering.

Kulturell enhetlighet: AI-etik riskerar att påtvinga en västerländsk, teknologisk och kvantitativ syn på moral på kulturer som värderar mänskliga relationer på ett annat sätt.

Exempel på verkliga utmaningar:

  • Hälso- och sjukvårdssystem som skulle kunna tillämpa effektivitetskriterier på ett mer systematiskt sätt, vilket väcker frågor om hur man ska balansera medicinsk optimering och etiska överväganden.
  • Rättsliga algoritmer som riskerar att befästa befintliga fördomar i större skala, men som också kan göra redan existerande diskriminering mer transparent.
  • Finansiella AI-system som kan systematisera diskriminerande beslut, men också eliminera vissa mänskliga fördomar kopplade till personliga förutfattade meningar.

Kritiken mot det traditionella paradigmet

Experter som Roger Scruton kritiserar användningen av trolleyproblemet för dess tendens att reducera komplexa dilemman till "ren aritmetik" och därmed eliminera moraliskt relevanta relationer. Som det argumenteras i en artikel i TripleTen, "lösa trolleyproblemet kommer inte att göra AI etiskt" – det krävs ett mer holistiskt tillvägagångssätt.

Den centrala frågan blir: Kan vi tillåta oss att delegera moraliska beslut till system som, hur sofistikerade de än må vara, saknar empati, kontextuell förståelse och mänsklig erfarenhetsbaserad visdom?

Nya förslag för en balans:

  • Hybridiska etiska ramverk som kombinerar beräkning och mänsklig intuition
  • Mänskliga övervakningssystem för kritiska beslut
  • Kulturell anpassning av etiska algoritmer
  • Obligatorisk transparens om beslutsgrunderna
  • Mänsklig rätt till överklagande av alla kritiska algoritmiska beslut

Praktiska konsekvenser för företag

För företagsledare kräver denna utveckling en nyanserad strategi:

  1. Systematiska etiska granskningar av AI-system som används – för att förstå både fördelar och begränsningar
  2. Mångfald i team som utformar och implementerar AI, inklusive filosofer, etiker och representanter för olika grupper.
  3. Obligatorisk transparens om de etiska principer som ingår i systemen och deras motivering
  4. Fortbildning om när AI-etik fungerar och när den misslyckas
  5. Mänskliga övervakningssystem för beslut med stor etisk inverkan
  6. Rätt till överklagande och korrigeringsmekanismer för algoritmiska beslut

Som IBM betonar IBM i sin prognos för 2025, kommer AI-kompetens och tydligt ansvar att vara de mest kritiska utmaningarna för det kommande året.

Framtiden för AI-etik

UNESCOUNESCO leder globala initiativ för AI-etik, med det tredje globala forumet planerat till juni 2025 i Bangkok. Målet är inte att hitta universella lösningar på moraliska dilemman, utan att utveckla ramverk som möjliggör transparenta och kulturellt känsliga etiska beslut.

Den viktigaste lärdomen? Trolleyproblemet fungerar inte som en lösning, utan som en påminnelse om den inneboende komplexiteten i moraliska beslut. Den verkliga utmaningen är inte att välja mellan mänsklig eller algoritmisk etik, utan att hitta rätt balans mellan datorkraft och mänsklig visdom.

Framtidens etiska AI måste erkänna sina begränsningar: den är utmärkt på att bearbeta data och identifiera mönster, men otillräcklig när det gäller empati, kulturell förståelse och kontextuell bedömning. Precis som i scenen i "Jag, robot" kan kallt beräkande ibland vara mer etiskt – men bara om det förblir ett verktyg i händerna på en medveten mänsklig övervakare, inte en ersättning för mänskligt moraliskt omdöme.

Det "(eller kanske inte)" i vår rubrik är inte obeslutsamhet, utan visdom: att erkänna att etik, vare sig den är mänsklig eller artificiell, inte tillåter enkla lösningar i en komplex värld.

Källor och insikter

Initial inspiration:

Akademisk forskning:

Industriella analyser:

Regulatoriska utvecklingar: