Newsletter

Kreativitetsparadoxen: Artificiell intelligens, upphovsrätt och mänsklighetens framtid

"Jag känner mig inte smickrad. Det känns som om något som jag har byggt upp under flera år har stulits från mig" - Greg Rutkowski, vars namn förekommer i 1,2 miljoner Stable Diffusion-meddelanden. "Ghibli-stilen" avslöjar den verkliga skillnaden: Van Gogh förstod japanska estetiska principer, AI:n extraherar statistiska korrelationer mellan pixlar. Stanford visar att modellerna återskapar nästan identiska bilder 3 procent av tiden. Det är inte inspiration - det är memorering. Över 250.000 konstnärer har använt Glaze och Nightshade för att försvara sig.

Mänsklig kontra artificiell kreativitet: Var skillnaden verkligen ligger (och varför Ghibli-stilen lär oss något)

Debatten om artificiell intelligens och upphovsrätt har intensifierats dramatiskt under 2024-2025. Det här är inte längre teoretiska diskussioner: New York Times stämde OpenAI för upphovsrättsintrång (december 2023), Getty Images stämde Stability AI och tusentals konstnärer lämnade in grupptalan. AI-företagen svarar att deras system "lär sig" precis som människor - men är detta verkligen fallet?

Den mänskliga kreativiteten har alltid utvecklats genom kontakter: Shakespeare inspirerades av historiska krönikor och folksagor, Van Gogh studerade japanska tryck, Beatles började med att spela amerikansk rock. Konstnärer tolkar alltid om tidigare verk. Artificiell intelligens, säger teknikföretag, gör samma sak. Men fallet med "Ghibli-stilen" avslöjar hur förenklad denna berättelse är.

Ghibli-fallet: När stil blir kontroversiell

Skriv in "Ghibli style" i Midjourney eller DALL-E och du får bilder som är slående lika Hayao Miyazakis mästerverk: pastellfärger, fluffiga moln, drömlika landskap, karaktärer med stora ögon. Det är tekniskt imponerande. Det är också djupt problematiskt.

Det tog Studio Ghibli årtionden att utveckla den särpräglade estetiken: exakta färgpalettval, traditionella animationstekniker och en konstnärlig filosofi som är rotad i japansk kultur och Miyazakis personliga vision. När en AI-modell replikerar denna "stil" på några sekunder, är den då verkligen "lärande" på samma sätt som Miyazaki lärde sig av Disney-animationer och japansk manga? Eller kombinerar den helt enkelt om visuella mönster som extraherats från tusentals Ghibli-bilder utan tillstånd?

Skillnaden är inte filosofisk - den är juridisk och ekonomisk. Enligt en Stanford-analys som publicerats i arXiv (Carlini et al., 2023) kan diffusionsmodeller som Stable Diffusion återskapa nästan identiska bilder från träningsuppsättningen i cirka 3 procent av fallen när de uppmanas med specifika uppmaningar. Det handlar inte om "inspiration", utan om lagring och reproduktion.

Den polske digitala konstnären Greg Rutkowski upptäckte att hans namn förekom i 1,2 miljoner uppmaningar på Stable Diffusion - och blev oavsiktligt en av de mest efterfrågade "stilarna" utan att någonsin ge sitt samtycke eller få ersättning. Som han sa till MIT Technology Review: "Jag känner mig inte smickrad. Det känns som om något som jag har byggt upp under flera år har stulits från mig.

Utbildningskontroversen: Siffrorna för 2024-2025

AI-utbildningen har nått en aldrig tidigare skådad omfattning. LAION-5B, ett av de mest använda dataseten för bildmodeller, innehåller 5,85 miljarder bild-textpar som samlats in från internet - inklusive upphovsrättsskyddade verk. GPT-4 tränades på stora delar av internet, inklusive betalda artiklar, böcker och proprietär programkod.

Pågående större rättsliga åtgärder:

  • New York Times mot OpenAI/Microsoft (december 2023): Skadeståndskrav på miljardbelopp, anklagelse om att ha tränat GPT på årtionden av skyddade artiklar
  • Getty Images vs Stability AI (februari 2023): Anklagas för att ha använt 12+ miljoner Getty-bilder utan licens
  • Konstnärers grupptalan mot Stability AI/Midjourney/DeviantArt (januari 2023): Tusentals konstnärer stämmer för systematiskt upphovsrättsintrång
  • Universal Music mot Suno och Udio (juni 2024): Musikgenereringsplattformar anklagas för att utbilda på skyddade kataloger

AI-företagen försvarar denna praxis genom att åberopa "fair use" enligt amerikansk lag: de hävdar att utbildningen är "transformativ" och inte ersätter den ursprungliga marknaden. Men flera domstolar utmanar denna tolkning.

Domare Katherine Forrest, i Getty v. Stability AI, avslog begäran om avvisning i januari 2024 och lät målet fortsätta: "Frågan om huruvida träning av AI-modeller utgör rättvis användning är komplex och kräver en grundlig undersökning av fakta. Översättning: AI-företag kan inte bara åberopa fair use och sedan vara klara med det.

Handelsavtal: Marknadslösningen växer fram

Inför det juridiska trycket började AI-företagen att förhandla om licenser. OpenAI har ingått avtal med:

  • Associated Press (juli 2023): Tillgång till nyhetsarkiv i utbyte mot licens
  • Axel Springer (december 2023): Avtal om att använda innehåll från Politico, Business Insider
  • Financial Times (april 2024): Innehållslicens för utbildning
  • News Corp (maj 2024): Avtal om 250 MUSD under 5 år, tillgång till Wall Street Journal, Barron's, New York Post

Google har tecknat liknande avtal med Reddit, Stack Overflow och olika förlag. Anthropic har förhandlat med förlag om användning av böcker.

Men dessa avtal omfattar endast stora förlag med förhandlingsstyrka. Miljontals enskilda upphovsmän - konstnärer, fotografer, frilansskribenter - får ingen ersättning för verk som används i redan genomförda utbildningar.

Mänsklig kontra maskininlärning: Den verkliga skillnaden (Beyond Statistics)

Talesättet "AI lär sig som människor" är tekniskt sett missvisande. Låt oss titta på de grundläggande skillnaderna:

Skala och hastighet: En mänsklig konstnär studerar kanske hundratals eller tusentals verk under en livstid. GPT-4 har tränats på triljoner ord. Stable Diffusion på miljarder bilder. Skalan är ojämförlig och överstiger alla rimliga definitioner av "inspiration".

Semantisk förståelse: När Van Gogh studerade japanska tryck kopierade han inte mekaniskt de visuella mönstren - han förstod de underliggande estetiska principerna (användning av negativt utrymme, asymmetrisk komposition, betoning på naturen) och tolkade dem på nytt genom sin europeiska postimpressionistiska vision. Hans verk är medvetna kulturella synteser.

AI-modeller "förstår" inte i mänsklig bemärkelse. Som Melanie Mitchell, professor vid Santa Fe Institute, förklarar i sin bok "Artificial Intelligence: A Guide for Thinking Humans": "Deep learning-system är utmärkta på mönsterigenkänning men saknar kausal förståelse, abstrakta resonemang eller mentala modeller av världen. Stable Diffusion "förstår" inte vad som gör Ghibli distinkt - det extraherar statistiska korrelationer mellan miljontals pixlar märkta med "Ghibli style".

Kreativ intentionalitet: Konstnärer gör medvetna kreativa val utifrån sin personliga vision, det budskap de vill förmedla och de känslor de vill väcka. Miyazaki införlivar miljöfrågor, pacifism och feminism i sina filmer - medvetna moraliska och konstnärliga val.

AI genererar baserat på statistiska sannolikheter: "givet uppmaning X och träningsuppsättning Y, vilken pixelkonfiguration är mest sannolik?" Det finns ingen avsiktlighet, inget budskap, ingen vision. Som Ted Chiang skrev i The New Yorker: "ChatGPT är en suddig jpeg av webben" - en komprimering med förlust som förlorar exakt de egenskaper som gör originalinnehållet värdefullt.

Transformation vs. rekombination: Pablo Picasso studerade afrikanska masker men skapade kubismen - en helt ny konstnärlig rörelse som återuppfann den rumsliga representationen i måleriet. Transformationen var radikal och originell.

Generativa AI-modeller fungerar genom interpolering i latent utrymme: de kombinerar om element i träningsuppsättningen till nya konfigurationer, men förblir bundna till den statistiska fördelningen av de data som de har tränats på. De kan inte uppfinna genuint ny estetik som bryter mot inlärda statistiska regelbundenheter. Som visats i forskning från MIT (Shumailov et al., 2023) degenererar modeller som tränats upprepade gånger på tidigare AI-resultat successivt - ett fenomen som kallas "modellkollaps".

Paradoxen med "originalitet" AI

Här är den centrala paradoxen: AI kan generera resultat som ser originella ut (ingen människa har någonsin sett den specifika bilden i Ghibli-stil tidigare) men som är statistiskt härledda (de är interpoleringar av befintliga mönster). Det är en ytlig form av originalitet utan grundläggande innovation.

Detta har djupgående konsekvenser. Som filosofen John Searle hävdade i sitt berömda "Chinese Room-argument": att simulera en kognitiv process är inte detsamma som att besitta den. AI kan simulera kreativitet utan att vara kreativ i den mänskliga bemärkelsen av begreppet.

Nya tekniska och regulatoriska lösningar

Med anledning av kontroversen utvecklas olika lösningar:

Skyddsverktyg för konstnärer:

  • Glaze (University of Chicago): Mjukvara som applicerar omärkliga störningar på bilder, vilket "lurar" AI-modeller som försöker lära sig stilen
  • Nightshade (samma team): Offensiv version som "förgiftar" träningsdata och fördärvar modeller som använder den utan tillstånd
  • Över 250.000 konstnärer använde dessa verktyg under det första året

Avregistreringsregister:

  • Have I Been Trained (Spawning AI): Databas som gör det möjligt för konstnärer att kontrollera om deras verk finns i LAION och andra dataset, med opt-out-mekanism
  • Vissa nyare modeller respekterar dessa undantag (Stability AI har meddelat partiell efterlevnad)

Ramverk för ersättning:

  • Spawning AI Licence: Mikrolicenssystem för att kompensera konstnärer när verk används i utbildning
  • Fortfarande på försöksstadiet, inte allmänt infört

Statliga bestämmelser:

EU:s AI Act (som trädde i kraft i augusti 2024) kräver att leverantörer av generativa AI-modeller publicerar detaljerade sammanfattningar av de upphovsrättsskyddade träningsdata som används. Det är det första lagstiftningsförsöket för att införa transparens.

Tennessee ELVIS Act (mars 2024) skyddar specifikt artisters röst och bild från obehörig användning i USA:s AI-förstater med specifik lagstiftning för djupa röstförfalskningar och visuella förfalskningar.

Bland förslagen till den amerikanska kongressen finns krav på uttrycklig opt-in för upphovsrättsskyddade verk (istället för opt-out) och skapandet av offentliga register över utbildningsdataset.

Kreativitetens framtid: Hybriditet eller ersättning?

Två framtidsvisioner ställs mot varandra:

Optimistisk syn (AI-företag): AI är ett verktyg som förstärker den mänskliga kreativiteten, som Photoshop eller musiksynteser. Konstnärer kommer att använda AI för att påskynda arbetsflöden, utforska variationer och övervinna kreativa blockeringar. Hybridkonstformer kommer att växa fram där människor styr visionen och AI utför tekniska delar.

Konkreta exempel finns redan: i filmen "The Frost" (2023) användes AI för att generera bakgrunder och texturer, med mänskliga konstnärer som stod för den konstnärliga regin. Musiker använder Suno och Udio för att generera backing tracks att improvisera på. Författare använder GPT som en "gummianka" för att diskutera narrativa idéer.

Pessimistisk syn (många kreatörer): AI kommer att göra kreativitet till en handelsvara, vilket urholkar det ekonomiska värdet av kreativt arbete tills endast eliter med exceptionella färdigheter överlever. Genomsnittlig kreativitet" kommer att ersättas av billiga generatorer, vilket förstör den kreativa medelklassen - precis som industriell automatisering eliminerade hantverkare på 1800-talet.

Preliminära bevis stöder denna oro: på frilansplattformar som Fiverr minskade förfrågningar om illustratörer och copywriters med 21% under 2023 (Fiverr Q4 2023 data), medan erbjudanden om "AI art generation" exploderade. Greg Rutkowski har sett direkta uppdrag sjunka med 40 % sedan hans stil blev populär på Stable Diffusion.

Sanningen ligger förmodligen någonstans däremellan: vissa former av kreativt arbete kommer att automatiseras (generiska stockillustrationer, grundläggande copy marketing), medan mycket originell, konceptuell, kulturellt förankrad kreativitet kommer att förbli människans domän.

Avslutande reflektioner: Autenticitet i en tid av perfekta imitationer

Det kommer att bli allt svårare att skilja mellan mänskligt och AI-innehåll. Redan idag, utan vattenstämplar eller offentliggörande, är det ofta omöjligt att skilja GPT-4-text från mänsklig text eller Midjourney-bilder från fotografier. När Sora (OpenAI:s videogenerator) blir offentlig kommer distinktionen att omfatta även video.

Detta väcker djupgående frågor om äkthet. Om en AI-genererad bild i Ghibli-stil väcker samma känslor som originalet, har den då samma värde? Filosofen Walter Benjamin hävdade i sin bok "The Work of Art in the Age of its Technical Reproducibility" (1935) att mekanisk reproducerbarhet urholkar originalverkets "aura" - dess rumsliga och tidsmässiga unikhet och äkthet.

Generativ AI drar detta argument till sin spets: den reproducerar inte befintliga verk utan skapar oändliga variationer som simulerar originalet utan att vara det. Det är det Baudrillardska simulacrumet - kopian utan originalet.

Ändå finns det något oåterkalleligt mänskligt i den medvetna kreativa handlingen: konstnären som väljer varje penseldrag med vetskap om vad han vill förmedla, författaren som utformar varje fras för att framkalla specifika känslor, kompositören som bygger upp spänning och upplösning med avsikt. AI kan simulera resultatet, men inte processen - och kanske är det i processen som det verkliga värdet av kreativitet ligger.

Som Studio Ghibli skrev i ett uttalande (november 2023): "Själen i våra filmer ligger inte i den visuella stilen som kan kopieras, utan i de kreativa beslut vi fattar bildruta för bildruta för att tjäna den historia vi vill berätta. Det kan inte automatiseras".

Konstens värde ligger i slutändan i dess förmåga att skapa en djup kontakt med den mänskliga upplevelsen - att få oss att känna oss förstådda, utmanade och förändrade. Huruvida detta kan uppnås med hjälp av AI är en öppen fråga. Men så länge konsten görs av människor för människor, och talar om människans villkor, kommer den att behålla något som ingen algoritm kan återskapa: äktheten i den levda erfarenheten översatt till estetisk form.

Källor:

  • Carlini, Nicholas et al. - "Extrahera träningsdata från diffusionsmodeller", arXiv:2301.13188 (2023)
  • Mitchell, Melanie - "Artificiell intelligens: En guide för tänkande människor" (2019)
  • Chiang, Ted - "ChatGPT är en suddig JPEG av webben", The New Yorker (februari 2023)
  • Shumailov, Ilia et al. - "Rekursionens förbannelse: Träning på genererade data gör att modeller glömmer", arXiv:2305.17493 (2023)
  • MIT Technology Review - "Den här konstnären dominerar AI-genererad konst. Och han är inte glad över det" (september 2022)
  • EU:s AI-lag - Förordning (EU) 2024/1689
  • Benjamin, Walter - "Konstverket i den tekniska reproducerbarhetens tidsålder" (1935)
  • Rättegångar om offentliga register: NYT vs OpenAI, Getty vs Stability AI
  • Fiverr Q4 2023 Resultatrapport

Resurser för företagstillväxt

9 november 2025

AI-reglering för konsumenttillämpningar: Hur man förbereder sig för de nya förordningarna från 2025

2025 markerar slutet på "vilda västern"-eran för AI: AI Act EU i drift från augusti 2024 med skyldigheter för AI-kunskap från 2 februari 2025, styrning och GPAI från 2 augusti. Kalifornien är pionjärer med SB 243 (som kom till efter Sewell Setzers självmord, en 14-åring utvecklade en känslomässig relation med en chatbot) som förbjuder tvångsmässiga belöningssystem, upptäckt av självmordstankar, påminnelse var tredje timme om att "jag är inte mänsklig", oberoende offentliga revisioner, straffavgifter på 1 000 USD/överträdelse. SB 420 kräver konsekvensbedömningar för "automatiserade beslut med hög risk" med rätt till överklagande av mänsklig granskning. Verklig verkställighet: Noom citerade 2022 för bots som passerade som mänskliga tränare, förlikning 56 miljoner dollar. Nationell trend: Alabama, Hawaii, Illinois, Maine, Massachusetts klassificerar underlåtenhet att meddela AI-chatbots som UDAP-överträdelse. Tredelad strategi för riskkritiska system (sjukvård/transport/energi), certifiering före driftsättning, transparent information till konsumenter, registrering för allmänna ändamål + säkerhetstestning. Lapptäcke av regelverk utan federalt företräde: företag i flera delstater måste navigera bland olika krav. EU från augusti 2026: informera användare om AI-interaktion om det inte är uppenbart, AI-genererat innehåll märkt maskinläsbart.
9 november 2025

Reglering av det som inte skapas: riskerar Europa att bli tekniskt irrelevant?

Europa drar bara till sig en tiondel av de globala investeringarna i artificiell intelligens, men gör anspråk på att diktera globala regler. Detta är "Brysseleffekten" - att införa regler på en planetär skala genom marknadsmakt utan att driva på innovation. AI-lagen träder i kraft enligt en förskjuten tidtabell fram till 2027, men multinationella teknikföretag svarar med kreativa strategier för att kringgå lagen: de åberopar affärshemligheter för att undvika att avslöja utbildningsdata, de producerar tekniskt kompatibla men obegripliga sammanfattningar, de använder självutvärdering för att nedgradera system från "hög risk" till "minimal risk" och de väljer medlemsländer med mindre stränga kontroller. Paradoxen med extraterritoriell upphovsrätt: EU kräver att OpenAI ska följa europeiska lagar även för utbildning utanför Europa - en princip som aldrig tidigare förekommit i internationell rätt. Den "dubbla modellen" växer fram: begränsade europeiska versioner kontra avancerade globala versioner av samma AI-produkter. Verklig risk: Europa blir en "digital fästning" isolerad från global innovation, med europeiska medborgare som får tillgång till sämre teknik. EU-domstolen har i kreditvärderingsfallet redan avvisat försvaret med "affärshemligheter", men tolkningsosäkerheten är fortfarande enorm - vad exakt innebär "tillräckligt detaljerad sammanfattning"? Det är det ingen som vet. En sista obesvarad fråga: skapar EU en etisk tredje väg mellan amerikansk kapitalism och kinesisk statskontroll, eller exporterar man helt enkelt byråkrati till ett område där man inte konkurrerar? För tillfället: världsledande inom AI-reglering, marginell inom dess utveckling. Stort program.
9 november 2025

Outliers: När datavetenskap möter framgångssagor

Datavetenskapen har vänt upp och ner på paradigmet: avvikande värden är inte längre "fel som ska elimineras" utan värdefull information som ska förstås. En enda avvikelse kan helt förvränga en linjär regressionsmodell - ändra lutningen från 2 till 10 - men att eliminera den kan innebära att man förlorar den viktigaste signalen i datasetet. Maskininlärning introducerar sofistikerade verktyg: Isolation Forest isolerar outliers genom att bygga slumpmässiga beslutsträd, Local Outlier Factor analyserar lokal densitet, Autoencoders rekonstruerar normala data och rapporterar det som de inte kan reproducera. Det finns globala outliers (temperatur -10°C i tropikerna), kontextuella outliers (spendera 1.000 euro i ett fattigt område), kollektiva outliers (synkroniserade spikar i trafiknätet som indikerar attack). Parallell med Gladwell: "10.000-timmarsregeln" är omtvistad - Paul McCartney dixit "många band har spelat 10.000 timmar i Hamburg utan framgång, teorin är inte ofelbar". Asiens matematiska framgångar är inte genetiska utan kulturella: det kinesiska numeriska systemet är mer intuitivt, risodling kräver ständiga förbättringar jämfört med det västerländska jordbrukets territoriella expansion. Verkliga tillämpningar: brittiska banker återhämtar 18% potentiella förluster via anomalidetektering i realtid, tillverkningsindustrin upptäcker mikroskopiska defekter som en mänsklig inspektion skulle missa, sjukvården validerar data från kliniska prövningar med en känslighet för anomalidetektering på över 85%. Sista lärdomen: när datavetenskapen går från att eliminera avvikelser till att förstå dem måste vi se okonventionella karriärer inte som avvikelser som ska korrigeras utan som värdefulla banor som ska studeras.