Newsletter

Reglering av det som inte skapas: riskerar Europa att bli tekniskt irrelevant?

**TITEL: European AI Act - The Paradox of Who Regulates What Doesn't Develop** **SUMMARY:** Europa drar bara till sig en tiondel av de globala investeringarna i artificiell intelligens men gör anspråk på att diktera globala regler. Detta är "Brysseleffekten" - att införa regleringar på en planetär skala genom marknadsmakt utan att driva innovation. AI-lagen träder i kraft enligt en förskjuten tidsplan fram till 2027, men multinationella teknikföretag svarar med kreativa undvikandestrategier: åberopar affärshemligheter för att undvika att avslöja utbildningsdata, producerar tekniskt kompatibla men obegripliga sammanfattningar, använder självutvärdering för att nedgradera system från "hög risk" till "minimal risk", forumshopping genom att välja medlemsländer med mindre stränga kontroller. Paradoxen med extraterritoriell upphovsrätt: EU kräver att OpenAI ska följa europeiska lagar även för utbildning utanför Europa - en princip som aldrig tidigare förekommit i internationell rätt. Den "dubbla modellen" växer fram: begränsade europeiska versioner kontra avancerade globala versioner av samma AI-produkter. Verklig risk: Europa blir en "digital fästning" isolerad från global innovation, med europeiska medborgare som får tillgång till sämre teknik. EU-domstolen har i kreditvärderingsfallet redan avvisat försvaret med "affärshemligheter", men tolkningsosäkerheten är fortfarande enorm - vad exakt innebär "tillräckligt detaljerad sammanfattning"? Det är det ingen som vet. En sista obesvarad fråga: skapar EU en etisk tredje väg mellan amerikansk kapitalism och kinesisk statskontroll, eller exporterar man helt enkelt byråkrati till ett område där man inte konkurrerar? För tillfället: världsledande inom AI-reglering, marginell inom dess utveckling. Stort program.
Fabio Lauria
VD & grundare av Electe‍

Den europeiska AI-lagen: mellan transparens och företags undvikande strategier

Europeiska unionen har tagit ett historiskt steg genom att låta AI-akten träda i kraft, världens första heltäckande lagstiftning om artificiell intelligens. Denna revolutionerande rättsakt, som placerar Europa i framkant när det gäller styrning av AI, fastställer ett riskbaserat regelverk som syftar till att balansera innovation och skyddet av grundläggande rättigheter. Förordningen utgör dock också ännu en manifestation av den så kallade "Bryssel-effekten" - EU:s tendens att införa sina regler på global nivå genom sin marknadsmakt, utan att nödvändigtvis driva på den tekniska innovationen.

Medan USA och Kina leder utvecklingen av AI med massiva offentliga och privata investeringar (45% respektive 30% av de globala investeringarna 2024), har Europa endast attraherat 10% av de globala investeringarna i AI. Som svar försöker EU kompensera för sin tekniska eftersläpning genom reglering och införa standarder som i slutändan påverkar hela det globala ekosystemet.

Den centrala frågan är: skapar Europa en miljö som främjar ansvarsfull innovation eller exporterar man bara byråkrati till en bransch där den inte kan konkurrera?

Den europeiska lagstiftningens extraterritoriella dimension

AI-lagen är inte bara tillämplig på europeiska företag, utan även på dem som är verksamma på den europeiska marknaden eller vars AI-system påverkar EU-medborgare. Denna extraterritoriella jurisdiktion är särskilt tydlig i bestämmelserna om GPAI-modeller, där det i skäl 106 i lagen anges att leverantörer måste respektera EU:s upphovsrätt "oavsett i vilken jurisdiktion utbildningen av modellerna äger rum".

Detta tillvägagångssätt har kritiserats starkt av vissa observatörer, som ser det som ett försök från EU:s sida att införa sina regler för företag som inte är baserade på EU:s territorium. Enligt kritikerna skulle detta kunna skapa en spricka i det globala teknikekosystemet, där företag tvingas utveckla separata versioner av sina produkter för den europeiska marknaden eller anta europeiska standarder för alla marknader för att undvika ytterligare kostnader för efterlevnad.

Multinationella teknikföretag befinner sig därför i en svår situation: att ignorera den europeiska marknaden är inte ett hållbart alternativ, men att följa AI-lagen kräver betydande investeringar och kan begränsa utrymmet för innovation. Denna effekt förstärks ytterligare av den ambitiösa tidslinjen för genomförandet och den tolkningsosäkerhet som präglar många bestämmelser.

Tidsplanen för genomförandet och det rättsliga ramverket

AI-lagen trädde i kraft den 1 augusti 2024, men genomförandet kommer att ske enligt en förskjuten tidsplan:

  • 2 februari 2025: Ikraftträdande av förbudet mot AI-system som medför oacceptabla risker (t.ex. myndigheters sociala poängsättning) och krav på AI-kunskaper
  • 2 maj 2025: Tidsfrist för att färdigställa uppförandekoden för AI-modeller för allmänna ändamål (GPAI)
  • 2 augusti 2025: Tillämpning av reglerna om AI-modeller för allmänt ändamål, styrning och rapporterande myndigheter
  • 2 augusti 2026: Fullständig tillämpning av bestämmelserna om högrisk-system och transparensskyldigheter
  • 2 augusti 2027: Tillämpning av standarder för högrisksystem som omfattas av lagstiftning om produktsäkerhet

Förordningen utgår från ett riskbaserat synsätt och klassificerar AI-system i fyra kategorier: oacceptabel risk (förbjuds), hög risk (omfattas av strikta krav), begränsad risk (med transparensskyldigheter) och minimal eller ingen risk (fri användning). Denna kategorisering avgör vilka specifika skyldigheter som gäller för utvecklare, leverantörer och användare.

De nya bestämmelserna om transparens: hinder för innovation?

En av de viktigaste nyheterna i AI-lagen gäller transparensskyldigheter, som syftar till att komma till rätta med den "svarta lådans" karaktär.svarta lådan"hos AI-system. Dessa skyldigheter inkluderar:

  • Skyldighet för leverantörer av GPAI-modeller att publicera en "tillräckligt detaljerad sammanfattning" av utbildningsdata, vilket underlättar övervakning av upphovsrättsinnehavare och andra berörda parter.
  • Behovet av att system som interagerar med människor informerar användarna om att de kommunicerar med ett AI-system
  • Skyldigheten att tydligt märka innehåll som genererats eller modifierats av AI (t.ex. deepfakes)
  • Implementering av omfattande teknisk dokumentation för högrisk-system

Även om dessa krav är utformade för att skydda medborgarnas rättigheter kan de innebära en betydande börda för företagen, särskilt för innovativa nystartade företag och små och medelstora företag. Behovet av att dokumentera utvecklingsprocesser, utbildningsdata och beslutslogik i detalj kan sakta ner innovationscykler och öka utvecklingskostnaderna, vilket gör att europeiska företag missgynnas jämfört med konkurrenter i andra regioner med mindre stränga regler.

Fallstudier: skatteflykt i praktiken

Processer för kreditbedömning och automatiserat beslutsfattande

Domen i mål C-203/22 belyser hur företag inledningsvis motsätter sig krav på öppenhet. Svaranden, en telekommunikationsleverantör, hävdade att ett avslöjande av logiken i dess kreditbedömningsalgoritm skulle avslöja affärshemligheter och äventyra dess konkurrensfördel.6 . EU-domstolen tillbakavisade detta argument och konstaterade att artikel 22 i GDPR ger enskilda rätt till en förklaring av "kriterierna och logiken" bakom automatiserade beslut, även om förenklade6 .

Generativ AI och upphovsrättsundandragande

Enligt AI-lagens tvådelade system faller de flesta generativa AI-modeller under Tier 1, vilket kräver efterlevnad av EU:s upphovsrätt och sammanfattningar av utbildningsdata2 . För att undvika påståenden om upphovsrättsintrång har företag som OpenAI gått över till sammanfattade data eller licensierat innehåll, men det finns fortfarande luckor i dokumentationen.

Konsekvenserna för upphovsrätten: Europa fastställer lagen globalt

AI-lagen innehåller särskilda upphovsrättsliga bestämmelser som utvidgar EU:s rättsliga inflytande långt utanför dess gränser. Leverantörer av GPAI-modeller måste:

  • respektera det rättighetsförbehåll som fastställs i direktivet om den digitala inre marknaden (2019/790)
  • Ge en detaljerad sammanfattning av det innehåll som används för utbildning, med en balans mellan behovet av att skydda affärshemligheter och behovet av att tillåta upphovsrättsinnehavare att hävda sina rättigheter

I skäl 106 i AI-lagen anges att leverantörer måste respektera EU:s upphovsrättslagstiftning "oavsett i vilken jurisdiktion modellutbildningen äger rum". Detta extraterritoriella tillvägagångssätt väcker frågor om förenligheten med principerna om upphovsrättens territorialitet och kan skapa regleringskonflikter med andra jurisdiktioner.

Företagsstrategier: undvikande eller efterlevnad av "Brysseleffekten"?

För globala teknikföretag innebär AI-lagen ett grundläggande strategiskt val: anpassa sig till "Brysseleffekten" och följa europeiska standarder globalt, eller utveckla differentierade strategier för olika marknader? Flera strategier har vuxit fram:

Undvikande och begränsande strategier

  1. Skyddet för företagshemligheter: Många företag försöker begränsa utlämnandet genom att åberopa skyddet för företagshemligheter i EU:s direktiv om företagshemligheter. Företagen hävdar att detaljerade upplysningar om utbildningsdata eller modellarkitekturer skulle avslöja äganderättsligt skyddad information och undergräva deras konkurrenskraft. Detta tillvägagångssätt förväxlar lagens krav på en sammanfattning av uppgifter med fullständig redovisning.
  2. Teknisk komplexitet som försvar: Den inneboende komplexiteten i moderna AI-system erbjuder en annan möjlighet till förmildrande omständigheter. Företag producerar tekniskt kompatibla men alltför ordrika eller jargongfyllda sammanfattningar som formellt uppfyller rättsliga krav utan att möjliggöra meningsfull granskning. Till exempel kan en sammanfattning av utbildningsdata innehålla breda kategorier av data (t.ex. "offentligt tillgängliga texter") utan att specificera specifika källor, proportioner eller metoder.
  3. Kryphålet för självbedömning: Genom ändringarna av avsnitt 6 i IA-lagen införs en mekanism för självbedömning som gör det möjligt för utvecklare att undanta sina system från högriskkategorisering om de anser att riskerna är "försumbara". Detta kryphål ger företagen ensidiga befogenheter att undvika strikta efterlevnadsskyldigheter.
  4. Regulatory Forum Shopping: AI-lagen delegerar verkställighet till nationella marknadsövervakningsmyndigheter, vilket leder till potentiella skillnader i stringens och kompetens. Vissa företag lokaliserar strategiskt sin europeiska verksamhet till medlemsländer med mer slapphänta tillsynsstrategier eller färre tillsynsresurser.

Den "dubbla modellen" som ett svar på Bryssel-effekten

Vissa stora teknikföretag håller på att utveckla en "dubbelmodell" för sin verksamhet:

  1. "EU-kompatibla" versioner av deras AI-produkter med begränsad funktionalitet men i full överensstämmelse med AI-lagen
  2. Mer avancerade "globala" versioner tillgängliga på mindre reglerade marknader

Detta tillvägagångssätt är visserligen kostsamt, men gör det möjligt att upprätthålla en europeisk marknadsnärvaro utan att kompromissa med den globala innovationen. Denna fragmentering kan dock leda till ett ökat teknologiskt gap, där europeiska användare får tillgång till mindre avancerad teknik än användare i andra regioner.

Osäkerhet kring lagstiftningen som ett hinder för europeisk innovation

Den europeiska AI-lagen utgör en vändpunkt i AI-regleringen, men dess komplexitet och oklara tolkningar skapar ett klimat av osäkerhet som kan ha en negativ inverkan på innovation och investeringar i sektorn. Företagen står inför flera utmaningar:

Osäkerhet kring lagstiftning som en affärsrisk

Det föränderliga regleringslandskapet utgör en betydande risk för företagen. Tolkningen av nyckelbegrepp som "tillräckligt detaljerad sammanfattning" eller klassificeringen av system med "hög risk" är fortfarande tvetydig. Denna osäkerhet kan resultera i:

  1. Oförutsägbara kostnader för efterlevnad: företag måste avsätta betydande resurser för efterlevnad utan att ha full visshet om de slutliga kraven.
  2. Försiktiga marknadsstrategier: Osäkerhet om regleringar kan leda till mer försiktiga investeringsbeslut och förseningar i utvecklingen av ny teknik, särskilt i Europa.
  3. Fragmentering av den europeiska digitala marknaden: den ojämna tolkningen av regler mellan olika medlemsstater riskerar att skapa ett regleringslappverk som är svårt för företag att navigera i.
  4. Asymmetrisk global konkurrens: Europeiska företag kan komma att arbeta under strängare restriktioner än konkurrenter från andra regioner, vilket påverkar deras globala konkurrenskraft.

Innovationsgapet och teknisk suveränitet

Debatten om "Brysseleffekten" är en del av det bredare sammanhanget kring europeisk teknisk suveränitet. EU befinner sig i den svåra situationen att man måste balansera behovet av att främja intern innovation med behovet av att reglera teknik som huvudsakligen utvecklats av utomeuropeiska aktörer.

År 2024 attraherade europeiska företag endast 10 procent av de globala investeringarna i AI, medan USA och Kina dominerade sektorn med en kombination av massiva offentliga och privata investeringar, innovationsvänlig politik och tillgång till stora datamängder. Europa, med sin språkliga, kulturella och regleringsmässiga fragmentering, kämpar för att skapa "mästare" inom teknik som kan konkurrera globalt.

Kritikerna menar att den europeiska regleringsfokuserade strategin riskerar att ytterligare kväva innovation och avskräcka från investeringar, medan förespråkarna anser att skapandet av ett tillförlitligt regelverk faktiskt kan stimulera utvecklingen av etisk och säker AI "by design", vilket skapar en långsiktig konkurrensfördel.

Slutsats: reglering utan innovation?

"Bryssel-effekten" av AI-lagen belyser en grundläggande spänning i den europeiska synen på teknik: förmågan att fastställa globala standarder genom reglering motsvaras inte av motsvarande ledarskap inom teknisk innovation. Denna asymmetri väcker frågor om den långsiktiga hållbarheten i detta tillvägagångssätt.

Om EU fortsätter att reglera teknik som man inte själv utvecklar riskerar man att hamna i en situation med ett allt större tekniskt beroende, där EU:s regler kan bli allt mindre relevanta i ett snabbt föränderligt globalt ekosystem. Dessutom skulle utomeuropeiska företag gradvis kunna dra sig tillbaka från den europeiska marknaden eller erbjuda begränsade versioner av sina produkter där, vilket skulle skapa en "digital fästning Europa" som blir alltmer isolerad från den globala utvecklingen.

Om EU å andra sidan kunde balansera sin regleringsstrategi med en effektiv strategi för att främja innovation, skulle man effektivt kunna definiera en "tredje väg" mellan amerikansk kapitalism och kinesisk statskontroll och sätta mänskliga rättigheter och demokratiska värderingar i centrum för den tekniska utvecklingen. Vaste program skulle man säga i Frankrike.

Framtiden för AI i Europa kommer inte bara att bero på hur effektivt AI-lagen skyddar de grundläggande rättigheterna, utan också på Europas förmåga att komplettera regleringen med tillräckliga investeringar i innovation och att förenkla regelverket för att göra det mindre förtryckande. Annars riskerar Europa att hamna i en paradoxal situation: världsledande när det gäller reglering av AI, men marginell när det gäller utveckling och genomförande.

Referenser och källor

  1. Europeiska kommissionen. (2024). "Förordning (EU) 2024/1689 om fastställande av harmoniserade standarder för artificiell intelligens". Europeiska unionens officiella tidning.
  2. Europeiska AI-kontoret. (2025, april). "Preliminär vägledning om skyldigheter för leverantörer av GPAI-modeller". Europeiska kommissionen.
  3. Europeiska unionens domstol. (2025, februari). "Dom i mål C-203/22, Dun & Bradstreet Austria". EU-DOMSTOLEN.
  4. Warso, Z., & Gahntz, M. (2024, december). "Hur EU:s AI-akt kan öka öppenheten kring data från AI-träning". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Begränsningar och kryphål i EU:s AI-lag och AI-ansvarsdirektiv". Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Europeiska digitala rättigheter (EDRi). (2023, september). "EU:s lagstiftare måste täppa till farliga kryphål i AI-lagen". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Institutet för livets framtid. (2025). "AI Act Compliance Checker". https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, februari). "Förstå AI-lagen och dess efterlevnadsutmaningar". Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "EU:s lag om artificiell intelligens och upphovsrätt". The Journal of World Intellectual Property. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, juli). "EU:s efterlängtade AI-akt blir lag efter publicering i EU:s officiella tidning". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Resurser för företagstillväxt