I september 2025 gjorde OpenAI en avslöjande som skakade den globala teknikgemenskapen: ChatGPT övervakar aktivt användarnas konversationer och rapporterar potentiellt brottsligt innehåll till brottsbekämpande myndigheter.
Nyheten, som nästan av en slump kom fram i ett inlägg på företagets blogg, avslöjade att när automatiska system upptäcker användare som "planerar att skada andra" dirigeras konversationerna till specialiserade pipeline där ett litet team som är utbildat i användningspolicyn granskar dem. Om de mänskliga granskarna fastställer att det finns en "överhängande risk för allvarlig fysisk skada på andra" kan ärendet vidarebefordras till polisen¹.

ChatGPT uppmanar dig att dela med dig av dina innersta tankar. Oroa dig inte, allt är konfidentiellt... mer eller mindre.
Källor:
När vi pratar med en psykolog, advokat, läkare eller präst skyddas våra ord av en etablerad rättslig mekanism: tystnadsplikten. Denna princip, som har sina rötter i århundraden av juridisk tradition, fastställer att vissa samtal är okränkbara, även vid brottsutredningar.
Egenskaper hos traditionell tystnadsplikt:
I motsats till vad många tror är tystnadsplikten inte absolut. Det finns väl definierade undantag som varierar beroende på yrkeskategori:
För advokater (art. 28 i advokatens etiska kod): Offentliggörande är tillåtet när det är nödvändigt för att:
Kritiskt exempel: Om en klient meddelar sin advokat att han avser att begå ett mord, måste skyddet av livets värde ha företräde framför skyddet av rätten till försvar, och advokaten är då befriad från tystnadsplikten².
För psykologer (art. 13 i etikkoden): Sekretessen kan brytas när:
Viktig distinktion: Den privata psykologen har större handlingsfrihet än den offentliga, som i egenskap av offentlig tjänsteman har strängare anmälningsskyldigheter³.
Källor:
ChatGPT verkar i en helt annan gråzon:
Brist på juridisk sekretess: Konversationer med AI åtnjuter inget juridiskt skydd. Som Sam Altman, VD för OpenAI, har medgett: ”Om du pratar med en terapeut, advokat eller läkare om dessa problem, finns det juridisk sekretess för detta. Det finns sekretess mellan läkare och patient, det finns juridisk sekretess, vad som helst. Och vi har ännu inte löst detta när du pratar med ChatGPT”².
Automatiserad process: Till skillnad från en mänsklig expert som bedömer varje fall individuellt använder ChatGPT algoritmer för att identifiera ”problematiskt” innehåll, vilket eliminerar kvalificerad mänsklig bedömning från den inledande screeningfasen.
Källor:
Situationen skapar ett oroande paradox. Miljontals människor använder ChatGPT som en digital förtrogen och delar med sig av intima tankar, tvivel, rädslor och till och med kriminella fantasier som de aldrig skulle dela med sig av till en människa. Som Sam Altman rapporterar: ”Människor pratar om de mest personliga sakerna i sina liv med ChatGPT. Människor använder det – särskilt ungdomar – som terapeut och livscoach”⁴.
Risken för kriminell självcensur: Medvetenheten om att samtal kan övervakas kan paradoxalt nog:
En viktig aspekt som kritikerna lyfter fram gäller kompetensen hos dem som fattar de slutgiltiga besluten.
Mänskliga yrkesutövare har:
ChatGPT-systemet fungerar med:
Problematiskt exempel: Hur skiljer en algoritm mellan:
Källor:
Källor:
OpenAI:s erkännande står i skarp kontrast till företagets tidigare ståndpunkter. Företaget har bestämt motsatt sig krav på att lämna ut användardata i rättsprocesser med hänvisning till integritetsskydd. I målet mot New York Times argumenterade OpenAI kraftfullt mot att lämna ut chattloggar för att skydda användarnas integritet⁴.
Det ironiska i situationen: OpenAI försvarar användarnas integritet i domstol samtidigt som man erkänner att man övervakar och delar data med externa myndigheter.
Situationen komplicerades ytterligare av domstolens beslut att OpenAI måste spara alla ChatGPT-loggar på obestämd tid, inklusive privata chattar och API-data. Det innebär att konversationer som användarna trodde var tillfälliga nu arkiveras permanent⁵.
Källor:
Som Sam Altman föreslår kan det bli nödvändigt att utveckla ett begrepp som ”AI-privilegium” – ett rättsligt skydd som liknar det som erbjuds traditionella yrkesutövare. Detta väcker dock komplexa frågor:
Möjliga regleringsalternativ:
IA "Kompartimenterad":
"Trepartsmetoden":
Lärdomar från andra sektorer:
Källor:
OpenAI-fallet skapar viktiga prejudikat för hela artificiell intelligens-branschen:
För företag som utvecklar konversationsbaserad AI:
För företag som använder AI:
Det centrala dilemmat: Hur kan man balansera förebyggandet av verkliga brott med rätten till integritet och digital sekretess?
Frågan är inte enbart teknisk utan berör grundläggande principer:
OpenAI:s avslöjande markerar en vattendelare i utvecklingen av artificiell intelligens, men frågan är inte om rapporteringen är rätt eller fel i sig, utan hur man kan göra den effektiv, rättvis och respektfull mot rättigheter.
Behovet är verkligt: Konkreta hot om våld, planering av attentat eller andra grova brott kräver ingripande. Frågan är inte om man ska anmäla, utan hur man gör det på ett ansvarsfullt sätt.
De grundläggande skillnaderna som måste lösas:
Utbildning och kompetens:
Transparens och kontroll:
Proportionalitet:
För företag inom branschen är utmaningen att utveckla system som effektivt skyddar samhället utan att bli verktyg för godtycklig övervakning. Användarnas förtroende är avgörande, men måste samverka med socialt ansvar.
För användarna är lärdomen dubbel:
Framtiden för konversationsbaserad AI kräver ett nytt ramverk som:
Den rätta frågan är inte om maskiner ska anmäla brott, utan hur vi kan se till att de gör det (åtminstone) med samma klokhet, utbildning och ansvarskänsla som mänskliga yrkesutövare.
Målet är inte att återgå till en AI som är "blind" för de verkliga farorna, utan att bygga system som kombinerar teknisk effektivitet med etik och mänsklig kompetens. Endast på så sätt kan vi få det bästa av två världar: säkerhet och skyddade individuella rättigheter.