I takt med att organisationer i allt högre grad använder lösningar med artificiell intelligens för att öka effektiviteten och innovationen har datasäkerhet och integritetsfrågor fått högsta prioritet. Som framgår av sammanfattningen av Stanfords vitbok om dataintegritet och dataskydd i AI-åldern (2023) är "data grunden för alla AI-system" och "utvecklingen av AI kommer att fortsätta att öka utvecklarnas hunger efter träningsdata, vilket leder till en ännu större kapplöpning för att skaffa data än vi har sett under tidigare decennier". AI erbjuder enorma möjligheter, men medför också unika utmaningar som kräver en grundläggande omprövning av våra metoder för dataskydd. Den här artikeln tar upp de viktigaste säkerhets- och integritetsaspekterna för organisationer som implementerar AI-system och ger praktisk vägledning för att skydda känsliga uppgifter under hela AI-livscykeln.
Som påpekas i kapitel 2 i Stanfords vitbok med titeln "Data Protection and Privacy: Key Concepts and Regulatory Landscape" kräver datahantering i AI-åldern ett tillvägagångssätt som beaktar sammanhängande dimensioner som går utöver enbart teknisk säkerhet. Enligt sammanfattningen finns det tre viktiga förslag för att minska de risker för dataskydd som utvecklingen och användningen av AI medför:
Dessa dimensioner kräver särskilda tillvägagångssätt som går utöver traditionella IT-säkerhetsrutiner.
I Stanfords vitbok står det uttryckligen att "insamlingen av i stort sett obegränsade uppgifter medför unika integritetsrisker som sträcker sig längre än till individnivå - de utgör sammantaget samhälleliga skador som inte kan åtgärdas enbart genom utövandet av individuella datarättigheter". Detta är en av de viktigaste iakttagelserna i sammanfattningen och kräver en grundläggande omprövning av våra strategier för dataskydd.
Citat direkt från det första förslaget i Stanfords sammanfattning:
Rekommendation för implementering: Implementera ett dataklassificeringssystem som automatiskt märker känsliga objekt och tillämpar lämpliga kontroller beroende på känslighetsnivån, med fördefinierade inställningar för att inte samla in data.
.png)
Enligt det andra förslaget i Stanfords sammanfattning är transparens och ansvarsutkrävande längs hela datakedjan grundläggande för alla regelsystem som behandlar datasekretess.
I vitboken anges tydligt att det är nödvändigt att "fokusera på leveranskedjan för AI-data för att förbättra integriteten och dataskyddet. Att säkerställa transparens och ansvarighet för datasetet under hela livscykeln måste vara ett mål för alla regelsystem som behandlar datasekretess." Detta innebär följande:
Rekommendation för implementering: Implementera ett system för dataförsörjning som dokumenterar hela livscykeln för data som används vid utbildning och drift av AI-system.
I det tredje förslaget i Stanfords sammanfattning anges att det finns ett behov av att "ändra inställningen till skapandet och hanteringen av personuppgifter". Enligt rapporten bör "beslutsfattare stödja utvecklingen av nya styrmekanismer och tekniska infrastrukturer (t.ex. datamäklare och infrastrukturer för dataauktorisation) för att stödja och automatisera utövandet av individuella datarättigheter och preferenser".
Rekommendation för genomförande: Anta eller bidra till utvecklingen av öppna standarder för dataauktorisation som möjliggör interoperabilitet mellan olika system och tjänster.
AI-modellerna i sig kräver särskilda skyddsåtgärder:
Rekommendation för genomförande: Upprätta "säkerhetsgrindar" i utvecklingskedjan som kräver validering av säkerhet och integritet innan modellerna går i produktion.
AI-system står inför unika attackvektorer:
Rekommendation för implementering: Implementera tekniker för träning av motståndare som specifikt exponerar modeller för potentiella attackvektorer under utvecklingen.
Integritets- och säkerhetskraven varierar avsevärt mellan olika sektorer:
Att implementera en övergripande strategi för datasekretess och säkerhet inom AI kräver:
.png)
Ett globalt finansinstitut implementerade ett AI-baserat system för att upptäcka bedrägerier med en flerskiktad strategi:
Som tydligt anges i sammanfattningen av Stanfords vitbok: "Även om befintlig och föreslagen integritetslagstiftning, baserad på globalt accepterad Fair Information Practices (FIP), implicit reglerar utvecklingen av AI, är den otillräcklig för att hantera kapplöpningen om att förvärva data och de resulterande individuella och systematiska integritetsskadorna." Dessutom "innehåller inte ens lagstiftning som innehåller uttryckliga bestämmelser om algoritmiskt beslutsfattande och andra former av AI de datastyrningsåtgärder som krävs för att på ett meningsfullt sätt reglera de data som används i AI-system."
I AI:s tidevarv kan dataskydd och integritet inte längre betraktas som sekundärt. Organisationer måste följa de tre viktigaste rekommendationerna i vitboken:
Genomförandet av dessa rekommendationer innebär en grundläggande förändring av hur vi uppfattar och hanterar data i AI-ekosystemet. Som analysen i Stanfords vitbok visar är nuvarande metoder för insamling och användning av data ohållbara och riskerar att undergräva allmänhetens förtroende för system för artificiell intelligens, samtidigt som de skapar systemiska sårbarheter som går långt utöver individer.
Det regulatoriska landskapet håller redan på att förändras som svar på dessa utmaningar, vilket framgår av de växande internationella diskussionerna om behovet av att reglera inte bara resultaten av AI, utan även de datainsamlingsprocesser som matar dessa system. Det räcker dock inte med att enbart följa regelverket.
Organisationer som har en etisk och transparent inställning till datahantering kommer att vara bättre positionerade i denna nya miljö och få en konkurrensfördel genom användarnas förtroende och större operativ motståndskraft. Utmaningen är att balansera teknisk innovation med socialt ansvar och inse att AI:s verkliga hållbarhet beror på dess förmåga att respektera och skydda de grundläggande rättigheterna för de människor som den tjänar.