I takt med att artificiell intelligens i allt högre grad driver kritiska affärsfunktioner har frågor om etik, ansvar och styrning gått från teoretiska diskussioner till praktiska krav. Som framgått av de senaste diskussionerna i teknikbranschen finns det dock ett förvånansvärt stort glapp mellan tillgången till verktyg med öppen källkod för etisk AI och det faktiska utbudet av dedikerade SaaS-lösningar på området.
Branschfolk frågar: "Varför finns det inga SaaS-produkter för etisk AI tillgängliga?" Trots den stora tillgången på verktyg som ELI5, LIME, SHAP och Fairlearn verkar marknaden för "Ethical-AI-as-a-Service"-lösningar vara förvånansvärt underutvecklad. Detta gap väcker frågor om det upplevda kommersiella värdet av AI-etik i det nuvarande teknikekosystemet.
På vårt företag anser vi att etiska överväganden bör vara grundläggande och inte sekundära element i utvecklingen och implementeringen av artificiell intelligens. I den här artikeln beskriver vi vårt omfattande ramverk för etisk AI och jämför det med verkligheten på den nuvarande marknaden och de praktiska utmaningar som lyfts fram av praktiker.
För SaaS-leverantörer handlar etisk AI inte bara om att undvika skada, utan också om att bygga hållbara produkter som genererar bestående värde. Vår strategi bygger på några grundläggande övertygelser:
Enligt branschfolk är dock det kommersiella värdet av etisk AI fortfarande omtvistat i avsaknad av starka regulatoriska påtryckningar. En expert konstaterade: "Regelverket är inte sådant att ett företag skulle utsättas för en enorm ansvarsrisk om dess algoritm är oetisk, och jag kan inte riktigt se att folk skulle ställa sig i kö för ett företag som marknadsför sig med att använda 100 % etisk AI."
Denna spänning mellan etiska ideal och marknadens realiteter är en viktig utmaning för företag som vill positionera etik som en konkurrensfördel.
Innan vi presenterar vårt ramverk är det viktigt att ta hänsyn till de betydande utmaningar som har begränsat spridningen av etiska AI SaaS-lösningar:
Som experter på området påpekar är "begreppet 'etisk AI' i själva verket ganska kontextberoende". Vad som anses vara etiskt varierar drastiskt mellan olika kulturer, branscher och till och med mellan individer inom samma organisation. "Jag tror att vad som är etiskt skiljer sig från person till person. En del anser att det handlar om kompensation. Vissa anser att immateriella rättigheter i sig är oetiska, och att ersättning därför skulle vara oetiskt."
Eftersom det inte finns några regler som gör det obligatoriskt att verifiera rättvisa i AI ser många organisationer inte någon tydlig avkastning på investeringen i etiska AI-verktyg. Som en teknikchef konstaterade: "Marknaden sätter ett mycket högre värde på att framstå som etisk än på att vara etisk." Denna klyfta mellan utseende och substans försvårar arbetet med att utveckla övertygande värdeförslag.
Implementeringen av etiska AI-lösningar kräver djupgående tillgång till proprietära modeller och utbildningsdata, vilket väcker frågor om säkerhet och immateriella rättigheter. Som en forskare konstaterade: "Förklarliga AI-algoritmer är redan öppen källkod och kräver tillgång till modellen, så det är inte meningsfullt att vara värd för någonting."
SaaS-företag som erbjuder etiska AI-tjänster kan ställas inför komplexa ansvarsfrågor om deras verktyg inte upptäcker etiska problem på ett adekvat sätt. En juridisk rådgivare föreslog: "Borde de kanske erbjuda någon form av skadestånd eller något liknande? Jag vet inte tillräckligt mycket om det juridiska landskapet eller affärsfrågan, men det är en av de första frågorna jag skulle ställa."
Trots dessa utmaningar har vissa företag börjat dyka upp på det här området, med erbjudanden som DataRobot som tillhandahåller övervakning av aktier och fördomar genom sina MLOps-lösningar.
Vår strategi är uppbyggd kring fem sammanhängande pelare, som var och en har praktiska konsekvenser för hur vi utvecklar och driftssätter våra SaaS-lösningar:
Grundprincip: Våra AI-system måste behandla alla användare och subjekt lika och undvika orättvis diskriminering eller förmånsbehandling.
Praktiska tillämpningar:
Hypotetisk fallstudie: I ett HRM-system är det viktigt att kontrollera att modellerna inte oavsiktligt missgynnar "karriärglapp" - en faktor som i oproportionerligt hög grad drabbar kvinnor och anhörigvårdare. Genom rigorösa protokoll för rättvisetestning är det möjligt att identifiera dessa fördomar och omforma systemet så att karriärutvecklingen bedöms på ett mer rättvist sätt.
Svar på marknadens utmaningar: Vi är medvetna om att denna typ av analys, som föreslagits av branschföreträdare, främst kan användas som en internrevision för organisationer som vill implementera AI på ett ansvarsfullt sätt, fram till dess att det finns lagstiftning som kräver att man visar att AI är rättvist.
Grundprincip: Användarna ska förstå hur och varför våra system för artificiell intelligens kommer fram till vissa slutsatser, särskilt när det gäller beslut som innebär hög risk.
Praktiska tillämpningar:
Hypotetisk fallstudie: AI-baserade finansiella prognosverktyg bör tillhandahålla konfidensintervall tillsammans med prognoserna och låta användarna utforska hur olika faktorer påverkar prognoserna. Denna transparens hjälper användarna att förstå inte bara vad systemet förutspår, utan också varför det gör det och hur säkert det är.
Svar på marknadens utmaningar: Som framgick av branschdiskussionen kan det vara mer effektivt att integrera dessa element i befintliga produkter, som DataRobot gör med sin MLOps-övervakning, än att erbjuda dem som fristående tjänster.
Grundläggande princip: Respekt för privatlivet måste byggas in i varje nivå av vår datapipeline, från insamling till bearbetning och lagring.
Praktiska tillämpningar:
Hypotetisk fallstudie: En etiskt utformad plattform för kundanalys bör använda aggregeringstekniker som ger värdefull information utan att avslöja enskilda kunders beteende. Denna "privacy-by-design"-strategi skulle göra det möjligt för företag att förstå trender utan att äventyra kundernas integritet.
Svar på marknadens utmaningar: Som påpekades i branschdiskussionen "kanske du blandar ihop etik och regelefterlevnad (som är väldigt olika saker, åtminstone i ett amerikanskt sammanhang). Det finns faktiskt några nystartade företag som jag känner till där värdeerbjudandet är att de outsourcar vissa aspekter av detta, men är mer fokuserade på datasekretess."
Grundprincip: En tydlig ansvarsstruktur säkerställer att etiska överväganden inte hamnar mellan stolarna i utvecklingsprocessen.
Praktiska tillämpningar:
Hypotetisk fallstudie: En effektiv etikprövningskommitté bör genomföra regelbundna granskningar av de viktigaste AI-komponenterna på en plattform. Dessa granskningar kan identifiera potentiella problem, t.ex. oavsiktliga incitamentsstrukturer i rekommendationsmotorer, innan de kan påverka kunderna.
Svar på utmaningar på marknaden: Som svar på observationen att "så länge det inte finns något regulatoriskt tryck skulle den här produkten användas mer som en internrevision", fann vi att integreringen av dessa revisioner i vår produktutvecklingsprocess bidrar till att bygga upp ett förtroende hos företagskunder som oroar sig för ryktesrisker.
Grundprincip: AI bör öka den mänskliga förmågan snarare än att ersätta mänskliga bedömningar, särskilt när det gäller beslut som får konsekvenser.
Praktiska tillämpningar:
Hypotetisk fallstudie: I ett AI-baserat verktyg för avtalsanalys bör systemet peka på potentiella problem och förklara sitt resonemang, men de slutliga besluten bör alltid fattas av de mänskliga användarna. Detta samarbetsbaserade tillvägagångssätt skulle säkerställa effektivitet samtidigt som det mänskliga omdömet bibehålls.
.png)
Trots de marknadsutmaningar som diskuterats anser vi att det finns ett övertygande affärsnytta för etisk AI som går utöver ren regelefterlevnad eller PR:
Även om specifika regler för etisk AI fortfarande är begränsade, utvecklas regelverket snabbt. EU gör betydande framsteg med AI Act, medan USA utforskar olika regelverk. Företag som implementerar etiska metoder idag kommer att vara bättre positionerade när regelverken träder i kraft.
Som en av deltagarna i diskussionen påpekade kan det finnas "en PR-aspekt" i att erbjuda en "godkännandestämpel" för etisk AI. I en tid då allmänheten blir alltmer medveten om och oroad över AI har företag som kan visa att de tillämpar etiska metoder en betydande fördel när det gäller att hantera ryktesrisker.
Våra fem grundpelare tjänar inte bara etiska syften utan förbättrar också den övergripande kvaliteten på våra produkter. Rättvisare system ger bättre service till en mångfaldig kundbas. Ökad transparens skapar förtroende hos användarna. Robusta integritetsrutiner skyddar både användare och företaget.
Även om massmarknaden kanske inte "knackar på hos alla företag som säger sig använda 100% etisk AI", finns det ett växande segment av företagskunder med ett starkt engagemang för ansvarsfulla affärsmetoder. Dessa kunder söker aktivt efter leverantörer som delar deras värderingar och som kan uppvisa etiska metoder.
När vi blickar framåt ser vi flera trender som kan omvandla etisk AI från en nischfråga till en vanlig praxis:
I takt med att regelverken utvidgas kommer företagen i allt högre grad att behöva visa att de följer olika etiska normer. Detta kommer att driva på efterfrågan på verktyg som kan underlätta sådan efterlevnad.
Investerare, medarbetare och kunder blir alltmer medvetna om och oroade över de etiska konsekvenserna av AI. Detta växande tryck gör att företagen söker efter verktyg som kan visa på etiska metoder.
I takt med att användningen av AI ökar kommer även uppmärksammade incidenter relaterade till partiskhet, integritet eller tvivelaktiga algoritmiska beslut att öka. Dessa incidenter kommer att driva på efterfrågan på förebyggande lösningar.
Utvecklingen av gemensamma standarder för att bedöma och kommunicera AI:s rättvisa, integritet och andra etiska attribut kommer att underlätta införandet av etiska AI-verktyg bland organisationer.
Som framkommit i branschdiskussionen med exempel som DataRobot ligger framtiden för etisk AI kanske inte i fristående lösningar, utan i integration med bredare MLOps-plattformar som inkluderar övervakning av aktier och fördomar.
Alltför ofta framställs etik och innovation som motsatta krafter - den ena begränsar den andra. Vår erfarenhet, i kombination med insikter från teknikbranschen, tyder på en mer nyanserad verklighet: även om etiska överväganden verkligen kan driva innovation genom att driva oss att hitta lösningar som skapar värde utan att skapa skada, utgör den nuvarande marknaden betydande hinder för en utbredd användning av dedikerade etiska AI SaaS-lösningar.
Frågan som ställdes av branschen - "Varför finns det inga etiska AI SaaS-produkter tillgängliga?" - är fortfarande relevant. Svaret verkar ligga i en kombination av olika definitioner av etik, begränsade ekonomiska incitament i avsaknad av regleringstryck, praktiska implementeringsutmaningar och juridiska ansvarsfrågor.
Trots dessa utmaningar tror vi att framtiden för artificiell intelligens i näringslivet inte bara handlar om vad som är tekniskt möjligt, utan också om vad som är ansvarsfullt fördelaktigt. Vårt företag har åtagit sig att driva denna framtid genom etisk innovation och integrera etiska överväganden i våra produkter och processer när vi navigerar i verkligheten på dagens marknadsplats.
Som en deltagare i diskussionen föreslog, "kanske starta en om du är i branschen och ser ett behov?" Vi gör redan det. Vi uppmanar andra innovatörer att tillsammans med oss utforska detta nya område - inte bara som ett moraliskt imperativ, utan som en framåtblickande affärsstrategi i ett teknikekosystem som fortsätter att utvecklas.