Företag

Bortom algoritmen: Hur modeller för artificiell intelligens tränas och förfinas

"Data är nyckeln. Den heliga gralen för generativ AI."-Hilary Packer, CTO på American Express. Datahantering står för 80% av ansträngningarna i AI-projekt. DeepSeek har ändrat reglerna: inferenskostnad 1/30 jämfört med OpenAI. Dario Amodei: kostnaderna sjunker 4x per år. "Jag förväntar mig att kostnaden ska gå till noll" -CDO för Intuit. Kombinationen av destillation + RAG är där magin ligger för de flesta företag. Hur ser framtiden ut? Massor av specifika, billiga modeller med rötter i företagsdata.

Hur man tränar en modell för artificiell intelligens

Träningen av modeller för artificiell intelligens är en av de mest komplexa utmaningarna inom dagens tekniska utveckling. En effektiv träning av en modell är mycket mer än en enkel algoritmisk fråga och kräver ett metodiskt och tvärvetenskapligt tillvägagångssätt som integrerar data, datavetenskap, domänkunskap och programvaruteknik. Som James Luke påpekar i sin banbrytande text"Beyond Algorithms: Delivering AI for Business" beror framgången med en AI-implementering mycket mer på datahantering och systemisk design än på själva algoritmerna. Landskapet förändras snabbt, med innovationer som DeepSeek-R1-modellen som omdefinierar kostnad och tillgänglighet.

Grunden: insamling och hantering av data

Kvalitet snarare än kvantitet

I motsats till vad man ofta tror är mängden data inte alltid den avgörande faktorn för framgång. Datans kvalitet och representativitet är betydligt viktigare. I det här sammanhanget är det avgörande att integrera olika källor:

  • Egendomsskyddade data: etiskt insamlade och anonymiserade av befintliga implementeringar
  • Auktoriserad data: Kommer från pålitliga leverantörer som uppfyller strikta kvalitetsstandarder
  • Dataset med öppen källkod: Noggrant verifierade för att säkerställa mångfald och noggrannhet
  • Syntetisk data: artificiellt genererad för att fylla luckor och lösa integritetsproblem

Denna integration skapar en omfattande utbildningsbas som fångar upp verkliga scenarier samtidigt som etiska och integritetsmässiga standarder upprätthålls.

Utmaningen med att förbereda data

Processen "data wrangling" står för upp till 80 procent av den insats som krävs i projekt för artificiell intelligens. Denna fas innebär:

  • Datarengöring: Eliminering av inkonsekvenser, dubbletter och avvikande värden
  • Transformation av data: Konvertering till format som är lämpliga för bearbetning
  • Integration av data: Sammanslagning av olika källor som ofta använder inkompatibla scheman och format
  • Hantering av saknade data: Strategier som statistisk imputation eller användning av proxydata

Som Hilary Packer, CTO på American Express, påpekade : "Aha-upplevelsen för oss var ärligt talat data. Du kan göra världens bästa modellurval ... men data är nyckeln. Validering och noggrannhet är den heliga gralen just nu inom generativ AI."

Modellarkitektur: rätt storlek

Valet av modellarkitektur måste styras av den specifika karaktären hos det problem som ska lösas, snarare än av personliga tendenser eller preferenser. Olika typer av problem kräver olika tillvägagångssätt:

  • Transformatorbaserade språkmodeller för uppgifter som kräver djup språklig förståelse
  • Konvolutionella neurala nätverk för bild- och mönsterigenkänning
  • Grafiska neurala nätverk föranalys av komplexa relationer mellan enheter
  • Förstärkningsinlärning för optimerings- och beslutsproblem
  • Hybridarkitekturer som kombinerar flera metoder för komplexa användningsfall

Arkitektonisk optimering kräver en systematisk utvärdering av olika konfigurationer, med fokus på att balansera prestanda och beräkningskrav, en aspekt som har blivit ännu mer relevant i och med tillkomsten av modeller som DeepSeek-R1 som erbjuder avancerade resonemangsfunktioner till betydligt lägre kostnader.

Avancerade utbildningsmetoder

Modell destillation

Destillation har visat sig vara ett särskilt kraftfullt verktyg i det nuvarande AI-ekosystemet. Denna process gör det möjligt att skapa mindre, mer specifika modeller som ärver resonemangsförmågan hos större, mer komplexa modeller, som DeepSeek-R1.

Som i fallet med DeepSeek harföretaget destillerat sin resonemangsförmåga på flera mindre modeller, inklusive modeller med öppen källkod från Metas Llama-familj och Alibabas Qwen-familj. Dessa mindre modeller kan sedan optimeras för specifika uppgifter, vilket påskyndar trenden mot snabba och specialiserade modeller.

Sam Witteveen, utvecklare av maskininlärning, konstaterar: "Vi börjar komma in i en värld där människor använder flera modeller. De använder inte bara en modell hela tiden." Detta inkluderar slutna lågkostnadsmodeller som Gemini Flash och GPT-4o Mini, som "fungerar mycket bra för 80 procent av användningsfallen".

Inlärning med flera uppgifter

I stället för att utbilda separata modeller för relaterade färdigheter kan modellerna dela med sig av kunskap mellan olika funktioner genom multi-task learning:

  • Modellerna optimerar samtidigt för flera relaterade mål
  • Grundläggande funktionalitet gynnas av bredare exponering för olika arbetsuppgifter
  • Prestanda förbättras i alla uppgifter, särskilt de med begränsad data
  • Beräkningseffektiviteten ökar genom komponentdelning

Övervakad finjustering (SFT)

För företag som verkar inom mycket specifika områden, där information inte är allmänt tillgänglig på webben eller i de böcker som vanligtvis används för att träna språkmodeller, är finjustering under övervakning (SFT) ett effektivt alternativ.

DeepSeek visade att det är möjligt att uppnå goda resultat med "tusentals" dataset med frågor och svar. IBM-ingenjören Chris Hay visade till exempel hur han satte upp en liten modell med sina egna matematikspecifika dataset och fick extremt snabba svar som överträffade prestandan hos OpenAI:s o1-modell på samma uppgifter.

Förstärkningsinlärning (RL)

Företag som vill träna en modell med ytterligare anpassning till specifika preferenser - till exempel att göra en chatbot för kundsupport empatisk men kortfattad - kommer att vilja implementera tekniker för förstärkningsinlärning (RL). Detta tillvägagångssätt är särskilt användbart om ett företag vill att dess chatbot ska anpassa sin ton och sina rekommendationer baserat på användarens feedback.

RAG (Retrieval-Augmented Generation)

För de flesta företag är RAG (Retrieval-Augmented Generation) den enklaste och säkraste metoden. Det är en relativt okomplicerad process som gör det möjligt för organisationer att förankra sina modeller med äganderättsligt skyddade data i sina databaser, vilket säkerställer att resultaten är korrekta och domänspecifika.

Detta tillvägagångssätt bidrar också till att motverka vissa av de hallucinationsproblem som är förknippade med modeller som DeepSeek, som för närvarande hallucinerar i 14% av fallen jämfört med 8% för OpenAI:s o3-modell, enligt en studie utförd av Vectara.

Kombinationen av modelldestillation och RAG är magin för de flesta företag och har blivit otroligt enkel att implementera, även för personer med begränsade kunskaper i datavetenskap eller programmering.

Utvärdering och förfining: bortom noggrannhetsmätningar

Effektiv AI mäts inte bara i termer av rå noggrannhet, utan kräver ett omfattande utvärderingsramverk som tar hänsyn till:

  • Funktionell noggrannhet: Frekvens med vilken modellen ger korrekta resultat
  • Robusthet: Beständighet i prestanda med varierande ingångar och förhållanden
  • Rättvisa: Konsekvent prestanda för olika användargrupper och scenarier
  • Kalibrering: Anpassning mellan förtroendepoäng och faktisk noggrannhet
  • Effektivitet: Beräknings- och minneskrav
  • Förklarbarhet: Transparens i beslutsprocesser, en aspekt där DeepSeeks destillerade modeller utmärker sig genom att visa deras resonemangsprocess

Kostnadskurvans inverkan

Den mest omedelbara effekten av DeepSeeks lansering är dess aggressiva prissänkning. Teknikbranschen förväntade sig att kostnaderna skulle sjunka över tid, men få förutsåg hur snabbt det skulle ske. DeepSeek visade att kraftfulla, öppna modeller kan vara både billiga och effektiva, vilket skapar möjligheter för omfattande experiment och kostnadseffektiv implementering.

Amr Awadallah, VD för Vectara, betonade detta och konstaterade att den verkliga brytpunkten inte bara är utbildningskostnaden utan även inferenskostnaden, som för DeepSeek är cirka 1/30 av OpenAI:s o1- eller o3-modeller per inferenskostnad per token. "De marginaler som OpenAI, Anthropic och Google Gemini har kunnat ta hem kommer nu att behöva minskas med minst 90 procent eftersom de inte kan förbli konkurrenskraftiga med så höga priser", säger Awadallah.

Inte nog med det, dessa kostnader kommer att fortsätta att minska. Anthropics VD, Dario Amodei, sade nyligen att kostnaderna för att utveckla modeller fortsätter att minska med cirka fyra gånger per år. Som ett resultat av detta kommer även den avgift som LLM-leverantörerna tar ut för att använda dem att fortsätta att minska.

"Jag förväntar mig att kostnaden kommer att gå mot noll", säger Ashok Srivastava, CDO på Intuit, ett företag som starkt har drivit på AI i sina skatte- och bokföringsprogram som TurboTax och Quickbooks. "...och latensen kommer att gå mot noll. De kommer helt enkelt att bli grundläggande funktioner som vi kan använda."

Slutsats: Framtidens AI för företag är öppen, billig och datadriven

OpenAI:s DeepSeek och Deep Research är mer än bara nya verktyg i AI-arsenalen - de är tecken på en djupgående förändring där företag kommer att använda massor av specialbyggda modeller som är extremt kostnadseffektiva, kompetenta och förankrade i företagets egna data och tillvägagångssätt.

För företagen är budskapet tydligt: verktygen för att bygga kraftfulla domänspecifika AI-applikationer finns till hands. Du riskerar att hamna på efterkälken om du inte utnyttjar dessa verktyg. Men verklig framgång kommer att komma från hur du samlar in data, utnyttjar tekniker som RAG och destillering och innoverar bortom förutbildningsfasen.

Som AmEx Packer uttryckte det: företag som hanterar sina data på rätt sätt kommer att vara de som leder nästa våg av innovation inom AI.

Resurser för företagstillväxt

9 november 2025

AI-reglering för konsumenttillämpningar: Hur man förbereder sig för de nya förordningarna från 2025

2025 markerar slutet på "vilda västern"-eran för AI: AI Act EU i drift från augusti 2024 med skyldigheter för AI-kunskap från 2 februari 2025, styrning och GPAI från 2 augusti. Kalifornien är pionjärer med SB 243 (som kom till efter Sewell Setzers självmord, en 14-åring utvecklade en känslomässig relation med en chatbot) som förbjuder tvångsmässiga belöningssystem, upptäckt av självmordstankar, påminnelse var tredje timme om att "jag är inte mänsklig", oberoende offentliga revisioner, straffavgifter på 1 000 USD/överträdelse. SB 420 kräver konsekvensbedömningar för "automatiserade beslut med hög risk" med rätt till överklagande av mänsklig granskning. Verklig verkställighet: Noom citerade 2022 för bots som passerade som mänskliga tränare, förlikning 56 miljoner dollar. Nationell trend: Alabama, Hawaii, Illinois, Maine, Massachusetts klassificerar underlåtenhet att meddela AI-chatbots som UDAP-överträdelse. Tredelad strategi för riskkritiska system (sjukvård/transport/energi), certifiering före driftsättning, transparent information till konsumenter, registrering för allmänna ändamål + säkerhetstestning. Lapptäcke av regelverk utan federalt företräde: företag i flera delstater måste navigera bland olika krav. EU från augusti 2026: informera användare om AI-interaktion om det inte är uppenbart, AI-genererat innehåll märkt maskinläsbart.
9 november 2025

Reglering av det som inte skapas: riskerar Europa att bli tekniskt irrelevant?

Europa drar bara till sig en tiondel av de globala investeringarna i artificiell intelligens, men gör anspråk på att diktera globala regler. Detta är "Brysseleffekten" - att införa regler på en planetär skala genom marknadsmakt utan att driva på innovation. AI-lagen träder i kraft enligt en förskjuten tidtabell fram till 2027, men multinationella teknikföretag svarar med kreativa strategier för att kringgå lagen: de åberopar affärshemligheter för att undvika att avslöja utbildningsdata, de producerar tekniskt kompatibla men obegripliga sammanfattningar, de använder självutvärdering för att nedgradera system från "hög risk" till "minimal risk" och de väljer medlemsländer med mindre stränga kontroller. Paradoxen med extraterritoriell upphovsrätt: EU kräver att OpenAI ska följa europeiska lagar även för utbildning utanför Europa - en princip som aldrig tidigare förekommit i internationell rätt. Den "dubbla modellen" växer fram: begränsade europeiska versioner kontra avancerade globala versioner av samma AI-produkter. Verklig risk: Europa blir en "digital fästning" isolerad från global innovation, med europeiska medborgare som får tillgång till sämre teknik. EU-domstolen har i kreditvärderingsfallet redan avvisat försvaret med "affärshemligheter", men tolkningsosäkerheten är fortfarande enorm - vad exakt innebär "tillräckligt detaljerad sammanfattning"? Det är det ingen som vet. En sista obesvarad fråga: skapar EU en etisk tredje väg mellan amerikansk kapitalism och kinesisk statskontroll, eller exporterar man helt enkelt byråkrati till ett område där man inte konkurrerar? För tillfället: världsledande inom AI-reglering, marginell inom dess utveckling. Stort program.
9 november 2025

Outliers: När datavetenskap möter framgångssagor

Datavetenskapen har vänt upp och ner på paradigmet: avvikande värden är inte längre "fel som ska elimineras" utan värdefull information som ska förstås. En enda avvikelse kan helt förvränga en linjär regressionsmodell - ändra lutningen från 2 till 10 - men att eliminera den kan innebära att man förlorar den viktigaste signalen i datasetet. Maskininlärning introducerar sofistikerade verktyg: Isolation Forest isolerar outliers genom att bygga slumpmässiga beslutsträd, Local Outlier Factor analyserar lokal densitet, Autoencoders rekonstruerar normala data och rapporterar det som de inte kan reproducera. Det finns globala outliers (temperatur -10°C i tropikerna), kontextuella outliers (spendera 1.000 euro i ett fattigt område), kollektiva outliers (synkroniserade spikar i trafiknätet som indikerar attack). Parallell med Gladwell: "10.000-timmarsregeln" är omtvistad - Paul McCartney dixit "många band har spelat 10.000 timmar i Hamburg utan framgång, teorin är inte ofelbar". Asiens matematiska framgångar är inte genetiska utan kulturella: det kinesiska numeriska systemet är mer intuitivt, risodling kräver ständiga förbättringar jämfört med det västerländska jordbrukets territoriella expansion. Verkliga tillämpningar: brittiska banker återhämtar 18% potentiella förluster via anomalidetektering i realtid, tillverkningsindustrin upptäcker mikroskopiska defekter som en mänsklig inspektion skulle missa, sjukvården validerar data från kliniska prövningar med en känslighet för anomalidetektering på över 85%. Sista lärdomen: när datavetenskapen går från att eliminera avvikelser till att förstå dem måste vi se okonventionella karriärer inte som avvikelser som ska korrigeras utan som värdefulla banor som ska studeras.