Varför matematik är svårt (även om du är en AI)
Språkmodeller vet inte hur man multiplicerar och memorerar resultat på samma sätt som vi memorerar pi, men det gör dem inte till matematiker. Problemet är strukturellt: de lär sig genom statistisk likhet, inte genom algoritmisk förståelse. Till och med de nya "resonemangsmodellerna" som o1 misslyckas med triviala uppgifter: den räknar rätt på "r" i "strawberry" efter några sekunders bearbetning, men misslyckas när den ska skriva ett stycke där den andra bokstaven i varje mening utgör ett ord. Premiumversionen för 200 dollar/månad tar fyra minuter att lösa det som ett barn gör direkt. DeepSeek och Mistral år 2025 räknar fortfarande fel på bokstäver. Den nya lösningen? Hybridmetod - de smartaste modellerna har räknat ut när de ska ringa en riktig miniräknare istället för att själva försöka göra beräkningen. Paradigmskifte: AI behöver inte veta hur man gör allting, utan bara orkestrera rätt verktyg. Den sista paradoxen: GPT-4 kan på ett lysande sätt förklara teorin om gränser för dig, men gör fel i multiplikationer som en fickräknare alltid löser korrekt. För matematikutbildning är de utmärkta - förklara med oändligt tålamod, anpassa exempel, bryta ner komplexa resonemang. För exakta beräkningar? Förlita dig på miniräknaren, inte på artificiell intelligens.