AI-kappløpet
Språkmodellenes paradigmeskifte åpner nye markeder
De store språkmodellene tok kvantesrang i 2025. Nettopp derfor åpner begrensningene deres et vidåpent marked for spesialiserte produkter og tjenester.
2025 ble året der store språkmodeller tok et kvantesprang. Det var året modellene lærte seg å resonnere – eller i det minste å fremstå som om de kan resonnere. Ikke menneskelig resonnering, men en syntetisk variant som på mange måter er mer kraftfull, samtidig som den fortsatt rommer betydelige fallgruver.
Ifølge AI-guru Andrej Karpathy, medgründer av OpenAI og tidligere AI-direktør i Tesla, skyldes spranget nye treningsmetoder som har gjort modellene bedre til å bryte problemer ned i mellomsteg og følge lengre resonnementskjeder. Det skriver han i sin bloggpost «LLM Year in Review».
Begrensningene til dagens AI-modeller er likevel fortsatt tydelige: De kan være briljante i ett øyeblikk – og forbausende hjelpeløse i det neste. Resultatet er kraftfulle verktøy som er langt fra pålitelige om de overlates til seg selv, men som gir størst verdi når de kombineres med menneskelig dømmekraft.
Karpathy peker også på et AI-landskap der de store modell-laboratoriene dominerer markedet for generelle grunnmodeller, mens forretningsmulighetene i økende grad ligger hos aktører som bygger spesialiserte produkter og tjenester på toppen av dem.
Fra menneskelig feedback til verifiserbare belønninger
Det mest grunnleggende paradigmeskiftet i 2025 var ifølge Karpathy overgangen til Reinforcement Learning from Verifiable Rewards (RLVR). Der tidligere treningsregimer i stor grad bygget på menneskelig tilbakemelding (RLHF), åpner RLVR for at modeller kan optimaliseres mot objektive, maskinelt verifiserbare mål – for eksempel i matematikk- og kodeoppgaver.
Resultatet er modeller som utvikler strategier som for mennesker fremstår som «resonnement»: de bryter problemer ned i mellomsteg, tester hypoteser og korrigerer seg selv underveis. Dette er ikke eksplisitt programmert inn, men vokser frem gjennom optimalisering mot belønning. Samtidig er RLVR langt mer beregningstungt enn tidligere finjusteringer, noe som har flyttet mye av industrien bort fra ren forhåndstrening og over mot lange, kostbare optimaliseringsløp.
Karpathy beskriver dette som en hovedårsak til at 2025 ga tydelige kapabilitetsforbedringer uten at modellene nødvendigvis ble dramatisk større.
«Spøkelser», ikke «dyr»
Et annet poeng Karpathy understreker, er at bransjen i 2025 i større grad begynte å forstå formen på LLM-intelligens. Han advarer mot å tenke på AI som noe som gradvis «vokser opp» på samme måte som biologisk intelligens. I stedet beskriver han LLM-er som noe fundamentalt annerledes – «spøkelser», ikke «dyr».
Konsekvensen er det han kaller «taggete intelligens»: Modellene kan være ekstremt sterke innen smale, verifiserbare domener, og samtidig forbløffende svake i trivielle situasjoner. («De kan være Ferrari i matte, men et esel når det gjelder å legge noe i kalenderen»).
Dette har også bidratt til økende skepsis til tradisjonelle modelltester, (benchmarks). Når modeller trenes direkte mot målbare oppgaver, blir det stadig enklere å «knuse» tester uten at det bringer oss særlig nær generell intelligens.
Et nytt lag med AI-applikasjoner
På applikasjonssiden peker Karpathy på fremveksten av verktøy som Cursor som starten på et nytt lag i programvarestakken: rene LLM-apper. Disse er ikke bare grensesnitt mot én modell, men orkestrerer mange modellkall, håndterer kontekst, kostnader og autonomi, og pakker det hele inn i et brukergrensesnitt tilpasset én konkret oppgave.
Ifølge Karpathy vil de store modell-laboratoriene levere stadig mer generelle «grunnmodeller», mens verdiskapingen i praksis flyttes til apper som organiserer og spesialiserer dem for faktiske arbeidsoppgaver.
AI som bor på maskinen din
Et tydelig brudd med sky-først-tankegangen kom med Claude Code, som demonstrerte hvordan LLM-baserte agenter kan kjøre lokalt, tett integrert med utviklerens egen maskin og arbeidsflyt. Karpathy mener dette traff et reelt behov i en verden der modellene fortsatt har ujevne ferdigheter: I stedet for autonome «agent-svermer» i skyen, gir det mer mening med AI som jobber side om side med mennesker, i deres faktiske miljø.
«Vibe coding» og gratis kode
2025 ble også året der Karpathys eget begrep «vibe coding» slo gjennom. Terskelen for å lage fungerende programvare ved hjelp av naturlig språk har falt kraftig, både for amatører og profesjonelle. Kode har i økende grad blitt noe midlertidig, billig og kastbart – skrevet for å teste en idé, finne en feil eller løse et engangsproblem.
Ifølge Karpathy vil dette endre både hvem som kan programmere, og hva det er rasjonelt å bruke tid på å bygge.
Mot et grafisk grensesnitt for AI
Til slutt trekker Karpathy frem Google Gemini og selskapets «nano-banana»-modeller som tidlige tegn på et nytt brukergrensesnitt for AI. Akkurat som grafiske grensesnitt en gang erstattet tekstbaserte kommandolinjer, mener han LLM-er etter hvert vil kommunisere mer visuelt – gjennom bilder, diagrammer, apper og romlige fremstillinger, ikke bare tekst.
Store sprang – og store hull
Oppsummert beskriver Karpathy 2025 som et år der språkmodeller fremsto både langt smartere og langt dummere enn mange hadde ventet. Kapabilitetene har økt raskt, men begrensningene er fortsatt åpenbare. Nettopp derfor mener han feltet fortsatt er vidåpent: potensialet er langt fra realisert, og de viktigste anvendelsene gjenstår å bli bygget.
Med andre ord: utviklingen går raskt – men det meste av arbeidet, og markedsmulighetene ligger fortsatt foran oss.
Nylige artikler
– Boomerne bør gi mer Bitcoin til barnebarna
14 måter AI kan brukes for økt produktivitet
Søndagens viktigste nyheter
Fed-president advarer: Hold rentene stabile
- Det har latt meg slippe unna dumme feil
Satser på økte stålpriser
12 lærdommer fra Warren Buffett
Mest leste artikler
Biotek-aksjer i 2026: Et vendepunkt?
Investtech varsler mulig julerally: Desert Control i fokus
The Story Behind We’re All F*cked and 7.2M Streams
Hvordan EUs reguleringer truer den norske sparebankmodellen
Smarteste investering i 2025: DNB Kjernekraft-indeksfond
Warren Buffett går av med pensjon: 12 lærdommer fra verdens mest suksessrike investor
Bitcoin kan falle til 10.000 dollar: McGlone advarer om kommende renselse