AI-kappløpet

Språkmodellenes paradigmeskifte åpner nye markeder

De store språkmodellene tok kvantesrang i 2025. Nettopp derfor åpner begrensningene deres et vidåpent marked for spesialiserte produkter og tjenester.

Karpathy beskriver dagens AI som «spøkelser» snarere enn «dyr» – systemer formet av menneskelig språk og kultur, med skarpe styrker i enkelte domener og påfallende svakheter i andre.
Publisert Sist oppdatert

2025 ble året der store språkmodeller tok et kvantesprang. Det var året modellene lærte seg å resonnere – eller i det minste å fremstå som om de kan resonnere. Ikke menneskelig resonnering, men en syntetisk variant som på mange måter er mer kraftfull, samtidig som den fortsatt rommer betydelige fallgruver.

Ifølge AI-guru Andrej Karpathy, medgründer av OpenAI og tidligere AI-direktør i Tesla, skyldes spranget nye treningsmetoder som har gjort modellene bedre til å bryte problemer ned i mellomsteg og følge lengre resonnementskjeder. Det skriver han i sin bloggpost «LLM Year in Review».

Begrensningene til dagens AI-modeller er likevel fortsatt tydelige: De kan være briljante i ett øyeblikk – og forbausende hjelpeløse i det neste. Resultatet er kraftfulle verktøy som er langt fra pålitelige om de overlates til seg selv, men som gir størst verdi når de kombineres med menneskelig dømmekraft.

2025 ble året der store språkmodeller tok et kvantesprang. Det var året modellene lærte seg å resonnere – eller i det minste å fremstå som om de kan resonnere. Ikke menneskelig resonnering, men en syntetisk variant som på mange måter er mer kraftfull, samtidig som den fortsatt rommer betydelige fallgruver.

Ifølge AI-guru Andrej Karpathy, medgründer av OpenAI og tidligere AI-direktør i Tesla, skyldes spranget nye treningsmetoder som har gjort modellene bedre til å bryte problemer ned i mellomsteg og følge lengre resonnementskjeder. Det skriver han i sin bloggpost «LLM Year in Review».

Begrensningene til dagens AI-modeller er likevel fortsatt tydelige: De kan være briljante i ett øyeblikk – og forbausende hjelpeløse i det neste. Resultatet er kraftfulle verktøy som er langt fra pålitelige om de overlates til seg selv, men som gir størst verdi når de kombineres med menneskelig dømmekraft.

Karpathy peker også på et AI-landskap der de store modell-laboratoriene dominerer markedet for generelle grunnmodeller, mens forretningsmulighetene i økende grad ligger hos aktører som bygger spesialiserte produkter og tjenester på toppen av dem.

Fra menneskelig feedback til verifiserbare belønninger

Det mest grunnleggende paradigmeskiftet i 2025 var ifølge Karpathy overgangen til Reinforcement Learning from Verifiable Rewards (RLVR). Der tidligere treningsregimer i stor grad bygget på menneskelig tilbakemelding (RLHF), åpner RLVR for at modeller kan optimaliseres mot objektive, maskinelt verifiserbare mål – for eksempel i matematikk- og kodeoppgaver.

Resultatet er modeller som utvikler strategier som for mennesker fremstår som «resonnement»: de bryter problemer ned i mellomsteg, tester hypoteser og korrigerer seg selv underveis. Dette er ikke eksplisitt programmert inn, men vokser frem gjennom optimalisering mot belønning. Samtidig er RLVR langt mer beregningstungt enn tidligere finjusteringer, noe som har flyttet mye av industrien bort fra ren forhåndstrening og over mot lange, kostbare optimaliseringsløp.

Karpathy beskriver dette som en hovedårsak til at 2025 ga tydelige kapabilitetsforbedringer uten at modellene nødvendigvis ble dramatisk større.

«Dyr» eller «spøkelser» – et grunnleggende skille

For å forklare hvorfor dagens språkmodeller oppfører seg så ujevnt, trekker Karpathy frem et mer grunnleggende poeng han utdypet i blogginnlegget Animals vs. Ghosts tidligere i høst. Debatten ble utløst av en samtale mellom AI-forsker Richard Sutton og podkastvert Dwarkesh Patel, der Sutton – kjent for essayet The Bitter Lesson – stilte spørsmål ved om moderne LLM-er i det hele tatt følger «den bitre leksen».

Suttons utgangspunkt er at ekte intelligens bør læres gjennom kontinuerlig interaksjon med verden, drevet av forsterkningslæring og egenmotivasjon – slik dyr lærer. I dette perspektivet er massiv forhåndstrening på menneskeskapt tekst en blindvei: dataene er både endelige og gjennomsyret av menneskelige skjevheter. LLM-er, hevder Sutton, lærer ikke som dyr – de imiterer dem.

Karpathy er delvis enig i kritikken, men mener sammenligningen avslører et feil premiss. Ifølge ham er dagens språkmodeller ikke «dyr under oppvekst», men noe helt annet: statistiske konstruksjoner bygget av og på menneskelig kultur. Der biologiske organismer formes av millioner av år med evolusjon – et slags ytre optimaliseringsløp – bruker AI-industrien forhåndstrening som en praktisk erstatning. «Pretraining er vår dårlige versjon av evolusjon», skriver Karpathy.

Resultatet er det han kaller «spøkelser»: intelligente systemer som er dypt preget av menneskelig språk, normer og prioriteringer. De kan være ekstremt sterke i smale domener, men mangler den robuste, helhetlige tilpasningsevnen vi forbinder med dyr. Dette forklarer også hvorfor språkmodeller fremstår så «taggete» i ytelse – geniale i ett øyeblikk, forvirrende i det neste.

Karpathy utelukker ikke at fremtidige AI-systemer kan bevege seg nærmere det biologiske idealet Sutton skisserer, ved å inkorporere mer kontinuerlig læring, egenmotivasjon og flerlags samspill. Men han advarer mot å tro at dagens fremgang handler om å «bygge dyr». Frontlinjeforskningen i 2025, skriver han, handler om å påkalle spøkelser – og lære seg å bruke dem effektivt, til tross for deres iboende begrensninger.

«Spøkelser», ikke «dyr»

Et annet poeng Karpathy understreker, er at bransjen i 2025 i større grad begynte å forstå formen på LLM-intelligens. Han advarer mot å tenke på AI som noe som gradvis «vokser opp» på samme måte som biologisk intelligens. I stedet beskriver han LLM-er som noe fundamentalt annerledes – «spøkelser», ikke «dyr».

Konsekvensen er det han kaller «taggete intelligens»: Modellene kan være ekstremt sterke innen smale, verifiserbare domener, og samtidig forbløffende svake i trivielle situasjoner. («De kan være Ferrari i matte, men et esel når det gjelder å legge noe i kalenderen»).

Dette har også bidratt til økende skepsis til tradisjonelle modelltester, (benchmarks). Når modeller trenes direkte mot målbare oppgaver, blir det stadig enklere å «knuse» tester uten at det bringer oss særlig nær generell intelligens.

Et nytt lag med AI-applikasjoner

På applikasjonssiden peker Karpathy på fremveksten av verktøy som Cursor som starten på et nytt lag i programvarestakken: rene LLM-apper. Disse er ikke bare grensesnitt mot én modell, men orkestrerer mange modellkall, håndterer kontekst, kostnader og autonomi, og pakker det hele inn i et brukergrensesnitt tilpasset én konkret oppgave.

Ifølge Karpathy vil de store modell-laboratoriene levere stadig mer generelle «grunnmodeller», mens verdiskapingen i praksis flyttes til apper som organiserer og spesialiserer dem for faktiske arbeidsoppgaver. 

AI som bor på maskinen din

Et tydelig brudd med sky-først-tankegangen kom med Claude Code, som demonstrerte hvordan LLM-baserte agenter kan kjøre lokalt, tett integrert med utviklerens egen maskin og arbeidsflyt. Karpathy mener dette traff et reelt behov i en verden der modellene fortsatt har ujevne ferdigheter: I stedet for autonome «agent-svermer» i skyen, gir det mer mening med AI som jobber side om side med mennesker, i deres faktiske miljø.

«Vibe coding» og gratis kode

2025 ble også året der Karpathys eget begrep «vibe coding» slo gjennom. Terskelen for å lage fungerende programvare ved hjelp av naturlig språk har falt kraftig, både for amatører og profesjonelle. Kode har i økende grad blitt noe midlertidig, billig og kastbart – skrevet for å teste en idé, finne en feil eller løse et engangsproblem.

Ifølge Karpathy vil dette endre både hvem som kan programmere, og hva det er rasjonelt å bruke tid på å bygge.

Mot et grafisk grensesnitt for AI

Til slutt trekker Karpathy frem Google Gemini og selskapets «nano-banana»-modeller som tidlige tegn på et nytt brukergrensesnitt for AI. Akkurat som grafiske grensesnitt en gang erstattet tekstbaserte kommandolinjer, mener han LLM-er etter hvert vil kommunisere mer visuelt – gjennom bilder, diagrammer, apper og romlige fremstillinger, ikke bare tekst.

Store sprang – og store hull

Oppsummert beskriver Karpathy 2025 som et år der språkmodeller fremsto både langt smartere og langt dummere enn mange hadde ventet. Kapabilitetene har økt raskt, men begrensningene er fortsatt åpenbare. Nettopp derfor mener han feltet fortsatt er vidåpent: potensialet er langt fra realisert, og de viktigste anvendelsene gjenstår å bli bygget.

Med andre ord: utviklingen går raskt – men det meste av arbeidet, og markedsmulighetene ligger fortsatt foran oss.

Subscribe to read more about AI's transformative year

Discover AI's shift to verifiable rewards in 2025.Learn about the rise of specialized LLM applications.Explore the future of AI with visual interfaces.
Bjeffet frem av Labrador