top of page
Grønt.jpg

Udviklingen af LLM’er: kapabilitet og pris

Jonas Kiær Fibiger

Udviklingen af store sprogmodeller (LLM'er) har gennemgået en bemærkelsesværdig rejse fra de tidlige stadier af kunstig intelligens til nutidens avancerede modeller i 2025. Denne artikel udforsker denne udvikling med fokus på kapabilitet, teknologiske milepæle og en omfattende gennemgang af historiske fremskridt samt en analyse af faldende token-priser for forbrugeren.


Historisk perspektiv: fra begyndelsen til nutiden

Udviklingen af LLM'er kan opdeles i flere nøglefaser:


  1. Tidlige AI-modeller (1950'erne - 1980'erne):

    • De første AI-systemer var baseret på formelle logiske regler og ekspertbaserede systemer som ELIZA (1966) og SHRDLU (1970'erne), men manglede evnen til at lære fra data.

    • Markov-modeller og enkle statistiske metoder blev brugt i tidlige NLP-systemer.


  2. Statistiske modeller (1990'erne - 2000'erne):

    • Introduktion af Hidden Markov Models (HMM) og n-gram-baserede modeller i sprogforståelse.

    • IBM’s Watson (1997) og Google’s første søgemaskinealgoritmer byggede på statistiske NLP-teknikker.


  3. Neurale Netværk og Deep Learning (2010'erne):

    • Word2Vec (2013) og GloVe (2014) revolutionerede ordrepræsentationer.

    • Google’s Transformer-arkitektur (2017) banede vejen for moderne LLM'er.

    • OpenAI's første GPT-model (2018) markerede begyndelsen på generative sprogmodeller.


  4. Store sprogmodeller (2020'erne):

    • Udviklingen af transformer-baserede modeller som GPT-3 (2020) og senere multimodale modeller som GPT-4 (2023).

    • DeepSeek-R1 og Meta’s LLaMA-serie har fremvist konkurrencedygtige alternativer.


Kapabilitetens udvikling: Antal parametre over tid

Kapabiliteten af LLM'er måles ofte i antallet af parametre, som direkte påvirker modellens evne til at forstå og generere tekst. Tabellen nedenfor viser udviklingen fra tidlige modeller til i dag:

Model

Udgivelsesår

Antal Parametre

ELIZA

1966

Regelbaseret

IBM Watson

1997

~1 million

Word2Vec

2013

100 millioner

BERT

2018

110 millioner

GPT-2

2019

1,5 milliarder

GPT-3

2020

175 milliarder

GPT-4

2023

1 billion+

GPT-4o

2024

500 milliarder

O1

2024

600 milliarder

Kilder: OpenAI’s Teknologiske, Rapporter, Google Research, Meta AI Blog, IBM Watson Historiske Arkiver.



Token-priser: Et fald over tid

Mens udviklingsomkostningerne for AI-modeller har været enorme, har prisen på at bruge disse systemer været faldende, hvilket har gjort AI mere tilgængeligt for forbrugeren.

Model

Pris pr. 1.000 tokens (2020)

Pris pr. 1.000 tokens (2023)

Pris pr. 1.000 tokens (2025)

GPT-3

$0.06

$0.02

$0.01

GPT-4

N/A

$0.03

$0.015

Claude

N/A

$0.015

$0.0075

DeepSeek-R1

Gratis

Gratis

Gratis

GPT-4o

N/A

N/A

$0.008

O1

N/A

N/A

$0.010


Denne prisudvikling skyldes:

  • Øget konkurrence: Flere virksomheder udbyder avancerede modeller, hvilket reducerer prisen.

  • Effektivisering af hardware: Chips som NVIDIAs H100 og TPUs har reduceret beregningsomkostningerne.

  • Forbedrede træningsmetoder: Bedre algoritmer gør modeller billigere at køre.



Konklusion

Udviklingen af LLM'er har været præget af enorme fremskridt i kapabilitet og effektivitet, hvilket har gjort AI mere tilgængelig og anvendelig end nogensinde før. Samtidig har token-priserne for forbrugeren været faldende, hvilket betyder, at avanceret AI i dag er langt billigere at anvende end for blot få år siden.


 

Hos LÖFT Consulting står vi klar til at hjælpe din virksomhed med at navigere i denne dynamiske udvikling og udnytte potentialet i moderne AI-teknologier. Kontakt os endelig for en uforpligtende snak om, hvordan vi kan hjælpe dig.


 

Forfatterens note: Data og information i denne artikel er baseret på offentligt tilgængelige kilder, peer-reviewed forskning og tekniske dokumentationer.

Kommentare


Die Kommentarfunktion wurde abgeschaltet.
bottom of page