GPT-4.5: OpenAI's grotere honger naar rekenkracht lost weinig op
OpenAI lanceert een nog grotere en rekenkracht-intensievere versie van GPT, maar de verbeteringen lijken marginaal. Het model is alleen beschikbaar voor Pro-gebruikers à $200 per maand en moet nog bewijzen dat 'groter' ook echt 'beter' betekent.
Als iemand die al decennia de technologie-industrie observeert, herken ik hier een bekend patroon: de vlucht naar voren door middel van brute kracht. OpenAI's aanpak doet me denken aan de vroege dagen van de processor-oorlogen, toen pure snelheid belangrijker leek dan efficiëntie.
Het interessante is dat terwijl concurrenten als DeepSeek juist laten zien dat je met minder middelen vergelijkbare resultaten kunt behalen, OpenAI vasthoudt aan het 'bigger is better' mantra. Ze claimen dat het grotere model beter is in het begrijpen van menselijke emoties en interacties, maar kunnen dat nauwelijks kwantificeren.
De benchmarks vertellen een ongemakkelijk verhaal: het kleinere o3-mini model presteert beter op het gebied van wiskunde en wetenschap. OpenAI's verweer dat deze metingen 'het volledige verhaal niet vertellen' klinkt als een klassieke afleidingsmanoeuvre die ik vaker heb gehoord wanneer harde data niet strookt met marketing beloftes.
Wat me vooral opvalt is de strategische verschuiving: dit wordt aangekondigd als het laatste 'non-chain-of-thought' model van OpenAI. De toekomst ligt blijkbaar in het combineren van verschillende modellen achter de schermen, wat suggereert dat zelfs OpenAI erkent dat pure schaalvergroting zijn grenzen heeft bereikt.
De werkelijke innovatie in AI zal waarschijnlijk niet komen van steeds grotere modellen, maar van slimmere architecturen en efficiëntere training. Net zoals in de processor-industrie uiteindelijk niet de pure kloksnelheid, maar innovaties in architectuur en energie-efficiëntie de doorslag gaven.