OpenAI introduceert met GPT-4o nieuw vlaggenschipmodel, incluis nieuwe audiomogelijkheden en verbetering van niet-Engelse talen.

OpenAI GPT-4o

OpenAI blijft zijn AI-technologie voortdurend doorontwikkelen om zo nieuwe modellen te lanceren. In 2024 zijn er talloze chatbots op de markt verkrijgbaar en de meeste bedrijven – zoals Google, Anthropic en nu Microsoft – ontwikkelen meerdere modellen die zijn gebouwd voor verschillende toepassingen, in plaats van slechts één vlaggenschipmodel te ontwikkelen.

OpenAI heeft dit voorbeeld gevolgd met GPT-4o, een stap hoger dan het GPT-4-model van vorig jaar, dat in maart 2023 debuteerde als een betaalde chatbot die werd aangeboden via het ChatGPT Plus-lidmaatschap.

Bij GPT-4o staat de ‘o’ voor ‘omni’, volgens OpenAI een knipoog naar een “veel natuurlijkere mens-computerinteractie”. Het nieuwe model kan elke combinatie van tekst, beeld en audio analyseren en vervolgens reageren met elke combinatie van de drie bovengenoemde media.

AI-chatbots hebben een lange weg afgelegd gedurende de afgelopen jaren. OpenAI claimt dat GPT-4o ook in slechts 232 milliseconden (een vijfde van een seconde) op audio kan reageren.

Naast betere visie- en audioanalyse is de bot ook vernieuwd ten opzichte van de versie van vorig jaar om beter te reageren in niet-Engelse talen. Het lijkt erop dat de bot op bepaalde gebieden nog meer werk te doen heeft.

Ondanks de mogelijkheden die OpenAI adverteert, brengt het bedrijf alleen een versie van GPT-4o uit die tekst- en beeldinvoer en tekstuitvoer mogelijk maakt. Degenen die geïnteresseerd zijn om het te gebruiken voor audio-doeleinden, zullen moeten wachten.

GPT-4o zal beschikbaar zijn met een gratis account, hoewel Plus-leden vijf keer meer bij het berichtlimiet krijgen toegewezen.

Deel artikel