OpenAI lance son modèle o3-pro, casse les prix d’o3 et se rapproche de Google
Paix et félicité
Soirée chargée hier pour OpenAI, avec plusieurs annonces importantes sur ses modèles. La principale était la disponibilité d’o3 Pro, son nouveau modèle de raisonnement. Les tarifs du modèle o3 ont en parallèle été sérieusement rabotés. Et alors que Sam Altman redit tout le bien qu’il pense de l’IA générative, l’entreprise se serait rapprochée de Google pour diversifier ses ressources cloud.
Alors que Mistral vient de lancer ses deux premiers modèles de raisonnement Magistral, OpenAI a dégainé le même jour un nouveau concurrent. Nommé o3-pro, il s’agit d’une version survitaminée du premier modèle o3.
Sans surprise, cette version Pro fait mieux que tous les modèles lancés par l’entreprise jusqu’ici. Dans les résultats fournis par OpenAI, on le voit ainsi dépasser – parfois très largement – les performances d’o1 Pro. En conséquence, o3-pro va remplacer l’ancien modèle dans ChatGPT, puisqu’il donne de meilleurs résultats dans tous les cas de figure, vante l’entreprise.
o3-pro prend la place d’o1-pro
C’est particulièrement vrai dans des domaines comme les sciences, l’éducation, la programmation, la finance et l’aide à la rédaction. Selon des tests menés sur un groupe de personnes en interne, il ferait également mieux en matière de clarté, d’exhaustivité, de suivi des instructions et d’exactitude. En bref, le type d’amélioration que l’on est en droit d’attendre d’une nouvelle version d’un modèle de raisonnement.
o3-pro dispose également d’un autre avantage important par rapport à son prédécesseur : il est compatible avec les outils de ChatGPT. « Il peut faire des recherches sur le Web, analyser des fichiers, raisonner sur des entrées visuelles, utiliser Python, personnaliser des réponses en utilisant la mémoire, et plus encore », explique OpenAI.


Conséquence, si les réponses sont plus précises et peuvent s’appliquer à davantage de situations, elles prennent aussi plus de temps. L’entreprise recommande d’utiliser o3-pro dans les cas où la fiabilité devient plus importante que la rapidité « et où quelques minutes d’attente valent la peine ». Une curieuse recommandation, faisant peser des doutes sur la fiabilité des réponses plus rapides.
Il existe également plusieurs limitations. D’une part, un problème technique empêche pour l’instant o3-pro de prendre en charge les chats temporaires. D’autre part, la génération d’images ne fait pas partie des attributions du nouveau modèle. Pour cette dernière, il faut se tourner vers GPT-4o, o3 ou o4-mini. Enfin, Canvas n’est pas non plus supporté.
o3-pro dispose d’une fenêtre contextuelle de 200 000 jetons. Ses tarifs sont de 20 dollars par million de jetons en entrée et 80 dollars en sortie. Le modèle est donc assez onéreux. Son utilisation ne peut pour l’instant se faire que via les abonnements ChatGPT Pro et Team. Les formules Enterprise et Edu l’auront la semaine prochaine.
OpenAI casse les prix d’o3
Puisque l’on parle de tarification, signalons un important changement pour o3 dans sa version classique. Lancé en avril et présentant alors les meilleurs résultats de tous les modèles d’OpenAI, son utilisation est restée limitée.
La faute à des tarifs élevés pour ce type de modèle dans la catégorie « medium » : 10 dollars en entrée et 40 dollars en sortie. o3 s’est très vite retrouvé en compétition avec d’autres modèles, et la comparaison n’était guère flatteuse. Chez Google, Gemini 2.5 Pro faisait par exemple presque jeu égale dans les capacités, tout en étant beaucoup moins cher (1,25 et 10 dollars respectivement). Claude Sonnet 3.7, lui, était dans la même fourchette tarifaire, mais faisait mieux.
OpenAI a donc annoncé hier soir une baisse de 80 % dans les deux sens. Les nouveaux tarifs sont ainsi de 2 dollars par million de jetons en entrée et 8 dollars par million de jetons en sortie.
Rapprochement avec Google
Si l’on en croit Reuters, OpenAI s’est également beaucoup rapprochée de Google ces derniers mois. Les deux entreprises seraient en discussions depuis longtemps, dans l’optique d’augmenter les capacités de calcul dont OpenAI a tant besoin.
Selon nos confrères, un accord aurait été trouvé en mai, bien qu’aucune des deux entreprises n’ait encore fait d’annonce à ce sujet. La question de l’accord avec Microsoft n’aurait pas été un problème, OpenAI ayant un partenariat révisé depuis les prémices du projet Stargate. Ce dernier, qui pourrait se voir doter d’un projet de 500 milliards de dollars, prévoit en effet qu’OpenAI sera au centre d’une immense infrastructure, à laquelle Microsoft ne participe pas.
Reuters, sûr de ses sources, affirme que cet accord a quelque peu surpris nombre d’observateurs. ChatGPT a été considéré comme le plus grand coup de pioche dans les activités historiques de Google depuis la création du moteur de recherche. En outre, si le partenariat peut être vu comme une grande victoire pour Google Cloud – toujours loin derrière AWS et Azure – c’est en revanche une autre affaire pour la division IA du géant.
Selon plusieurs sources, l’accord était en projet depuis un bon moment. OpenAI chercherait activement à réduire sa dépendance à Microsoft. Le père de ChatGPT se serait particulièrement intéressé à la puce TPU de Google, quand bien même il développe actuellement sa propre puce. Ce type de développement est d’ailleurs en plein essor, y compris chez Microsoft, pour réduire une dépendance vive à NVIDIA.
Pendant ce temps, chez Sam Altman
Le CEO d’OpenAI a publié cette nuit un billet dans lequel il le redit : la singularité n’est plus loin. Il parle d’ailleurs de « singularité douce ». En somme, la « superintelligence numérique » est toujours à l’horizon, mais la transition vers ce miracle technologique va se faire progressivement.
Pour Altman, c’est une question quasi mathématique. Selon lui, de nombreux scientifiques témoigneraient déjà de gains conséquents de productivité. Grâce à l’IA, des produits plus puissants seraient créés, permettant à leur tour des avancées scientifiques, qui à leur tour permettent une évolution des outils. Un cercle vertueux qui ne pourrait aboutir qu’à une amélioration générale de la qualité de vie.
Altman donne également quelques informations sur la consommation moyenne d’une requête à ChatGPT. Selon le CEO, elle serait de 0,34 Wh pour l’électricité et d’un « quinzième de cuillère à café » d’eau. « Au fur et à mesure que la production des centres de données s’automatise, le coût de l’intelligence devrait finir par se rapprocher du coût de l’électricité », affirme-t-il.
« Le rythme auquel de nouvelles merveilles seront réalisées sera immense. Il est difficile d’imaginer aujourd’hui ce que nous aurons découvert en 2035 ; nous passerons peut-être de la résolution des problèmes de physique des hautes énergies une année au début de la colonisation de l’espace l’année suivante ; ou d’une percée majeure dans la science des matériaux une année à de véritables interfaces cerveau-ordinateur à large bande passante l’année suivante ».
Il évoque quand même deux problèmes loin d’être résolus. D’abord l’alignement, c’est-à-dire l’assurance que l’IA va dans le même sens « ce que nous voulons vraiment collectivement à long terme ». Il cite en exemple les algorithmes des médias sociaux, selon un cas classique d’IA mal alignée puisqu’elle troque le long terme pour une préférence à court terme. Ensuite, il faudra rendre cette superintelligence « bon marché, largement disponible et pas trop concentrée sur une personne, une entreprise ou un pays ».
Auteur : Vincent Hermann
Aller à la source