Avec une diffusion en direct sur YouTube à 21 heures, heure italienne, OpenAI a présenté son nouveau bijou, GPT-4, qui se situe à un niveau nettement supérieur à la version précédente, lancée il y a quelques mois à peine. Désormais, "l'expert en conversation" ChatGPT est non seulement plus puissant, mais également capable de "voir". Et ce facteur peut donner lieu à une accélération sans précédent du développement de l'intelligence artificielle.
De GPT-3 à GPT-4 une mer passe
ChatGPT, le "petit génie électronique" d'OpenAI qui répond aux messages avec du texte et du code, est rapidement devenu l'application à la croissance la plus rapide de l'histoire, avec plus de 100 millions d'utilisateurs par mois.
Parallèlement à son développement, des communautés d'utilisateurs et des guides d'utilisation ont vu le jour (j'en ai aussi publié un : si ça vous intéresse vous pouvez le trouver sur Amazon) et même un "proto-métier", celui de ingénieur rapide.
Cependant, malgré son succès, ChatGPT avait quelques problèmes à résoudre. Il avait tendance à "halluciner", générant des paroles qui semblaient plausibles mais ne l'étaient pas. Il reflétait les préjugés, parfois "frappait" les filtres pour les phrases illégales fournies par ses créateurs.
La nouvelle version basée sur GPT-4 résout la plupart de ces problèmes et améliore (beaucoup) les performances.

Les yeux ouverts sur le monde
La grande nouveauté de ce modèle est sa capacité à répondre aux invites textuelles et visuelles. Pensez aux possibilités : identifier l'auteur d'un tableau, expliquer le sens d'un mème, créer des légendes pour des photographies... La vérité est que le champ des applications possibles s'élargit tellement qu'une liste possible devient gigantesque.
Mais GPT-4 ne s'arrête pas là : il est aussi beaucoup plus "intelligent" que son prédécesseur, surpassant ses résultats dans divers tests, comme ceux pour les professions juridiques. (LSAT), ceux utilisés pour l'admission dans les collèges américains (SAT), et plein d'autres. OpenAI affirme que GPT-4 c'est 40% plus précis dans la génération de contenu véridique e 82% moins enclin pour répondre à des invites illicites (adieu les versions "maléfiques" du chatbot).

Tout le reste appartient à l'histoire
On va beaucoup s'interroger sur les incroyables caractéristiques que vont acquérir de plus en plus (et de plus en plus vite) les intelligences artificielles génératives. Grâce à sa capacité à "voir", GPT-4 alimentera de nombreuses applications que nous utilisons au quotidien.
Tout d'abord, comme mentionné, le nouveau Chat GPT (dans sa version payante), désormais capable de traiter des textes jusqu'à 25.000 4 mots : il peut résumer, écrire et réécrire, gérer des livres entiers. GPT-XNUMX fait également partie du moteur de recherche Bing. Khan Academy l'utilise pour créer un tuteur virtuel pour les étudiants, tandis que Sois mes yeux a développé un assistant IA capable d'analyser et de décrire des photographies pour les personnes ayant une déficience visuelle.
Suivre ses évolutions sera de plus en plus compliqué.

GPT-4, perspectives d'avenir
Evidemment le système peut encore être amélioré, il a encore quelques imperfections, mais les progrès sont remarquables et très rapides. La société étudie déjà comment intégrer des entrées audio, vidéo et autres dans les futures versions du modèle. Leur objectif est que GPT-4 devienne un outil inestimable pour améliorer la vie des gens en alimentant de nombreuses applications.

Dans quelques temps, ce gadget nous dira aussi ce qu'il pense de nos vêtements, ou il nous recommandera la coupe de cheveux la plus adaptée. Il alimentera les systèmes de surveillance que nous présentons à nos amis et parents, pour ne les ouvrir immédiatement qu'à eux. Cela transformera nos voitures en "supercars" qui interagissent personnellement avec le conducteur. Ce sera la "voix narrative" de nombreuses personnes aveugles et les aidera à se sentir plus intégrés. Et qui sait quoi d'autre.
Comme mentionné, je ne peux pas indiquer tous les points d'arrivée : tout au plus, je peux vous renvoyer au point de départ avec l'annonce officielle sur le blog OpenAIou avec la vidéo de la présentation d'hier, donc vous avez l'idée vous-même.
Pour l'instant, disons "bienvenue" à cet extraordinaire bricoleur qui, pour ceux qui ne l'ont pas encore compris, a déjà changé nos vies.