Il était une fois deux beaux frères, pratiquement deux modèles : sérieusement, l'un plus beau que l'autre, mais ce n'est que du premier dont je veux vous parler. En attendant je vous les présente.
L'un s'appelait GPT-3, et était responsable de la génération du texte. Il était le meilleur de tous. L'association à but non lucratif OpenAI, fondée par Elon Musk et Sam Altman, l'a créé pour faire progresser la recherche sur l'intelligence artificielle au profit de l'humanité.
L'autre frère s'appelait Google BPF-3, et c'était un vrai modèle. Linguistique, je veux dire. Un modèle linguistique est un mécanisme qui prédit le mot suivant sur la base des mots précédents. Il utilise une approche de détection automatique, similaire à la fonction T9 des téléphones portables, et peut produire du texte pour de nombreuses pages.
In dans quelle direction entendaient-ils diriger la planète ? Maintenant je vous dis. En attendant, parlons cependant du plus beau modèle des deux.
Pourquoi GPT-3 était-il plus beau ?
Tout d'abord, il faut le dire, GPT-3 était plus beau et musclé que son papa, GPT-2, né en 2019, qui s'était entraîné sur 1,5 milliard de paramètres. Et je ne vous parle pas de son grand-père, GPT, qui a été formé sur 2018 millions de paramètres en 117. GPT-3 a été formé, pensez-vous, sur 175 milliards de paramètres, et pourrait faire des choses que personne d'autre n'aurait été capable de faire. Il résolvait des problèmes, écrivait de la poésie et de la prose, des nouvelles et des articles de blog (par exemple, êtes-vous sûr que je n'écris pas ça aussi ?). Pour ce faire, il avait juste besoin d'une brève description de ce qu'il fallait écrire, et peut-être de quelques exemples.
Ce n'est pas tout : après avoir étudié de nombreux livres, GPT-3 pourrait prendre l'apparence de n'importe quel personnage historique. Il pouvait commencer à parler comme Hegel et exprimer des opinions comme le ferait le vrai philosophe. Ou écrivez une conversation entière entre deux scientifiques (comme Alan Turing et Claude Shannon) et des personnages de Harry Potter.
Comment a-t-il fait?
Pour le former, les développeurs de GPT-3 ont vraiment tout utilisé. Tout le Wikipédia anglais, par exemple, et même des romans et des pages Web. Articles de journaux, poèmes, guides de programmation, fanfictions, textes religieux. Même des informations sur l’Amérique latine, ou des manuels pseudo-scientifiques et des essais complotistes.
GPT-3, comme mentionné précédemment, fonctionnait sur la base d'une détection automatique. Lorsqu'un utilisateur tapait du texte, le modèle examinait la langue et incorporait le prédicteur de texte pour produire un résultat probable. Même sans ajustements ni formation supplémentaires, le modèle a produit un texte très proche de ce qu'une personne réelle écrirait.
Et puis, comment l'histoire s'est-elle terminée ?
Je pourrais encore parler de toutes les choses que GPT-3 fait Il a fait. Je pourrais vous dire, par exemple, que GPT-3 a déjà aidé les gens à se concentrer sur des tâches plus essentielles en facilitant leur travail. Ce qui a montré la capacité d'affecter les performances humaines en réduisant la corvée des humains. Comment cela nous a permis de planifier et de mettre en œuvre des projets de divertissement, de croissance personnelle, d'affaires, de recherche scientifique, d'ingénierie, d'économie et de politique. Comment il a commencé à devenir sensible un jour.
Mais la vérité est que le conte de fées n’est pas encore terminé. À vrai dire, cela ne fait que commencer : GPT-3, le plus beau modèle jamais vu, grandit vite, et pourrait bientôt devenir papa. Avez-vous ne serait-ce qu'une vague idée de ce que GPT-4 pourrait accomplir ?