Un nouveau système appelé GPT-3 choque les experts par sa capacité à utiliser et à comprendre le langage comme les humains
Parmi les initiés de l’industrie, la rumeur est devenue tonnerre : le monde a changé cet été avec le lancement d’un système d’intelligence artificielle baptisé GPT-3. Sa capacité à interagir en anglais et à générer une écriture cohérente a étonné même les plus experts, au point qu'on la surnomme le « choc GPT-3 ».
Lorsque les systèmes d'IA typiques sont formés pour des tâches spécifiques (par exemple, classer des images), GPT-3 gère des tâches pour lesquelles il n'a jamais été spécifiquement formé.
Recherche publiée par son créateur, le OpenAI, a constaté que GPT-3 peut comprendre du texte et générer des articles de presse que les lecteurs ont du mal à distinguer de ceux écrits par des personnes.
Les incroyables capacités de GPT-3
L’IA peut accomplir des tâches, disais-je, auxquelles ses créateurs n’avaient jamais pensé. Les bêta-testeurs de ces dernières semaines ont découvert qu'il pouvait rédiger un rapport à moitié écrit, produire des histoires et des lettres écrites dans le style de personnes célèbres, générer des idées commerciales et même écrire certains types de code de logiciel basé sur une simple description du logiciel souhaité. .
OpenAI a annoncé qu'après la période d'essai, GPT-3 sera publié en tant que produit commercial.
Son nom, GPT-3, signifie Transformateur pré-formé génératif, Transformateur génératif pré-entraîné de troisième génération. Comme d’autres systèmes d’IA aujourd’hui, GPT-3 s’appuie sur un ensemble vaste et organisé de paramètres qui déterminent son fonctionnement. Plus il y a de paramètres, plus l’intelligence artificielle est performante.
GPT-3 a 175 milliards de paramètres, soit plus de 100 fois celui de son prédécesseur, GPT-2, et 10 fois celui de son plus proche rival, Turing NLG de Microsoft.
Essais routiers
Pour donner un exemple pratique, voici ce que rapporte un testeur bêta de site Simplifier.so (qui permet de tester cette intelligence artificielle). Vous insérez un texte en anglais et demandez à GPT-3 de le simplifier.
Quelqu'un a copié et collé le premier paragraphe du discours d'adieu de George Washington en 1796 : « La période d'une nouvelle élection d'un citoyen pour administrer le gouvernement exécutif des États-Unis n'est pas très lointaine, et le moment est effectivement venu où vos pensées doivent être employées. en désignant la personne à laquelle sera confiée cette importante confiance, me semble approprié, d'autant plus que cela peut conduire à une expression plus distincte de la voix publique. Je dois maintenant vous informer de la résolution que j'ai prise, de refuser de compter parmi ceux sur lesquels un choix peut être fait.
GPT-3 a fourni sa traduction : « Je n’ai pas l’intention de me présenter à la présidence. » Plus de synthèse que celle-ci meurt.
Lorsque le célèbre écart par rapport à « Orgueil et préjugés » de Jane Austen a été inscrit : « C'est une vérité universellement reconnue qu'un homme célibataire en possession d'une bonne fortune doit avoir besoin d'une femme », l'intelligence artificielle a vraiment surpris.
Au cours des quatre premières tentatives, il a donné des réponses qui n'étaient pas tout à fait correctes (par exemple : « Un homme qui a beaucoup d'argent doit chercher une femme. »). À la cinquième tentative, le bang : « C’est une vérité universellement reconnue, qu’un homme célibataire qui a de la bonne fortune doit désirer une épouse, car les hommes sont très vaniteux et veulent passer pour riches, et les femmes sont très avides et avares. je veux être vue comme belle."
Le GPT-3 est-il en quelque sorte « humain » ?
Du type incroyable d’activité que GPT-3 affiche vient la véritable tentation d’anthropomorphiser, mais nous ne devrions pas le faire. Il s’agit d’un modèle statistique qui n’a pas d’états mentaux et qui ne raisonne pas en agissant. Ce n'est pas une intelligence artificielle générale comme HAL 9000 ou JARVIS de Tony Stark.
Shreya Shankar, ingénieur en apprentissage automatique chez Viaduct, société d'intelligence artificielle, affirme que les utilisateurs plus avancés peuvent apprendre au système à effectuer de nouvelles tâches en leur présentant des exemples. À partir de là, l’IA généralise quelle est la tâche. Par exemple, lorsqu'il a souhaité que GPT-3 traduise des équations de l'anglais en symboles mathématiques, il a commencé par lui fournir quelques équations en anglais et leurs équivalents écrits en symboles.
Quels changements peut apporter GPT-3? De toutes sortes
Si vous voyagez à ce rythme, il y a de fortes chances que GPT-3 apporte des changements majeurs dans notre vie professionnelle.
Pour un certain nombre de professionnels (journalistes, avocats, programmeurs et autres), l'introduction de systèmes comme GPT-3 fera probablement passer leurs activités de la production à la révision. Du côté positif, la fin du blocage de l’écrivain. Il sera assez simple de continuer à cliquer sur le bouton « générer » de GPT-3 jusqu'à ce qu'apparaisse quelque chose de bon qui a juste besoin d'être affiné (et enrichi, oui, de la créativité humaine).
Les risques sont également imminents
Comme pour la navigation GPS, qui a commencé comme un outil mais a réduit nos efforts pour nous orienter, les générateurs de langage IA peuvent commencer par nous épargner du travail, mais finiront par nous éliminer les incertitudes.
Et ce n'est que le début : Les modèles de langage IA sont susceptibles de devenir encore plus forts. Créer un rival plus puissant que GPT-3 est à la portée d'autres entreprises technologiques. Les méthodes d'apprentissage automatique sont largement connues et les données OpenAI utilisées pour la formation sont accessibles au public.
Comme GPT-3 a montré le potentiel des très grands modèles, ses 175 milliards de paramètres pourraient bientôt être dépassés.
Les chercheurs de Google ont annoncé en juin qu'ils avaient construit un modèle de 600 milliards de paramètres pour la traduction linguistique, et les chercheurs de Microsoft ont déclaré qu'ils avaient les yeux sur des modèles à mille milliards de paramètres, mais pas nécessairement pour la langue.