Microsoft s'apprête à lancer GPT-4, la mise à jour de l'IA qui pourrait rendre ChatGPT capable de créer des vidéos à partir de simples messages texte. Andréas Braun, CTO de Microsoft Allemagne, annoncé l’actualité lors de l’événement « AI in Focus – Digital Kickoff ». GPT-4 sera « multimodal » et permettra au renseignement de traduire du texte dans d’autres types de médias. Braun a expliqué que la nouvelle mise à jour offrira « des possibilités complètement différentes, par exemple des vidéos ». Franchement, j'attends aussi des images et des sons : probablement même de la musique.
Pas le premier, mais le meilleur
Parmi les expérimentations dans le domaine de l’IA qui ont été mises en avant, on compte déjà deux systèmes capables de produire des vidéos à partir d’instructions textuelles. Il s'agit de Faire une vidéo, IA détenue par Facebook Meta (nous en avons parlé ici), Et Rêveix, développé par Google (nous en avons parlé ici). Cependant, il semble que la prochaine version de ChatGPT alimentée par GPT-4 sera en mesure de faire plus.
Microsoft a fourni un exemple d'utilisation : le scénario est celui d'un centre d'appels. Dans le modèle illustré par Braun, l’IA convertit automatiquement les conversations téléphoniques en texte, ce qui permet aux employés d’économiser du temps et des efforts. C'est un avant-goût simple : les caractéristiques du GPT-4 sont toutes à découvrir et à évaluer, et nous le ferons très prochainement. Quand? A partir de la semaine prochaine, précise le géant de Redmond.
GPT-4, une autre page à tourner
Même si les évolutions récentes nous habituent à recevoir les informations assez rapidement, les choses vont de plus en plus vite. GPT-4 est à nos portes et de nouveaux développements de cette technologie sont déjà prévisibles. L’IA comprendra le langage naturel avec un niveau de complexité et de sophistication encore plus élevé. Ils seront capables de traiter et d'interpréter les informations de manière de plus en plus précise et contextuelle, en s'adaptant et en répondant rapidement à des situations « dynamiques ».
Surtout, elle apprendra plus vite : la capacité à « externaliser » à travers une multimodalité complexe ajoutera d’autres « sens » à l’IA. À l'horizon se profile l'intégration de ces systèmes avec d'autres technologies avancées telles que la vision artificielle, ou robotique. Nous n’aurons pas de robots « sensibles », mais ils seront (et c’est sûr) énormément plus avancés que tous ceux que nous avons vus depuis que la robotique a commencé à multiplier les tentatives.
Que puis-je dire : j'ai également hâte de "mettre les dents" dans GPT-4. Et toi?