Microsoft est sur le point de lancer GPT-4, la mise à jour de l'IA qui pourrait permettre à ChatGPT de créer des vidéos à partir de simples SMS. Andréas Braun, CTO de Microsoft Allemagne, annoncé l'actualité lors de l'événement "AI in Focus - Digital Kickoff". GPT-4 sera "multimode" et permettra à l'intelligence de traduire du texte dans d'autres types de médias. Braun a expliqué que la nouvelle mise à jour offrira "des possibilités complètement différentes, par exemple la vidéo". Franchement, j'attends aussi des images et des sons : probablement de la musique aussi.
Pas le premier, mais le meilleur
Parmi les expérimentations dans le domaine de l'IA qui ont été mises à l'honneur, il existe déjà deux systèmes capables de produire des vidéos à partir d'instructions textuelles. Il s'agit de Faire une vidéo, IA détenue par Facebook Meta (nous en avons parlé ici), Et Dreamix, développé par Google (nous en avons parlé ici). Cependant, il semble que la prochaine version de ChatGPT alimentée par GPT-4 sera en mesure de faire plus.
Microsoft a fourni un exemple d'utilisation : le scénario est celui d'un centre d'appels. Dans le modèle illustré par Braun, l'IA convertit automatiquement les conversations téléphoniques en texte, ce qui permet aux employés d'économiser du temps et des efforts. C'est un avant-goût simple : les caractéristiques du GPT-4 sont toutes à découvrir et à évaluer, et nous le ferons très prochainement. Quand? Dès la semaine prochaine, a annoncé le géant de Redmond.

GPT-4, une autre page à tourner
Bien que les développements récents nous habituent à collecter des nouvelles assez rapidement, les choses vont de plus en plus vite. Le GPT-4 approche à grands pas et d'autres développements de cette technologie sont déjà prévus. L'IA comprendra le langage naturel avec un niveau encore plus élevé de complexité et de sophistication. Ils seront capables de traiter et d'interpréter les informations de manière de plus en plus précise et contextuelle, s'adaptant rapidement et répondant aux situations "dynamiques".
Plus important encore, il apprendra plus vite : la possibilité de "sous-traiter" dans un complexe multimodal ajoutera plus de "sens" à l'IA. À l'horizon se profile l'intégration de ces systèmes avec d'autres technologies de pointe telles que la vision par ordinateur ou la robotique. Nous n'aurons pas de robots "sensibles", mais ils seront (et c'est sûr) beaucoup plus avancés que tous ceux que nous avons vus depuis que la robotique a commencé à multiplier les tentatives.
Que puis-je dire: j'ai hâte de "mettre mes dents sur" GPT-4 également. Et toi?