Vous connaissez tous l'histoire de l'ingénieur de Google qui a vu des signes de personnalité dans le dernier chatbot IA de Google (et il a ensuite été licencié). L'avis unanime des journalistes et surtout des experts ? contraire , contraire , contraire et ... contraire.
Par des chemins différents, tout le monde semble être arrivé à la même conclusion, qui, si vous y réfléchissez bien, est aussi une conclusion de bon sens ainsi qu'une conclusion technique. Un chatbot, aussi développé soit-il, est une fonction. Les fonctions ils ne sont pas sensibles. Mais ils peuvent être tellement évolués qu'ils trompent les gens, oh oui ils le peuvent. La vraie question est donc : qui les contrôlera ? Seront-ils utilisés de manière transparente ? Suis-moi.
Parce que les IA ne sont « que » des fonctions
Reprenons nos notions scolastiques rouillées pour dire : une fonction est une règle permettant de transformer un nombre (ou une liste de nombres) en un autre nombre (ou une liste de nombres). Selon cette définition, TOUS les systèmes d'IA d'aujourd'hui sont des fonctions, y compris le chatbot LaMDA qui a provoqué un chahut en coûtant son travail à l'ingénieur.
Bien sûr, ce sont des fonctions très complexes, mais elles fonctionnent toujours : le logiciel derrière un chatbot comprend des règles pour convertir un message écrit en lettres de l'alphabet en un nombre que le logiciel utilise comme entrée x, puis pour reconvertir la sortie f(x) en un message en lettres. Tout ordinateur actuel, y compris celui de vos téléphones portables, effectue régulièrement ces opérations.
Au lieu de parler en rond sur ce que signifie le mot « sensible » (que personne ne semble pouvoir définir), nous pourrions nous demander comment les êtres humains devraient apprendre à exploiter l’extraordinaire pouvoir de ces fonctions complexes.
Le cœur : les fonctions pseudo-aléatoires
Les mathématiciens et les ingénieurs découvrent ou développent de nouvelles fonctions depuis un certain temps. Par exemple, les fonctions « pseudo-aléatoires », qui génèrent des résultats totalement prévisibles (pour quiconque connaît leur formule sous-jacente), mais qui semblent aléatoires pour tout le monde.
Lors de sa phase de « formation », le logiciel chatbot examine de grandes quantités de texte. Imaginez découvrir que la moitié du temps, l'expression « mon chien aime ça » est suivie de « jouer à rapporter » ou « mâcher des meubles ». Lorsque le chatbot entraîné est amené à discuter avec un humain, les entrées qu'il reçoit (les paroles de son interlocuteur) peuvent lui signaler qu'il est temps de dire quelque chose sur un chien.
Le logiciel en cours d'exécution utilise l'une des fonctions pseudo-aléatoires pour choisir ce qu'il faut dire à propos du chien : « jouer à rapporter » ou « mâcher des meubles ».
A qui appartiennent ces formules ?
Traditionnellement, ceux qui développaient une meilleure méthode de simulation du hasard la publiaient afin que d'autres puissent la critiquer et la copier. C'est pourquoi les fonctions de ce type ont connu un grand succès et se sont répandues : aujourd'hui l'aléatoire simulé est utilisé dans de nombreuses applications, dont la protection des transactions sur Internet. Sans perspective de devenir milliardaire, de nombreux scientifiques ont découvert de nouvelles fonctions et les ont partagées - tous ont fait des progrès. C'était un bon système. Il a fonctionné pendant des siècles. Et maintenant?
Dans le domaine de l’intelligence artificielle, les progrès à la frontière de la connaissance sont désormais dominés par quelques entreprises privées. Ils ont accès à suffisamment de données et à suffisamment de puissance de calcul pour découvrir et exploiter des fonctions extraordinairement puissantes que personne de l’extérieur ne peut comprendre.
Les carrefours
Prenons LaMDA. C 'est impressionnant. Cela montre que l’intelligence artificielle pourrait offrir aux gens de nouvelles façons surprenantes d’accéder à l’ensemble des connaissances humaines. Au fil du temps, peut-être que Google pourra modifier LaMDA pour en faire le nouveau « moteur de recherche ». Il nous apparaîtra comme un assistant bien plus rusé que les actuels. Il nous écoutera, nous comprendra et anticipera même souvent nos pensées.
Elle pourra, si on le souhaite, orienter nos choix en rapportant des milliards de dollars de revenus aux entreprises qui en bénéficieront.
Ou bien, entre les mains de groupes désintéressés, ils amélioreront l’accès à la connaissance humaine, devenant peut-être le nouveau Wikipédia (meilleur que le précédent, espérons-le).
Comment pensez-vous que cela va se terminer ?
Ne vous laissez pas berner par les fonctionnalités, aussi complexes soient-elles. Les ingénieurs de Google ne sont pas les Dr Frankenstein des temps modernes. Ils ne donnent pas naissance à des êtres sensibles. Ils sont en train de créer le « Nouveau Coca Cola », un produit très répandu et omniprésent, basé sur un ingrédient secret et unique dont eux seuls connaissent la formule.
Au lieu de débattre sur la question de savoir si un chatbot est « sensible », nous devrions considérer les conséquences à long terme d’un système qui s’éloigne de la science. Un système qui passe d’un savoir qui profite à tous à un système dans lequel le savoir « secret » transmet le pouvoir et le profit à quelques géants de la technologie, qui deviennent progressivement de plus en plus puissants, même politiquement. Nouveaux dirigeants d’un monde moins juste.