L’intelligence artificielle nous surprend chaque jour davantage par ses capacités. Sa « puissance cérébrale » augmente (bonne), sa consommation augmente (mauvaise), mais les risques augmentent aussi (mal). Ce n’est pas un conte de fées : sans un « code moral », l’IA pourrait effectivement évoluer au point de mettre en danger les valeurs et le bien-être humains. C'est pourquoi il est temps de changer de paradigme : de l'intelligence àintégrité artificielle.
Ce n'est qu'en intégrant des principes éthiques dans les systèmes d'apprentissage automatique que nous pourrons façonner un avenir dans lequel l'intelligence artificielle donnera la priorité à notre sécurité, notre santé et notre équité, empêchant ceux qui la manipulent (car il s'agit toujours d'un outil) de l'utiliser à des fins lucratives. à des fins connexes, comme les actualités nous le montre déjà. Ce n'est pas un chemin facile : il nécessitera la contribution d'experts en éthique, sociologues, philosophie. Mais c’est un défi que les dirigeants avant-gardistes de tous les secteurs doivent relever dès maintenant. L'intégrité artificielle est la clé d'un avenir où l'homme et la machine collaboreront de manière nouvelle et plus éthique.
Vers l'intégrité artificielle : la vision de Hamilton Mann
L'un des penseurs les plus brillants sur ces questions est Hamilton Mann, avec qui j'ai eu le plaisir de côtoyer à plusieurs reprises. Mann est un pionnier de l'IA éthique : le créateur du concept même d'intégrité artificielle, qu'il approfondit dans son livre "Intégrité artificielle : les voies pour diriger l'IA vers un avenir centré sur l'humain" .
Sa vision est claire : pour construire un avenir dans lequel l’IA sera alignée sur les valeurs humaines, nous devons passer de l’intelligence à l’intégrité par des étapes sérieuses, pratiques et concrètes. Cela signifie annoter les données de formation avec des codes d'éthique, superviser les processus d’apprentissage automatique e intégrer des modèles de valeurs humaines dans les systèmes. Ce n’est qu’ainsi que nous pourrons disposer d’une IA capable de prendre des décisions justes, inclusives et transparentes.
Un défi multidisciplinaire et mondial
Je le répète : l’intégrité artificielle ne peut pas relever de la seule responsabilité des développeurs. Cela nécessite une collaboration interdisciplinaire: outre les sociologues susmentionnés, philosophie et les éthiciens, les législateurs et les différents groupes d’utilisateurs devront également être impliqués dès le départ. Et comme le rapport de la société à l'éthique est dynamique (parfois élastique, pour être précis), des mécanismes seront nécessaires pour que l’IA s’adapte à l’évolution des normes éthiques au fil du temps. Surtout, un leadership responsable pour coordonner les efforts.
Un domaine émergent est L 'algorithmique, qui étudie l'éthique des algorithmes : des équipes d'humanistes et d'informaticiens travaillent à définir des principes moraux à traduire en code1. Avec l’explosion de l’IA générative, ces réflexions sont plus urgentes que jamais. Nous ne pouvons pas permettre que des technologies aussi puissantes fonctionnent dans un vide éthique et juridique.
Quatre modes opérationnels pour une IA éthique
Mann identifie quatre façons dont les humains et l'IA collaborent sur la base de l'intégrité :
- Marginal: L’IA identifie les domaines dans lesquels sa contribution et celle des humains ne sont plus nécessaires, permettant ainsi aux personnes d’être réaffectées à des activités à plus forte valeur ajoutée.
- L'IA d'abord: Même lorsque l’IA prend les devants, elle maintient des normes éthiques d’équité et d’inclusion. Ce n’est pas tout : il sait expliquer comment il arrive à certains résultats et évite les préjugés, par exemple dans le domaine médical.
- L’humain d’abord: L'IA soutient les décisions humaines sans remplacer le jugement éthique des gens, comme dans les processus judiciaires.
- Fusion: la synergie parfaite entre l'IA et l'intuition humaine, par exemple dans voitures autonomes où l'IA gère la conduite mais où la supervision humaine intervient dans les dilemmes éthiques.
Intégrité artificielle, les questions que les dirigeants doivent se poser
L’IA continuera d’évoluer, ouvrant des opportunités extraordinaires mais aussi de profonds défis éthiques et sociaux. Les dirigeants de tous les secteurs doivent se poser quelques questions cruciales :
- Comment pouvons-nous éviter une dépendance excessive à l’IA où le jugement humain est essentiel ?
- Comment gérer l’augmentation potentielle de l’emploi et des inégalités de revenus ?
- Comment prévenir les utilisations contraires à l’éthique de l’IA et les violations à grande échelle de la vie privée ?
- Comment réguler le développement de l’IA de manière responsable et durable ?
Vers un avenir d’IA démocratique et éthique
Je suis prudemment optimiste quant au fait que l’accès généralisé aux outils d’IA continuera à démocratiser ces technologies, en les rendant accessibles aux petites entreprises, aux innovateurs et aux particuliers qui peuvent les utiliser à bon escient. Plus les gens auront la possibilité de comprendre et d’appliquer l’intelligence artificielle, plus la conscience éthique et la volonté d’une meilleure gouvernance se développeront.
Alors même que nous nous dirigeons vers un avenir façonné par l’intelligence artificielle, nous avons l’opportunité et la responsabilité de mettre l’intégrité au centre. Ce n’est qu’ainsi que nous pourrons récolter les bénéfices extraordinaires de l’IA tout en minimisant ses risques et en construisant une société plus éthique et inclusive. La route est encore longue, mais grâce à des points de contact comme ceux tracés par Hamilton Mann, nous disposons d'une carte pour nous orienter.
L’avenir de l’IA est, doit être, l’intégrité.
- Si vous souhaitez approfondir le sujet de l'algorithmique, également en relation avec le concept d'intégrité artificielle, je vous invite à suivre l'œuvre de Paolo Benanti, parmi les plus grands experts (et certainement les plus passionnés) sur le sujet. ??