Ce post fait partie de "Periscopio", la newsletter de Linkedin qui explore chaque semaine les futurs enjeux futurs, et est publié en avance sur la plateforme LinkedIn. Si vous souhaitez vous abonner et le prévisualiser, retrouvez tout ici.
Les algorithmes régissent de plus en plus nos vies, guident nos choix et remplissent nos journées. Un algorithme est un système "caché" et omniprésent qui domine, pour l'essentiel, nos réalités numériques communes.
Lorsque vous écoutez de la musique sur iTunes, lisez une vidéo sur YouTube, recherchez le prochain cadeau d'anniversaire sur Amazon, regardez votre émission préférée sur Netflix ou même recherchez des actualités sur Google, c'est un algorithme qui décide des options qui s'offrent à vous et, indirectement, ce que vous finirez par consommer.
Les algorithmes construisent de véritables « entonnoirs » dans lesquels notre vision de la réalité tombe et aboutit dans une direction précise. C'est bien quand Spotify trouve une chanson accrocheuse, mais c'est terrible quand une plateforme sociale parvient à influencer le résultat de ce qui devrait être des élections libres.
Il s'agit d'une énorme influence, soigneusement planifiée et détenue par très peu d'acteurs dans le monde : les grandes entreprises technologiques.
Un algorithme doit-il fonctionner comme ça ?
Il y a quelque chose de gratifiant à atteindre nos objectifs grâce à un algorithme. C'est comme avoir quelqu'un à côté de nous qui "nous comprend à la volée" et nous dit, ou nous conseille, ce que nous voulons toujours entendre. C'est pourquoi les êtres humains en veulent de plus en plus. Et les entreprises les emploient parce qu'elles leur garantissent des profits plus importants. Mais est-ce que cela peut seulement fonctionner ? C'est juste?
La question s'est déjà posée, on le fait de plus en plus souvent et même les lecteurs de ce blog ne s'en privent pas : comment se défendre des effets négatifs des algorithmes d'intelligence artificielle ?
Nous pouvons restreindre l'utilisation des médias sociaux, voire supprimer des comptes. Nous pouvons être hors ligne autant que possible, ou au moins quelques jours par mois. Nous pouvons faire des recherches approfondies dans les journaux pour éviter d'être influencés par de fausses nouvelles et des mensonges. Bien sûr, nous le pouvons, au prix de sacrifices, mais nous le pouvons. Mais pourquoi cela ne dépend-il que de nous ?

Pourquoi devons-nous tout faire nous-mêmes ?
Il doit y avoir quelque chose que les entreprises technologiques elles-mêmes doivent faire, sont obligées de faire pour améliorer la situation. Nous devons remettre en question l'image dans son ensemble, et l'image est la suivante : un algorithme est intrinsèquement conçu pour occuper notre temps et notre attention en exploitant nos vulnérabilités psychologiques. Indiquer. C'est ça, c'est la vérité.
Et c'est une chose sérieuse, surtout pour les nouvelles générations qui ont grandi entre querelles incessantes sur les réseaux sociaux et petites gratifications "like". Et se donner mutuellement le conseil de s'abstenir de surfer, ou d'avoir des habitudes différentes, ou de faire d'autres efforts, c'est accepter passivement que les entreprises technologiques continueront à exploiter de plus en plus, et de pire en pire, les algorithmes.
La vraie question à se poser est une autre. La question est : pourquoi un algorithme est-il optimisé pour l'engagement plutôt que pour le bien-être ? Et que faut-il pour changer cet état de fait ?
Algorithme du bonheur recherché
Avec une quantité modeste de travail, les algorithmes pourraient être modifiés pour défendre et améliorer notre psychologie délicate, plutôt que pour l'exploiter. Un algorithme devrait être formé pour améliorer le bien-être, plutôt que l'interaction.
Essayez d'imaginer comment les choses s'amélioreraient.
De toute évidence, Big Tech n'y pense même pas. L'ancien président de Facebook, Sean Parker, qui a vu naître le géant des médias sociaux, il a dit il y a longtemps que l'objectif principal de la plate-forme était de tirer le meilleur parti du temps et de l'attention des utilisateurs.
Oui tu sais. Le but est le profit. Et la monnaie est notre attention. Les conséquences? En arrière-plan. Qu'elles sachent ce qu'elles font ou qu'elles voyagent sans freins jusqu'à ce qu'elles atteignent un point de rupture, les entreprises technologiques nous causent des dommages, et elles en sont responsables.

L'importance d'une éthique de l'IA
Bien sûr, il y aurait une bonne nouvelle (apparente) : l'avènement de l'éthique de l'IA et des initiatives collaboratives open source a mis une certaine pression sur ces entreprises. Ils font maintenant ce qu'ils peuvent pour montrer leur engagement à améliorer leurs plateformes. Google, Facebook, Microsoft et d'autres ont embauché de nombreux experts en sciences sociales - le but ? Rendre leurs technologies plus humaines.
Une tâche évidemment ardue, qui se heurte dès le début à des obstacles : nous nous souvenons tous Timnit Gebru, l'expert en éthique agréé par Google en 2020 pour avoir mis le "racisme" de son Intelligence Artificielle sur le banc des accusés. Ce n'était pas la seule, ni la dernière, mise à pied de ce genre. Il a suivi en 2021 Margaret Mitchell, de la même équipe d'éthique de Google.
Pourtant, ces experts sont licenciés pour avoir fait ce pour quoi ils ont été embauchés : analyser les risques potentiels de la technologie. En d'autres termes, il est acceptable d'embaucher des experts en éthique, tant qu'ils n'interfèrent pas avec les plans clés de l'entreprise.
L'éthique de l'IA sera une pratique commerciale non durable si les professionnels ne sont pas en mesure de faire leur travail, c'est-à-dire de responsabiliser les entreprises pour lesquelles ils travaillent.

Faire passer les gens avant le profit
Au cours des deux dernières années, la réputation et l'image publique de ces entreprises ont considérablement diminué en raison de ces choix. Et de plus en plus de chercheurs tentent de se regrouper pour continuer à travailler sur l'éthique de la technologie sans obéir aux objectifs économiques de ces géants.
Et c'est peut-être pour le mieux : il est peu probable que les entreprises technologiques écoutent vraiment leurs équipes d'éthique si leur problème est purement économique. Si l'introduction de l'éthique ne réduira pas leurs profits, ils le feront - sinon, ils empêcheront ces équipes de travailler.
C'est pourquoi Timnit Gebru elle-même a fondé le Institut de recherche sur l'intelligence artificielle distribuée (DAIR) et Margaret Mitchell travaille comme chercheuse et scientifique en chef en éthique à Étreindre le visage .
Si les équipes d'éthique internes ne peuvent pas faire un vrai travail (et elles ne le peuvent pas, cela me semble évident), mieux vaut chercher la solution à l'extérieur.

L'armée du Salut
Comme mentionné, nous voyons de plus en plus d'efforts dans le domaine de l'intelligence artificielle, mais en dehors des grandes entreprises technologiques. Il y a des sujets qui travaillent collectivement et individuellement pour renverser le sort du "domino algorithme": en plus du DAIR et du Hugging Face susmentionnés, il y a GrandeScience, Eleuther IA e Institut d'éthique en IA de Montréal , entre autres. En Italie, nous avons le Société italienne pour l'éthique de l'intelligence artificielle.
Peut-être est-il temps que même ceux qui ont un poids et un pouvoir politiques réels jouent un rôle plus actif dans la surveillance des sociétés qui ont notre avenir entre leurs mains.
Un algorithme construit autour de l'homme
A cet égard, l'UNESCO a élaboré un ensemble de recommandations pour s'assurer que chaque algorithme d'IA est centré sur l'humain.
"Nous devons créer des règles et des cadres internationaux et nationaux pour garantir que ces nouvelles technologies profitent à l'humanité dans son ensemble", indique le document.
"Il est temps que l'IA soit au service des gens, et non l'inverse"
"L'intelligence artificielle affecte déjà nos vies. Certaines lacunes législatives dans ce domaine doivent être comblées immédiatement. La première étape consiste à se mettre d'accord sur les valeurs à protéger et sur la manière dont la réglementation doit être respectée. Il existe de nombreux cadres et lignes directrices, mais ils sont appliqués de manière inégale et aucun n'est véritablement mondial. Et puisque l'intelligence artificielle est globale, nous devons l'être aussi".

Engagement envers le monde
Le traité de l'UNESCO a été approuvé il y a tout juste 7 mois, le 24 novembre 2021. C'est une première étape fondamentale pour contrôler les entreprises opérant dans les domaines juridiques avec des technologies surpuissantes.
La Chine a également ouvert la voie à une réglementation sans précédent pour tenir les gens responsables de la puissance d'un algorithme. Le 1er mars, le gouvernement chinois a activé une loi qui permettra aux utilisateurs de désactiver complètement les recommandations d'algorithmes, entre autres mesures pour donner aux gens un pouvoir de décision sur les entreprises technologiques.
Le fait que l'éthique de l'intelligence artificielle ait attiré l'attention des instances de régulation mondiales révèle à quel point elle est importante pour le bien-être individuel et collectif. Sommes-nous au début de la recherche pour transformer un algorithme « malade » qui nous rend malades en un algorithme de bien-être ?
Je ne peux pas dire. Mais il faut essayer à tout prix.