Cet article fait partie de "Periscopio", la newsletter Linkedin qui aborde chaque semaine les thématiques de Futuro Prossimo, et est publiée en avance sur la plateforme LinkedIn. Si vous souhaitez vous abonner et le prévisualiser, retrouvez tout ici.
Les algorithmes régissent de plus en plus nos vies, guident nos choix et remplissent nos journées. Un algorithme est un système « caché » et omniprésent qui domine, pour l’essentiel, nos réalités numériques communes.
Lorsque vous écoutez de la musique sur iTunes, lisez une vidéo sur YouTube, recherchez le prochain cadeau d'anniversaire sur Amazon, regardez votre émission préférée sur Netflix ou même recherchez des actualités sur Google, c'est un algorithme qui décide des options qui s'offrent à vous et, indirectement, ce que vous finirez par consommer.
Les algorithmes construisent de véritables « entonnoirs » dans lesquels tombe notre vision de la réalité et aboutit dans une direction précise. C'est bien quand Spotify trouve une chanson entraînante, mais c'est terrible quand une plateforme sociale parvient à influencer le résultat de ce qui devrait être une élection libre.
Il s'agit d'une énorme influence, soigneusement planifiée et détenue par très peu d'acteurs dans le monde : les grandes entreprises technologiques.
Un algorithme doit-il fonctionner comme ça ?
Il y a quelque chose de gratifiant à atteindre nos objectifs grâce à un algorithme. C'est comme avoir à vos côtés quelqu'un qui « nous comprend vite » et qui nous dit ou nous conseille toujours ce que nous voulons entendre. C’est pourquoi les humains en veulent toujours plus. Et les entreprises les emploient parce qu’elles leur garantissent des profits plus importants. Mais est-ce que ça peut fonctionner seulement comme ça ? C'est juste?
La question s'est déjà posée, on le fait de plus en plus souvent et même les lecteurs de ce blog ne s'en privent pas : comment se défendre des effets négatifs des algorithmes d'intelligence artificielle ?
Nous pouvons limiter votre utilisation des réseaux sociaux, voire supprimer des comptes. Nous pouvons rester hors ligne autant que possible, ou au moins quelques jours par mois. Nous pouvons faire des recherches approfondies dans les journaux pour éviter de nous laisser influencer par les fausses nouvelles et les mensonges. Bien sûr, nous le pouvons, au prix de sacrifices, mais nous le pouvons. Mais pourquoi cela dépend-il uniquement de nous ?
Pourquoi devons-nous tout faire nous-mêmes ?
Il doit y avoir quelque chose que les entreprises technologiques elles-mêmes doivent faire, sont obligées de faire pour améliorer la situation. Nous devons remettre en question l'image dans son ensemble, et l'image est la suivante : un algorithme est intrinsèquement conçu pour occuper notre temps et notre attention en exploitant nos vulnérabilités psychologiques. Indiquer. C'est ça, c'est la vérité.
Et c'est une chose sérieuse, surtout pour les nouvelles générations qui ont grandi avec des disputes constantes sur les réseaux sociaux et la petite gratification des "j'aime". Et se donner des conseils pour s’abstenir de surfer, ou pour avoir des habitudes différentes, ou pour faire d’autres efforts, c’est accepter passivement que les entreprises technologiques continueront à exploiter de plus en plus, et pire encore, les algorithmes.
La vraie question à se poser en est une autre. La question est : pourquoi un algorithme est-il optimisé pour l’engagement plutôt que pour le bien-être ? Et que faut-il pour changer cet état de choses ?
Algorithme du bonheur recherché
Avec un peu de travail, les algorithmes pourraient être modifiés pour défendre et améliorer notre psychologie délicate, plutôt que de l’exploiter. Un algorithme doit être formé pour améliorer le bien-être plutôt que l’interaction.
Essayez d'imaginer comment les choses s'amélioreraient.
Il est clair que Big Tech n’y pense même pas. L'ancien président de Facebook Sean Parker, qui a vu naître le géant social, il a dit il y a longtemps que l'objectif principal de la plateforme était de savoir comment tirer le meilleur parti du temps et de l'attention des utilisateurs.
Oui tu sais. Le but est le profit. Et la monnaie attire notre attention. Les conséquences? En arrière-plan. Qu'elles sachent ce qu'elles font ou qu'elles roulent sans retenue jusqu'à atteindre un point de rupture, les entreprises technologiques nous font des ravages et elles en sont responsables.
L’importance de l’éthique de l’IA
Bien sûr, il y a quelques bonnes nouvelles (apparentes) : l’avènement de l’éthique de l’IA et des initiatives collaboratives open source a mis une certaine pression sur ces entreprises. Aujourd’hui, ils font ce qu’ils peuvent pour montrer leur engagement à améliorer leurs plateformes. Google, Facebook, Microsoft et d'autres ont embauché de nombreux spécialistes des sciences sociales : le but ? Rendre leurs technologies plus humaines.
Une tâche évidemment ardue, qui se heurte dès le début à des obstacles : nous nous souvenons tous Timnit Gebru, l'expert en éthique licencié par Google en 2020 pour avoir mis au banc des accusés le « racisme » de son Intelligence Artificielle. Ce n’était ni le seul ni le dernier licenciement de ce type. Il l'a suivi en 2021 Margaret Mitchell, de la même équipe d'éthique de Google.
Pourtant, ces experts sont licenciés pour avoir fait ce pour quoi ils ont été embauchés : analyser les risques potentiels de la technologie. En d’autres termes, il est acceptable d’embaucher des éthiciens, à condition qu’ils n’interfèrent pas avec les projets clés de l’entreprise.
L’éthique de l’IA sera une pratique commerciale non durable si les professionnels sont incapables de faire leur travail, c’est-à-dire de demander des comptes aux entreprises pour lesquelles ils travaillent.
Faire passer les gens avant le profit
Au cours des deux dernières années, la réputation et l’image publique de ces entreprises ont été considérablement réduites en raison de ces choix. Et de plus en plus de chercheurs tentent de s’unir pour continuer à travailler sur l’éthique des technologies sans se soumettre aux objectifs économiques de ces géants.
Et c'est peut-être pour le mieux : il est peu probable que les entreprises technologiques écoutent vraiment leurs équipes d'éthique si leur problème est purement économique. Si l'introduction de l'éthique ne réduira pas leurs profits, ils le feront - sinon, ils empêcheront ces équipes de travailler.
C'est pourquoi Timnit Gebru elle-même a fondé le Institut de recherche sur l'intelligence artificielle distribuée (DAIR) et Margaret Mitchell travaille comme chercheuse et scientifique en chef en éthique à Étreindre le visage .
Si les équipes d'éthique internes ne peuvent pas faire un vrai travail (et elles ne le peuvent pas, cela me semble clair), il vaut mieux que la solution soit recherchée en externe.
L'armée du Salut
Comme mentionné, nous constatons de plus en plus d’efforts dans le domaine de l’intelligence artificielle, mais en dehors des grandes entreprises technologiques. Il y a des sujets qui travaillent collectivement et individuellement pour inverser le sort du « domino algorithme » : en plus du DAIR et du Hugging Face susmentionnés, il y a GrandeScience, Eleuther IA e Institut d'éthique en IA de Montréal , entre autres. En Italie, nous avons le Société italienne pour l'éthique de l'intelligence artificielle.
Peut-être est-il temps que même ceux qui ont un poids et un pouvoir politiques réels jouent un rôle plus actif dans la surveillance des sociétés qui ont notre avenir entre leurs mains.
Un algorithme construit autour de l'homme
À cet égard, l'UNESCO a développé un ensemble de recommandations pour garantir que chaque algorithme d’IA est centré sur l’humain.
« Nous devons créer des règles et des cadres internationaux et nationaux pour garantir que ces nouvelles technologies profitent à l'humanité dans son ensemble », peut-on lire dans le document.
« Il est temps que l'IA soit au service des gens, et non l'inverse »
« L’IA influence déjà nos vies. Il existe certaines lacunes législatives dans ce domaine qui doivent être comblées immédiatement. La première étape consiste à se mettre d’accord sur les valeurs à protéger et sur la manière dont les réglementations doivent être respectées. Il existe de nombreux cadres et lignes directrices, mais ils sont appliqués de manière inégale et aucun n’est véritablement exhaustif. Et puisque l’IA est mondiale, nous devons l’être aussi.
Engagement dans le monde
Le traité de l'UNESCO a été approuvé il y a tout juste 7 mois, le 24 novembre 2021. C'est une première étape fondamentale pour contrôler les entreprises opérant dans les domaines juridiques avec des technologies surpuissantes.
La Chine a également ouvert la voie à une réglementation sans précédent pour tenir les gens responsables de la puissance d'un algorithme. Le 1er mars, le gouvernement chinois a activé une loi qui permettra aux utilisateurs de désactiver complètement les recommandations d'algorithmes, entre autres mesures pour donner aux gens un pouvoir de décision sur les entreprises technologiques.
Le fait que l’éthique de l’IA ait attiré l’attention des organismes de réglementation mondiaux révèle à quel point elle est importante pour le bien-être individuel et collectif. Sommes-nous au début de la quête visant à transformer un algorithme « malade » qui nous rend malade en un algorithme de bien-être ?
Je ne peux pas dire. Mais il faut essayer à tout prix.