Les cachalots sont parmi les animaux vivants les plus bruyants de la planète. Ils produisent des craquements, des détonations et des clics pour communiquer avec d'autres cétacés qui se trouvent à quelques mètres ou à des centaines de kilomètres.
Cette symphonie de sons de cachalot est suffisamment sophistiquée pour être considérée comme une langue à part entière. Mais les humains comprendront-ils un jour ce que disent ces baleines ?
La réponse est : peut-être
Avant de déchiffrer le langage des baleines, les chercheurs doivent collecter et analyser un nombre sans précédent de communications entre cachalots, c'est peu mais certain.
Avec un cerveau six fois plus gros que le nôtre, les cachalots (Physeter macrocephalus) sont des baleines dotées d'une structure sociale complexe, qui passent une grande partie de leur temps à socialiser et à échanger des messages. Des séquences de messages qui peuvent être courtes (genre 10 secondes) ou durer plus d'une demi-heure. En effet, « la complexité et la durée des vocalisations des baleines suggèrent qu’elles sont au moins théoriquement capables de présenter une grammaire complexe » par rapport à d’autres animaux non humains.
C’est ce que l’on lit dans un article d’avril 2021 sur les baleines publié le arXiv.org.
Que dit cette étude ?
Ce document, issu d'un projet interdisciplinaire connu sous le nom de CETI (Initiative de traduction des cétacés), présente un plan pour décoder les vocalisations des cachalots, d'abord en collectant des enregistrements de ces baleines, puis en utilisant l'apprentissage automatique pour tenter de décoder les séquences qu'ils utilisent pour communiquer. Le CETI a choisi d’étudier les cachalots plutôt que les autres baleines car leurs clics ont une structure de type code Morse, que l’intelligence artificielle (IA) pourrait analyser plus facilement.
Briser la glace
Le peu que nous savons sur les cachalots, nous l'avons appris assez récemment. Ce n'est que dans les années 50 que l'on a remarqué que ces baleines émettaient des sons. Et pendant 20 ans on n'a pas compris qu'ils utilisaient ces sons pour communiquer.
Avec un double objectif, cependant. Les cachalots peuvent plonger à des profondeurs de 4.000 1.200 pieds (XNUMX XNUMX mètres). vous trois fois plus profond de sous-marins nucléaires. Il fait nuit noire là-bas : par conséquent, ces baleines ont évolué pour rechercher des calmars et d'autres aliments en utilisant ces sons également pour se localiser, comme un sonar. Ce même type de son est également utilisé dans leurs vocalisations sociales, bien que dans ce cas les clics de communication soient plus denses, selon le document du CETI.
Comprendre cela était aussi difficile
Les cachalots ont longtemps été très difficiles à étudier pour les humains. Nous avons maintenant les outils pour regarder plus profondément que jamais grâce à l'intelligence artificielle, la robotique et les drones.
David Gruber, biologiste marin et leader du projet CETI.
Pratyusha Sharma, chercheur en science des données au CETI et doctorant au Laboratoire d'informatique et d'intelligence artificielle du MIT, est très confiant dans les développements récents en matière d'intelligence artificielle et de modèles de langage, tels que GPT-3, qui utilise l'apprentissage en profondeur pour construire des textes ou des histoires humaines. Les scientifiques espèrent que ces mêmes méthodes pourront être appliquées aux vocalisations des cachalots pour construire leur langage. Il n'y a qu'un seul problème : ces méthodes ont un appétit vorace pour les données.
Nous avons 100.000 4 inscriptions, mais il nous en faut XNUMX milliards !
Le projet CETI enregistre actuellement environ 100.000 4 clics de baleines, minutieusement collectés par des biologistes marins pendant de nombreuses années, mais les algorithmes d'apprentissage automatique pourraient avoir besoin d'environ XNUMX milliards de ces clics. Pour combler cette lacune, le CETI crée plusieurs canaux automatisés de collecte des enregistrements des cachalots. Les méthodes incluent des microphones sous-marins placés dans les eaux fréquentées par les baleines et des microphones pouvant être largués depuis des drones volants. Même des poissons robots qui peuvent suivre et écouter les baleines sans se faire remarquer.
Mais même avec toutes ces données, saurons-nous les décrypter ?
De nombreux algorithmes d’apprentissage automatique ont trouvé l’audio plus difficile à analyser que le texte. Par exemple, il peut être difficile d’analyser où commence et où se termine un mot. Comme Sharma l'a expliqué : « Supposons qu'il y ait le mot « parapluie ». Est-ce que « om » est le mot ? Ou est-ce « sympa » ? Ou est-ce un « parapluie » ? Les barrières entre les mots prononcés sont plus ambiguës et moins régulières, et les modèles peuvent donc nécessiter beaucoup plus de données pour être découverts.
Ce n’est pas la seule difficulté à laquelle le CETI sera confronté.
« Que quelqu'un vienne, par exemple, du Japon, des États-Unis ou d'ailleurs, les mondes dont nous parlons sont très similaires ; nous parlons des gens, nous parlons de leurs actions », a déclaré Sharma. « Mais les mondes dans lesquels vivent ces baleines sont très différents, n’est-ce pas ? Et les comportements sont très différents. »
Aussi, à partir d'une étude de 6 ans publiée en 2016 dans la revue Société Royale Open Science, on sait que les cachalots ont même des dialectes.
Si cela semble être une énorme difficulté, pensez à aller sur la lune. Ces difficultés sont précisément ce qui rend le projet si ambitieux et digne. Ce qu'une baleine dit à une autre est aujourd'hui aussi sombre que les eaux dans lesquelles elles nagent, mais c'est un mystère qui rend le CETI très, très intrigant.