Una organización con sede en California quiere aprovechar el poder del aprendizaje automático para decodificar la comunicación en todo el reino animal. Pero el proyecto tiene sus escépticos.
El manejador de delfines hace la señal de “juntos” con sus manos, seguida de “crear”. Los dos delfines entrenados desaparecen bajo el agua, intercambian sonidos y luego emergen, se ponen boca arriba y levantan la cola. Han ideado un nuevo truco propio y lo han realizado en tándem, tal como se les solicitó . “No prueba que haya lenguaje”, dice Aza Raskin. “Pero ciertamente tiene mucho sentido que, si tuvieran acceso a una forma rica y simbólica de comunicarse, eso haría que esta tarea fuera mucho más fácil”.
Raskin es cofundador y presidente de Earth Species Project (ESP), un grupo sin fines de lucro de California con una ambición audaz: decodificar la comunicación no humana utilizando una forma de inteligencia artificial (IA) llamada aprendizaje automático, y hacer que todos los conocimiento disponible públicamente, profundizando así nuestra conexión con otras especies vivas y ayudando a protegerlas. Un álbum de canciones de ballenas de 1970 impulsó el movimiento que llevó a la prohibición de la caza comercial de ballenas. ¿Qué podría generar un traductor de Google para el reino animal?
La organización, fundada en 2017 con la ayuda de importantes donantes como el cofundador de LinkedIn, Reid Hoffman, publicó su primer artículo científico en diciembre pasado. El objetivo es desbloquear la comunicación dentro de nuestras vidas. “El fin por el que estamos trabajando es si podemos decodificar la comunicación animal, descubrir el lenguaje no humano”, dice Raskin. “En el camino e igualmente importante es que estamos desarrollando tecnología que apoya a los biólogos y la conservación ahora”.
Comprender las vocalizaciones de los animales ha sido durante mucho tiempo objeto de estudio y fascinación humana. Varios primates dan llamadas de alarma que difieren según el depredador; los delfines se dirigen unos a otros con silbidos característicos; y algunos pájaros cantores pueden tomar elementos de sus llamadas y reorganizarlos para comunicar diferentes mensajes. Pero la mayoría de los expertos no llegan a llamarlo lenguaje, ya que ninguna comunicación animal cumple con todos los criterios.
Hasta hace poco, la decodificación se basaba principalmente en una observación minuciosa. Pero ha aumentado el interés en aplicar el aprendizaje automático para manejar las enormes cantidades de datos que ahora pueden recopilar los sensores modernos transmitidos por animales. “La gente está empezando a usarlo”, dice Elodie Briefer, profesora asociada de la Universidad de Copenhague que estudia la comunicación vocal en mamíferos y aves. “Pero todavía no entendemos realmente cuánto podemos hacer”.
Briefer co-desarrolló un algoritmo que analiza los gruñidos de los cerdos para saber si el animal está experimentando una emoción positiva o negativa. Otro, llamado DeepSqueak, juzga si los roedores están en un estado estresado en función de sus llamadas ultrasónicas. Otra iniciativa, el Proyecto CETI (que significa Iniciativa de traducción de cetáceos), planea utilizar el aprendizaje automático para traducir la comunicación de los cachalotes.
Lechones tamworth en un corral en st austell, cornwall.A principios de este año, Elodie Briefer y sus colegas publicaron un estudio sobre las emociones de los cerdos basado en sus vocalizaciones. Se recolectaron 7414 sonidos de 411 cerdos en una variedad de escenarios. Fotografía: Matt Cardy/Getty Images
Sin embargo, ESP dice que su enfoque es diferente, porque no se centra en decodificar la comunicación de una especie, sino de todas. Si bien Raskin reconoce que habrá una mayor probabilidad de una comunicación rica y simbólica entre animales sociales, por ejemplo, primates, ballenas y delfines, el objetivo es desarrollar herramientas que puedan aplicarse a todo el reino animal. “Somos agnósticos de las especies”, dice Raskin. "Las herramientas que desarrollamos... pueden funcionar en toda la biología, desde gusanos hasta ballenas".
La "intuición motivadora" para ESP, dice Raskin, es un trabajo que ha demostrado que el aprendizaje automático se puede utilizar para traducir entre diferentes idiomas humanos, a veces distantes, sin necesidad de ningún conocimiento previo.
Este proceso comienza con el desarrollo de un algoritmo para representar palabras en un espacio físico. En esta representación geométrica multidimensional, la distancia y la dirección entre los puntos (palabras) describe cómo se relacionan significativamente entre sí (su relación semántica). Por ejemplo, “rey” tiene una relación con “hombre” con la misma distancia y dirección que “mujer” tiene con “reina”. (El mapeo no se hace sabiendo lo que significan las palabras, sino observando, por ejemplo, con qué frecuencia ocurren cerca unas de otras).
Más tarde se notó que estas "formas" son similares para diferentes idiomas. Y luego, en 2017, dos grupos de investigadores que trabajaban de forma independiente encontraron una técnica que permitía lograr la traducción alineando las formas . Para pasar del inglés al urdu, alinea sus formas y encuentra el punto en urdu más cercano al punto de la palabra en inglés. “Puedes traducir la mayoría de las palabras decentemente bien”, dice Raskin.
La aspiración de ESP es crear este tipo de representaciones de la comunicación animal, trabajando tanto en especies individuales como en muchas especies a la vez, y luego explorar preguntas como si existe una superposición con la forma humana universal. No sabemos cómo los animales experimentan el mundo, dice Raskin, pero hay emociones, por ejemplo, pena y alegría, que parece que algunos comparten con nosotros y bien pueden comunicarse con otros en su especie. "No sé cuál será más increíble: las partes donde las formas se superponen y podemos comunicarnos o traducir directamente, o las partes donde no podemos".
Los delfines usan clics, silbidos y otros sonidos para comunicarse. Pero, ¿qué están diciendo? Fotografía: ALesik/Getty Images/iStockphoto.
Agrega que los animales no solo se comunican vocalmente. Las abejas, por ejemplo, informan a los demás sobre la ubicación de una flor a través de un "baile de meneo". También será necesario traducir a través de diferentes modos de comunicación.
El objetivo es “como ir a la luna”, reconoce Raskin, pero la idea tampoco es llegar de golpe. Más bien, la hoja de ruta de ESP implica resolver una serie de problemas más pequeños necesarios para que se realice el panorama general. Esto debería ver el desarrollo de herramientas generales que pueden ayudar a los investigadores que intentan aplicar la IA para descubrir los secretos de las especies en estudio.
Por ejemplo, ESP publicó recientemente un artículo (y compartió su código ) sobre el llamado "problema del cóctel" en la comunicación animal, en el que es difícil discernir qué individuo en un grupo de los mismos animales está vocalizando en un entorno social ruidoso. .
“Hasta donde sabemos, nadie ha hecho este desenredado de extremo a extremo [del sonido animal] antes”, dice Raskin. El modelo basado en IA desarrollado por ESP, que se probó con silbidos característicos de delfines, llamadas de arrullos de macacos y vocalizaciones de murciélagos, funcionó mejor cuando las llamadas provenían de personas en las que se había entrenado el modelo; pero con conjuntos de datos más grandes, pudo desentrañar mezclas de llamadas de animales que no estaban en la cohorte de entrenamiento.
Otro proyecto implica el uso de IA para generar nuevas llamadas de animales, con ballenas jorobadas como especie de prueba. Las llamadas novedosas, hechas al dividir las vocalizaciones en microfonemas (distintas unidades de sonido que duran una centésima de segundo) y usar un modelo de lenguaje para "hablar" algo parecido a las ballenas, pueden luego reproducirse a los animales para ver cómo lo hacen. responder. Si la IA puede identificar qué hace un cambio aleatorio frente a uno semánticamente significativo, nos acerca a una comunicación significativa, explica Raskin. “Es hacer que la IA hable el idioma, aunque todavía no sabemos qué significa”.
Los cuervos hawaianos son bien conocidos por su uso de herramientas, pero también se cree que tienen un conjunto de vocalizaciones particularmente complejo. Fotografía: Minden Pictures/Alamy
Otro proyecto tiene como objetivo desarrollar un algoritmo que determine cuántos tipos de llamadas tiene una especie a su disposición mediante la aplicación de aprendizaje automático autosupervisado, que no requiere ningún etiquetado de datos por parte de expertos humanos para aprender patrones. En un caso de prueba inicial, extraerá grabaciones de audio realizadas por un equipo dirigido por Christian Rutz, profesor de biología en la Universidad de St Andrews, para producir un inventario del repertorio vocal del cuervo hawaiano, una especie que, según descubrió Rutz . , tiene la capacidad de hacer y usar herramientas para buscar alimento y se cree que tiene un conjunto de vocalizaciones significativamente más complejo que otras especies de cuervos.
Rutz está particularmente entusiasmado con el valor de conservación del proyecto. El cuervo hawaiano está en peligro crítico y solo existe en cautiverio, donde se cría para su reintroducción en la naturaleza. Se espera que, al tomar grabaciones realizadas en diferentes momentos, sea posible rastrear si el repertorio de llamadas de la especie se está erosionando en cautiverio (pueden haberse perdido llamadas de alarma específicas, por ejemplo), lo que podría tener consecuencias para su reintroducción; esa pérdida podría abordarse con una intervención. “Podría producir un cambio radical en nuestra capacidad para ayudar a estas aves a recuperarse”, dice Rutz, y agrega que la detección y clasificación manual de las llamadas requeriría mucho trabajo y sería propensa a errores.
Mientras tanto, otro proyecto busca comprender automáticamente los significados funcionales de las vocalizaciones. Se está llevando a cabo con el laboratorio de Ari Friedlaender, profesor de ciencias oceánicas en la Universidad de California, Santa Cruz. El laboratorio estudia cómo los mamíferos marinos salvajes, que son difíciles de observar directamente, se comportan bajo el agua y ejecuta uno de los programas de etiquetado más grandes del mundo. Pequeños dispositivos electrónicos de "bioregistro" adjuntos a los animales capturan su ubicación, tipo de movimiento e incluso lo que ven (los dispositivos pueden incorporar cámaras de video). El laboratorio también tiene datos de grabadoras de sonido ubicadas estratégicamente en el océano.
ESP tiene como objetivo aplicar primero el aprendizaje automático autosupervisado a los datos de la etiqueta para medir automáticamente lo que está haciendo un animal (por ejemplo, si se está alimentando, descansando, viajando o socializando) y luego agregar los datos de audio para ver si se puede dar un significado funcional. a las llamadas vinculadas a ese comportamiento. (Los experimentos de reproducción podrían luego usarse para validar cualquier hallazgo, junto con las llamadas que se han decodificado previamente). Esta técnica se aplicará inicialmente a los datos de ballenas jorobadas: el laboratorio ha etiquetado varios animales en el mismo grupo, por lo que es posible ver cómo las señales se dan y se reciben. Friedlaender dice que estaba "tocando el techo" en términos de las herramientas actualmente disponibles que podrían extraer de los datos. “Nuestra esperanza es que el trabajo que puede hacer ESP proporcione nuevos conocimientos”, dice.
Pero no todos están tan entusiasmados con el poder de la IA para lograr objetivos tan grandes. Robert Seyfarth es profesor emérito de psicología en la Universidad de Pensilvania y ha estudiado el comportamiento social y la comunicación vocal en primates en su hábitat natural durante más de 40 años. Si bien cree que el aprendizaje automático puede ser útil para algunos problemas, como identificar el repertorio vocal de un animal, hay otras áreas, incluido el descubrimiento del significado y la función de las vocalizaciones, en las que se muestra escéptico de que aporte mucho.
El problema, explica, es que mientras muchos animales pueden tener sociedades sofisticadas y complejas, tienen un repertorio de sonidos mucho más pequeño que los humanos. El resultado es que exactamente el mismo sonido se puede usar para significar diferentes cosas en diferentes contextos y es solo mediante el estudio del contexto: quién es el llamado individual, cómo se relacionan con los demás, dónde se encuentran en la jerarquía, a quién tienen. interactuado con – ese significado puede esperar ser establecido. “Simplemente creo que estos métodos de IA son insuficientes”, dice Seyfarth. “Tienes que salir y observar a los animales”.
Un mapa de la comunicación animal deberá incorporar fenómenos no vocales como las "bailes de meneo" de las abejas melíferas. Fotografía: Ben Birchall/PA
También hay dudas sobre el concepto: que la forma de la comunicación animal se superpondrá de manera significativa con la comunicación humana. Aplicar análisis basados en computadora al lenguaje humano, con el que estamos tan íntimamente familiarizados, es una cosa, dice Seyfarth. Pero puede ser “bastante diferente” haciéndolo con otras especies. “Es una idea emocionante, pero es una gran exageración”, dice Kevin Coffey, neurocientífico de la Universidad de Washington que co-creó el algoritmo DeepSqueak.
Raskin reconoce que la IA por sí sola puede no ser suficiente para desbloquear la comunicación con otras especies. Pero se refiere a investigaciones que han demostrado que muchas especies se comunican de formas "más complejas de lo que los humanos jamás hayan imaginado". Los obstáculos han sido nuestra capacidad para recopilar suficientes datos y analizarlos a escala, y nuestra propia percepción limitada. “Estas son las herramientas que nos permiten quitarnos las gafas humanas y comprender sistemas de comunicación completos”, dice.