Los debates sobre las consecuencias de la inteligencia general artificial (AGI) son casi tan antiguos como la historia de la propia IA. La mayoría de las discusiones muestran el futuro de la inteligencia artificial como un apocalipsis tipo Terminator o una utopía tipo Wall-E . Pero lo que menos se discute es cómo percibiremos, interactuaremos y aceptaremos agentes de inteligencia artificial cuando desarrollen rasgos de vida, inteligencia y conciencia.
En un ensayo publicado recientemente, Borna Jalsenjak, científico de la Escuela de Economía y Gestión de Zagreb, analiza la inteligencia artificial súper inteligente y las analogías entre la vida biológica y la artificial. Titulado "La singularidad de la inteligencia artificial: lo que es y lo que no es", su trabajo aparece en Guide to Deep Learning Basics , una colección de documentos y tratados que exploran varios aspectos históricos, científicos y filosóficos de la inteligencia artificial.
Jalsenjak nos lleva a través de la visión filosófica antropológica de la vida y cómo se aplica a los sistemas de IA que pueden evolucionar a través de sus propias manipulaciones. Argumenta que las "máquinas pensantes" surgirán cuando la IA desarrolle su propia versión de "vida", y nos deje con algo de reflexión sobre los aspectos más oscuros y vagos del futuro de la inteligencia artificial.
AI singularidad
Singularidad es un término que aparece a menudo en las discusiones sobre IA general. Y como no suele pasar con todo lo que tiene que ver con AGI, existe mucha confusión y desacuerdo sobre cuál es la singularidad. Pero una cosa clave que la mayoría de los científicos y filósofos está de acuerdo en que es un punto de inflexión en el que nuestros sistemas de IA se vuelven más inteligentes que nosotros. Otro aspecto importante de la singularidad es el tiempo y la velocidad: los sistemas de inteligencia artificial llegarán a un punto en el que podrán superarse de manera recurrente y acelerada.
"Dicho de una manera más sucinta, una vez que hay una IA que está al nivel de los seres humanos y esa IA puede crear una IA un poco más inteligente, y luego esa puede crear una IA aún más inteligente, y luego la siguiente crea incluso más inteligente y continúa así hasta que haya una IA que sea notablemente más avanzada de lo que los humanos pueden lograr ", escribe Jalsenjak.
Para ser claros, la tecnología de inteligencia artificial que tenemos hoy, conocida como IA estrecha , no está cerca de lograr tal hazaña. Jalšenjak describe los sistemas actuales de IA como "específicos de dominio", como "AI, que es excelente para hacer hamburguesas pero no es bueno para nada más". Por otro lado, el tipo de algoritmos que se discute sobre la singularidad de AI es "AI que no es específica del tema, o por falta de una mejor palabra, no tiene dominio y, como tal, es capaz de actuar en cualquier dominio, Jalsenjak escribe.
Esta no es una discusión sobre cómo y cuándo llegaremos a AGI. Ese es un tema diferente, y también un foco de mucho debate, con la mayoría de los científicos en la creencia de que la inteligencia artificial a nivel humano está al menos a décadas de distancia . Jalsenjack más bien especula sobre cómo se definirá la identidad de la IA (y los humanos) cuando lleguemos allí, ya sea mañana o dentro de un siglo.
¿Está viva la inteligencia artificial?
Hay una gran tendencia en la comunidad de IA para ver las máquinas como humanos , especialmente a medida que desarrollan capacidades que muestran signos de inteligencia. Si bien eso es claramente una sobreestimación de la tecnología actual, Jasenjak también nos recuerda que la inteligencia general artificial no necesariamente tiene que ser una réplica de la mente humana.
"Que no hay ninguna razón para pensar que la IA avanzada tendrá la misma estructura que la inteligencia humana si alguna vez sucede, pero dado que está en la naturaleza humana presentar los estados del mundo de la manera más cercana a nosotros, en cierto grado de antropomorfizar es difícil de evitar ”, escribe en la nota al pie de su ensayo.
Una de las mayores diferencias entre los humanos y la tecnología actual de inteligencia artificial es que mientras los humanos están "vivos" (y llegaremos a lo que eso significa en un momento), los algoritmos de IA no lo están.
"El estado de la tecnología de hoy no deja ninguna duda de que la tecnología no está viva", escribe Jalsenjak, a lo que agrega: "Lo que podemos tener curiosidad es si alguna vez aparece una superinteligencia como se predice en las discusiones sobre la singularidad que podría valdrá la pena intentar ver si también podemos considerar que está vivo ".
Aunque no es orgánico, tal vida artificial tendría enormes repercusiones en la forma en que percibimos la IA y actuamos hacia ella.
¿Qué se necesitaría para que la IA cobre vida?
Partiendo de conceptos de antropología filosófica, Jalsenjak señala que los seres vivos pueden actuar de manera autónoma y cuidar de sí mismos y de su especie, lo que se conoce como "actividad inmanente".
"Ahora, al menos, no importa cuán avanzadas sean las máquinas, en ese sentido siempre sirven en su propósito solo como extensiones de humanos", observa Jalsenjak.
La vida tiene diferentes niveles y, como muestra la tendencia, la IA avanza lentamente hacia su vida. Según la antropología filosófica, los primeros signos de vida toman forma cuando los organismos se desarrollan hacia un propósito, que está presente en la IA orientada a objetivos de hoy. Jalsenjak dice que el hecho de que la IA no esté "consciente" de su objetivo y de que los números se desordenen para alcanzarlo parece ser irrelevante, porque consideramos que las plantas y los árboles están vivos aunque ellos tampoco tengan esa sensación de conciencia.
Otro factor clave para ser considerado vivo es la capacidad de un ser de repararse y mejorarse, en la medida en que su organismo lo permita. También debe producir y cuidar a su descendencia. Esto es algo que vemos en árboles, insectos, pájaros, mamíferos, peces y prácticamente cualquier cosa que consideremos viva. Las leyes de selección y evolución natural han obligado a todos los organismos a desarrollar mecanismos que le permitan aprender y desarrollar habilidades para adaptarse a su entorno, sobrevivir y garantizar la supervivencia de su especie.
En la crianza de los hijos, Jalsenjak postula que la reproducción de IA no necesariamente corre paralela a la de otros seres vivos. “Las máquinas no necesitan descendencia para garantizar la supervivencia de la especie. AI podría resolver los problemas de deterioro del material simplemente teniendo suficientes piezas de repuesto a mano para intercambiar las piezas defectuosas (muertas) con las nuevas ", escribe. "Los seres vivos se reproducen de muchas maneras, por lo que el método real no es esencial".
Cuando se trata de superación personal, las cosas se vuelven un poco más sutiles. Jalsenjak señala que ya existe un software que es capaz de auto modificarse, a pesar de que el grado de auto modificación varía según el software.
Los algoritmos de aprendizaje automático actuales son, hasta cierto punto, capaces de adaptar su comportamiento a su entorno. Sintonizan sus muchos parámetros con los datos recopilados del mundo real y, a medida que el mundo cambia, pueden volverse a entrenar con nueva información. Por ejemplo, la pandemia de coronavirus interrumpió muchos sistemas de IA que había sido entrenado en nuestro comportamiento normal. Entre ellos se encuentran los algoritmos de reconocimiento facial que ya no pueden detectar caras porque las personas usan máscaras. Estos algoritmos ahora pueden volver a ajustar sus parámetros entrenando en imágenes de rostros con máscaras. Claramente, este nivel de adaptación es muy pequeño en comparación con las amplias capacidades de los humanos y los animales de nivel superior, pero sería comparable a, por ejemplo, los árboles que se adaptan al crecer raíces más profundas cuando no pueden encontrar agua en la superficie de el terreno.
Sin embargo, una IA de auto-mejora ideal sería una que pudiera crear algoritmos totalmente nuevos que traerían mejoras fundamentales. Esto se llama "superación personal recursiva" y conduciría a un ciclo interminable y acelerado de inteligencia artificial cada vez más inteligente. Podría ser el equivalente digital de las mutaciones genéticas que atraviesan los organismos a lo largo de muchas generaciones, aunque la IA podría realizarlo a un ritmo mucho más rápido.
Hoy en día, tenemos algunos mecanismos, como los algoritmos genéticos y la búsqueda en cuadrícula, que pueden mejorar los componentes no entrenables de los algoritmos de aprendizaje automático (también conocidos como hiperparámetros). Pero el alcance del cambio que pueden aportar es muy limitado y aún requiere un grado de trabajo manual por parte de un desarrollador humano. Por ejemplo, no puede esperar que una red neuronal recursiva se convierta en un Transformador a través de muchas mutaciones.
Sin embargo, la superación recursiva le dará a AI la "posibilidad de reemplazar el algoritmo que se está utilizando por completo", señala Jalsenjak. "Este último punto es lo que se necesita para que ocurra la singularidad".
Por analogía, al observar características determinadas, las IA superinteligentes pueden considerarse vivas, concluye Jalsenjak, invalidando la afirmación de que la IA es una extensión de los seres humanos. "Tendrán sus propios objetivos, y probablemente también sus derechos", dice, "los humanos, por primera vez, compartirán la Tierra con una entidad que es al menos tan inteligente como ellos y probablemente mucho más inteligente".
¿Seguirías siendo capaz de desconectar el robot sin sentir culpa?
Estar vivo no es suficiente
Al final de su ensayo, Jalsenjak reconoce que la reflexión sobre la vida artificial deja muchas más preguntas. "¿Las características descritas aquí con respecto a los seres vivos son suficientes para que algo se considere vivo o son solo necesarias pero no suficientes?" Él pide.
Después de leer I Am a Strange Loop por el filósofo y científico Douglas Hofstadter, definitivamente puedo decir que no. Identidad, autoconciencia y conciencia son otros conceptos que discriminan a los seres vivos entre sí. Por ejemplo, ¿es un robot sin sentido constructor de clips que constantemente mejora sus algoritmos para convertir el universo entero en clips vivos y merecedor de sus propios derechos?
El libre albedrío también es una pregunta abierta. "Los humanos son cocreadores de sí mismos en el sentido de que no se dan enteramente existencia sino que hacen que su existencia tenga un propósito y cumplan ese propósito", escribe Jalsenjak. "No está claro si las IA futuras tendrán la posibilidad de un libre albedrío".
Y finalmente, está el problema de la ética de la inteligencia artificial superinteligente. Este es un tema amplio que incluye los tipos de principios morales que la IA debería tener, los principios morales que los humanos deberían tener hacia la IA y cómo las IA deberían ver sus relaciones con los humanos.
La comunidad de IA a menudo descarta tales temas, señalando los límites claros de los sistemas actuales de aprendizaje profundo y la noción descabellada de lograr la IA general.
Pero como muchos otros científicos , Jalsenjak nos recuerda que el momento de discutir estos temas es hoy, no cuando es demasiado tarde. "Estos temas no pueden ser ignorados porque todo lo que sabemos en este momento sobre el futuro parece indicar que la sociedad humana enfrenta un cambio sin precedentes", escribe.
En el ensayo completo, disponible en Springer , Jalsenjak proporciona detalles en profundidad de la singularidad de la inteligencia artificial y las leyes de la vida. El libro completo, Guide to Deep Learning Basics , proporciona material más detallado sobre la filosofía de la inteligencia artificial.
Por Ben Dickson, vía Tech Talks
0 comentarios:
Publicar un comentario