Elaborado por Materia para OpenMind Recomendado por Materia
6
Inicio La alienación de la inteligencia artificial
28 febrero 2024

La alienación de la inteligencia artificial

Tiempo estimado de lectura Tiempo 6 de lectura

Entre 2018 y 2019 ocurrió algo interesante en el Glosario de TI de la firma tecnológica y consultora Gartner: cambiaron su definición de Inteligencia Artificial de ‘Tecnología que parece emular el desempeño humano, típicamente aprendiendo, llegando a sus propias conclusiones, pareciendo entender contenido complejo, participando en diálogos naturales con personas, mejorando el desempeño cognitivo humano o sustituyendo a las personas en la ejecución de tareas no rutinarias‘ a ‘La inteligencia artificial (IA) aplica técnicas avanzadas de análisis y basadas en la lógica, incluido el aprendizaje automático, para interpretar hechos, apoyar y automatizar decisiones y realizar acciones‘.

BBVA-OpenMind-Alan Turing and the Dream of Artificial Intelligence
En opinión de Turing, si la Inteligencia Artificial puede imitar al ser humano a un nivel en el que no es posible distinguir entre ambos, se debe considerar que ‘piensa’. Crédito: Jon Cal

El cambio evidente es eliminar la comparación de la inteligencia artificial con la humana, una relación que se remonta al test de Turing de 1950 (conocido en su origen como ‘juego de imitación’). En la configuración clásica, un interrogador humano se sitúa en una estancia cerrada. La persona debe comunicarse por escrito con un ordenador y un ser humano, que se encuentran en otro lugar y no son visibles. La tarea consiste en distinguir al ser humano de la máquina. Por su parte, el algoritmo se ha programado para que parezca lo más humano posible. En opinión de Turing, si la Inteligencia Artificial logra imitar al ser humano hasta tal punto que no es posible distinguir entre ambos, se debe considerar que ‘piensa’.

De momento, ninguno de los chatbots actuales ha superado la prueba. Pero, por otro lado, ¿es ésta realmente la cuestión clave?

El filósofo Thomas Nagel se preguntó en 1974 ‘¿Qué se siente al ser murciélago?‘. En su artículo explicaba que, debido al conjunto completamente distinto de sensores, como el sistema de ecolocalización, la audición ultrasónica o la detección del desplazamiento doppler, el murciélago percibe el mundo de forma completamente distinta a como lo hace el ser humano, lo que le lleva a un pensamiento incomprensible para éste. El escritor Ray Nayler aplicó esta misma idea en su novela de ciencia ficción de 2023 ‘La montaña en el mar’ para aplicarla a un animal aún más extraño: el pulpo. Esta especie muestra un alto nivel de inteligencia en lo que respecta a la resolución de problemas y el uso de herramientas. Sin embargo, su existencia difícilmente podría ser más diferente de la nuestra como humanos. Los pulpos son animales de cuerpo blando, sin esqueleto, que poseen un cerebro combinado con un mayor número de neuronas distribuidas por todo el cuerpo, especialmente en los tentáculos. Así lo explica Nikolaus Rajeksky, director científico del Instituto de Biología de Sistemas Médicos del Centro Max Delbrück de Berlín (MDC-BIMSB): ‘Los cerebros complejos con características cognitivas superiores sólo han evolucionado en las especies vertebradas… con una excepción: los cefalópodos de cuerpo blando, por ejemplo, los pulpos’. El cerebro del pulpo ha evolucionado de forma independiente al complejo cerebro de los mamíferos.

Estas capacidades, incluido su aspecto externo, llevaron a especular sobre su evolución. Incluso hubo teorías de que su origen está en el espacio exterior. La ciencia lo ha desmentido: humanos y pulpos comparten un mismo antepasado común, un platelminto de hace 750 millones de años. La apariencia del animal es muy diferente a la nuestra. Esta circunstancia se utiliza en películas de ciencia ficción, como en la película de 2016 ‘Arrival’ (‘La llegada’), basada en la novela ‘Story of Your Life’ de Ted Chiang.

BBVA-OpenMind-Patrick Henz-diane-picchiottino- as human octopuses share the same ancestor with us, a 750 million year old flatworm
Los pulpos muestran un alto nivel de inteligencia para resolver problemas y utilizar herramientas, al igual que los humanos.

Los pulpos tienen una vida corta, de entre 6 meses y 5 años, y suelen morir después de reproducirse. Por ello, los progenitores no tienen contacto con su descendencia, lo que significa que cada generación tiene que volver a empezar desde el principio, como, por ejemplo, descubrir por sí mismos el uso de herramientas, obstáculo que forma un eje argumental de otra conocida película de ciencia ficción.

En la novela de Philip K. Dick ‘¿Sueñan los androides con ovejas eléctricas?’, que inspiró la película ‘Blade Runner’, los androides, denominados ‘andys’ en el libro, tienen una vida limitada a cuatro años para evitar que desarrollen emociones y empatía similares a las humanas a largo plazo. Este aspecto de vida limitada desempeña un papel importante en la exploración de la empatía, la identidad y la naturaleza de lo humano. De forma similar, Nayler se basa en la breve duración de la vida de los pulpos para explicar por qué, a pesar de su gran inteligencia, se han quedado estancados en la evolución y no han desarrollado una cultura propia.

La empresa israelí de inteligencia artificial AI21 Labs dirigió en abril de 2023 un experimento llamadoHuman or Not, en el que los participantes tenían la tarea de distinguir a un interlocutor humano de uno artificial (incluidos GPT-4 y Jurassic-2). El experimento, creado como un juego ‘online’, se convirtió en un gran éxito en redes sociales. En esta adaptación del test de Turing se llevaron a cabo más de 15 millones de conversaciones y participaron más de dos millones de usuarios de todo el mundo.

El resultado fue interesante. Los participantes de Francia, Polonia y Alemania fueron los que más acertaron, mientras que los de la India, Rusia y España obtuvieron las puntuaciones más bajas. Si comparamos estos resultados con el Índice de Percepción de la Corrupción 2022 de Transparency International, obtenemos un coeficiente de correlación de 0,33, lo que sugiere una relación positiva moderada entre la ausencia de corrupción y la capacidad de distinguir entre un interlocutor humano y una ‘deepfake’ (‘falsificación profunda’) creada por IA. Hasta aquí, esto sugiere que hay una tendencia a que las variables se muevan en un mismo sentido, pero que la relación no es sólida ni previsible.

Artificial Intelligence (AI) and robots seem increasingly alive. Source: Piqsels
Artificial Intelligence (AI) and robots seem increasingly alive. Source: Piqsels

El filósofo y teórico cultural francés Jean Baudrillard introdujo el concepto de ‘simulacro’, que hace referencia a las copias que representan cosas que, o bien no tenían realidad en un principio, o bien ya carecen de original. Según Baudrillard, en la sociedad contemporánea los simulacros (imágenes, signos y símbolos) sustituyen a menudo a la realidad que se supone que representan, lo que conduce a un estado en el que resulta difícil distinguir entre realidad y simulacro. Las falsificaciones profundas o ‘deepfake’ pueden considerarse simulacros de este tipo.

‘Las realidades falsas crearán seres humanos falsos. O los falsos humanos generarán realidades falsas y luego las venderán a otros humanos, convirtiéndolos también a ellos, con el tiempo, en falsificaciones de sí mismos.’ (Philip K. Dick).

Para evitar esta tendencia, los seres humanos debemos comprender bien el concepto de IA para poder valorar adecuadamente la información creada por la IA a la hora de tomar decisiones. Esto incluye también la transparencia en cuanto a qué contenidos son creados por IA. Si esto se consigue, el ser humano y la máquina pueden formar una ‘inteligencia colaborativa’, tal y como la definió Zann Gill en 2021: ‘La inteligencia colaborativa se caracteriza por sistemas distribuidos de múltiples agentes en los que cada agente, sea humano o máquina, contribuye de forma autónoma a una red de resolución de problemas’. O como dijo el filósofo Aristóteles: ‘El todo es más que la suma de sus partes’.

Si una inteligencia artificial es comparable a un pulpo en lugar de ser similar a un humano, está claro que su comportamiento y su toma de decisiones son menos comprensibles para los humanos, no sólo desde el punto de vista cognitivo, sino también empático. Este fenómeno ya excluía a los cefalópodos inteligentes de la Ley de Bienestar Animal estadounidense de 1966 (7 USC § 2132(g)), ya que ésta sólo contempla a los vertebrados (animales con columna vertebral):

(g) El término ‘animal’ designa a cualquier perro, gato, mono (mamífero primate no humano), cobaya, hámster, conejo o cualquier otro animal de sangre caliente, vivo o muerto, que el Secretario pueda determinar que se utiliza, o se pretende utilizar, con fines de investigación, ensayo, experimentación o exhibición, o como animal de compañía; pero dicho término excluye (1) aves, ratas del género Rattus y ratones del género Mus, criados para su uso en investigación, (2) caballos no utilizados con fines de investigación, y (3) otros animales de granja, tales como, pero no limitados a, ganado o aves de corral, utilizados o destinados a ser utilizados como alimento o fibra, o ganado o aves de corral utilizados o destinados a ser utilizados para mejorar la nutrición animal, la cría, la gestión o la eficiencia de la producción, o para mejorar la calidad de los alimentos o la fibra. Con respecto a un perro, el término designa a todos los perros, incluidos los utilizados con fines de caza, seguridad o cría.

Sobre la base de la evolución, la ley se centra en nuestra propia clase biológica, con la idea de que otras especies son incapaces de tener sentimientos similares a los humanos, especialmente relacionados con el dolor y el sufrimiento. La ley tiene un sesgo humano, ya que los legisladores no perciben empatía hacia otros organismos. La similitud favorece la empatía, lo que explica por qué las partes relevantes de la ciencia se han relacionado con los vertebrados, en lugar de incluir también otras clases biológicas.

Estudios recientes, sin embargo, desafían esta perspectiva estrecha. El comportamiento complejo y las habilidades cognitivas no son exclusivas de nuestra clase. Por ejemplo, los pulpos, que pertenecen al grupo de los cefalópodos, muestran rasgos notables:

  • Demuestran habilidades para resolver problemas, incluyendo el uso de herramientas.
  • Su comportamiento refleja curiosidad y espíritu lúdico.
  • Incluso hay evidencias emergentes que sugieren que los pulpos son capaces de experimentar dolor y estrés.
BBVA-OpenMind-Keith Darlingon-Human level Artificial General Intelligence AGI
La inteligencia de nivel humano ha llegado a conocerse como IA fuerte o Inteligencia Artificial General (AGI).

El ensayo de Masahiro Mori de 1970 ‘The Uncanny Valley’ (El valle inquietante) llegó a la conclusión de que hasta cierto nivel de percepción de la realidad humana, la gente reacciona con cierta empatía hacia un robot, pero a partir de ahí, la experiencia pasa a percibirse como espeluznante. A nivel práctico, la mayoría de los usuarios perciben robots como ‘Pepper’ como simpáticos e inofensivos, mientras que creaciones como ‘Sophia’ pueden llegar a percibirse como amenazantes. Esta idea puede utilizarse en aeropuertos, restaurantes, oficinas y residencias de ancianos para crear robots simpáticos cuyo aspecto exterior pueda engañarnos y hacernos creer que la inteligencia artificial que incluyen no compite con la humana. Es importante que lo tengamos en cuenta, ya que al formar equipo con las máquinas formamos una ‘inteligencia colaborativa’. Puede ser en el trabajo, o en la universidad, pero también en el cuarto de juegos de los niños.

Patrick Henz

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada