Elaborado por Materia para OpenMind Recomendado por Materia
60
Inicio La última década y el futuro del impacto de la IA en la sociedad
Artículo del libro ¿Hacia una nueva Ilustración? Una década trascendente

La última década y el futuro del impacto de la IA en la sociedad

Tiempo estimado de lectura Tiempo 60 de lectura

La inteligencia artificial (IA) es una expresión técnica referida a artefactos empleados para detectar contextos o llevar a cabo acciones en respuesta a contextos detectados. Nuestra capacidad de construir dichos artefactos ha aumentado y, con ello, el impacto que tienen en nuestra sociedad. Este capítulo empieza documentando los cambios sociales y económicos propiciados por nuestro uso de la IA en particular, pero no exclusivamente en la década transcurrida desde la aparición de los teléfonos inteligentes (2007), que contribuyen de manera sustancial a los macrodatos y, por tanto, a la eficacia del aprendizaje de las máquinas. A continuación esboza los desafíos políticos, económicos y personales que esperan a la humanidad en el futuro inmediato y propone políticas regulatorias. En líneas generales, la IA no es una tecnología tan inusual como se esperaba, y precisamente por esa razón los desafíos que plantea pueden ser más apremiantes. En concreto, la identidad y la autonomía tanto de individuos como de naciones están amenazadas por el creciente acceso al conocimiento.

Introducción

En la última década, y en especial en los últimos años, la inteligencia artificial (IA) se ha transformado; no tanto respecto a lo que podemos hacer con ella sino en lo que hacemos. Para algunos, esta fase se inició en 2007 con la llegada de los teléfonos inteligentes. Como explicaré a continuación, en realidad la inteligencia es solo inteligencia, ya sea animal o artificial. Se trata de una forma de computación y, como tal, de transformación de la información. La abundancia de información personal, resultado de la vinculación voluntaria de una parte ingente de la sociedad a internet, nos ha permitido trasladar un gran caudal de conocimiento explícito e implícito de la cultura humana obtenido por medio de cerebros humanos a formato digital. Una vez ahí, podemos utilizarlo no solo para funcionar con una competencia propia de humanos, también para generar más conocimiento y acciones mediante la computación automatizada.

Durante décadas, incluso antes de la creación del término, la IA suscitó tanto miedo como interés, cuando la humanidad contemplaba la posibilidad de crear máquinas a su imagen y semejanza. La expectativa de que los artefactos inteligentes tenían que ser, necesariamente, humanoides nos ha distraído de un hecho importante: hace ya algún tiempo que hemos logrado la IA. Los avances de la IA a la hora de superar la capacidad humana en actividades como el ajedrez (Hsu, 2002), el juego del Go (Silver et al., 2016) y la traducción (Wu et al., 2016) llegan ahora a los titulares, pero la IA está presente en la industria desde, al menos, la década de 1980. Por entonces los sistemas de normas de producción o sistemas «expertos» se convirtieron en la tecnología estándar para comprobar circuitos impresos y detectar el fraude con tarjetas de créditos (Liao, 2005). De modo similar, hace tiempo que se emplean estrategias de aprendizaje automático (AA), como los algoritmos genéticos, para problemas computacionales de muy difícil resolución, como la planificación de sistemas operativos informáticos y redes neuronales, para modelizar y comprender el aprendizaje humano, pero también para tareas básicas de control y supervisión básicos en la industria (Widrow et al., 1994). Durante la década de 1990, los métodos probabilísticos y bayesianos revolucionaron el AA y sentaron las bases de algunas de las tecnologías de IA predominantes hoy: por ejemplo, la búsqueda a través de grandes masas de datos (Bishop, 1995). Esta capacidad de búsqueda incluía la posibilidad de hacer análisis semánticos de textos en bruto que permiten a los usuarios de la red encontrar los documentos que buscan entre billones de páginas web con solo escribir unas cuantas palabras (Lowe, 2001; Bullinaria y Levy, 2007).

Los avances de la IA a la hora de superar la capacidad humana en ciertas actividades llegan ahora a los titulares, pero la IA está presente en la industria desde, al menos, la década de 1980

Esta capacidad de descubrimiento de la IA se ha ampliado no solo por el incremento masivo de los datos digitales y la capacidad de computación, también por las innovaciones en los algoritmos de IA y AA. Hoy buscamos fotografías, vídeos y audio (Barrett et al., 2016; Wu et al., 2016). Podemos traducir, trascribir, leer labios, interpretar emociones (incluidas las mentiras), falsificar firmas y otros tipos de escritura manual y manipular vídeos (Assael et al., 2016; Eyben et al., 2013; Deng et al., 2017; Haines et al., 2016; Reed et al., 2016; Vincent, 2016; Hancock et al., 2007; Chung y Zisserman, 2017; Schuller et al., 2016; Sartori et al., 2016; Thies et al., 2016). Podemos —y esto es crucial—falsificar audios o vídeos durante retransmisiones en directo, lo que nos permite elegir las palabras de las que serán «testigos» millones de personas, sobre todo en el caso de famosos, como los políticos, sobre los que ya existe gran cantidad de datos para componer modelos precisos (Thies et al., 2016; Suwajanakorn et al., 2017). Mientras escribía este capítulo se acumulaban pruebas crecientes de que los resultados tanto de las elecciones presidenciales estadounidenses de 2016 y el referéndum sobre la salida de la Unión Europea de Reino Unido (el famoso Brexit) habían sido alterados por la detección mediante IA y el direccionamiento de mensajes hacia votantes indecisos a través de las redes sociales (Cadwalladr, 2017a, 2017b; ICO, 2018), por no mencionar las herramientas mejoradas mediante IA que se emplean en ciberataques (Brundage et al., 2018). La IA ya está aquí, a nuestra disposición y nos beneficia a todos. Sin embargo, sus consecuencias para nuestro orden social no se entienden y, además, hasta hace poco apenas eran objeto de estudio (Bryson, 2015). Pero también hoy, gracias a los avances en la robótica, la IA está entrando en nuestro espacio físico en forma de vehículos, armas, drones y dispositivos domésticos autónomos, incluidos los «altavoces inteligentes» (micrófonos en realidad) e incluso consolas de videojuegos (Jia et al., 2016). Cada vez estamos más rodeados —integrados incluso— de percepciones, análisis y (cada vez más) acciones automatizadas generalizadas.

BBVA-OpenMind-ilustración-Joanna-J-Bryson-ultima-decada-y-el-futuro-del-impacto-IA-en-la-sociedad-Un hombre observa un software que analiza los movimientos humanos en el estand de la compañia de IA Horizon Robotics durante la feria Scurity China, en Pekin, octubre de 2018
Un hombre observa un software que analiza los movimientos humanos en el estand de la compañia de IA Horizon Robotics durante la feria Scurity China, en Pekin, octubre de 2018

¿Cuáles han sido y serán los efectos de la IA generalizada? ¿Cómo puede una sociedad regular la influencia de la tecnología en nuestras vidas? En este capítulo empiezo presentando un conjunto claro y conciso de definiciones de los términos relevantes. Acto seguido, analizo las preocupaciones que suscita la tecnología y algunas soluciones propuestas. Por último, formulo varias recomendaciones resultado de mis estudios —cuya eficacia está por probar— sobre el valor de las vidas humanas individuales en un contexto en que las capacidades individuales humanas corren un riesgo cada vez mayor de verse desplazadas por la automatización.

Definiciones

Las definiciones siguientes no son de uso universal, pero proceden de un texto clásico sobre IA (Winston, 1984), así como del estudio de la inteligencia biológica (Barrows, 2000, atribuido a Romanes, 1883). Su elección se basa en su claridad expositiva, al menos en relación con este capítulo, sobre los efectos actuales y potenciales de la inteligencia, en especial en las máquinas. La inteligencia es la capacidad de hacer lo correcto en el momento correcto, en un contexto en que no hacer nada (no cambiar de comportamiento) sería peor. Por lo tanto, la inteligencia requiere:

—capacidad de percibir contextos de acción,

—capacidad de actuar y

—capacidad de asociar determinados contextos a determinadas acciones.

De acuerdo con esta definición, las plantas son inteligentes (Trewavas, 2005), y también un termostato (McCarthy, 1983; Touretzky, 1988). Todos ellos pueden percibir el contexto y responder a él, por ejemplo, las plantas reaccionan a la dirección de la luz y los termostatos a la temperatura. A continuación clasificamos un sistema como cognitivo si es capaz de modificar su inteligencia, cosa que las plantas y los termostatos (al menos, los mecánicos) no pueden hacer. Los sistemas cognitivos pueden aprender nuevos contextos y acciones y/o asociaciones entre los primeros y las segundas. Ya estamos más cerca de la definición convencional de «inteligente».

BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Presentación del dispositivo de GoPro durante el congreso de desarrolladores I/O en San Francisco, en mayo de 2015. Este dispositivo incorpora 16 cámaras y usado con el software Jump, de Google, proporciona visión de 360 grados
Presentación del dispositivo de GoPro durante el congreso de desarrolladores I/O en San Francisco, en mayo de 2015. Este dispositivo incorpora 16 cámaras y usado con el software Jump, de Google, proporciona visión de 360 grados

La inteligencia, tal como defino aquí, es un subconjunto estricto de la computación, es decir, de transformación de la información. Hay que tener en cuenta que la computación es un proceso físico, no matemático: requiere tiempo, espacio y energía. La inteligencia es el subconjunto de la computación que transforma un contexto en acción.

Inteligencia artificial (IA), por convención, es un término empleado para describir artefactos (normalmente digitales) que amplían alguna de las capacidades relacionadas con la inteligencia natural. Así, los sistemas automáticos de visión, el reconocimiento de voz, el reconocimiento de patrones y los sistemas de producción fija (es decir, que no aprenden) se consideran ejemplos de IA y sus algoritmos están explicados en los libros de texto sobre esta materia (Russell y Norvig, 2009). En todos los casos, también se pueden considerar formas de computación, aunque lo que produzcan no constituya una acción en un sentido convencional. Con todo, si aceptamos el concepto de robótica aplicada al cuerpo (ver más adelante), podríamos ampliar esta definición hasta considerar IA cualquier artefacto que amplíe nuestras capacidades de percepción y acción. Sería una definición inusual, pero nos facilitaría entender mejor la naturaleza de los cambios que la IA trae a nuestra sociedad, al permitirnos examinar un historial de intervenciones tecnológicas más dilatado.

El término aprendizaje automático (AA) designa cualquier medio de programación de IA que requiera no solo una codificación manual, también un componente de generalización automatizada de los datos presentados por medio de la acumulación de estadísticas sobre ellos (Murphy, 2012; Erickson et al., 2017). A menudo, aunque no siempre, el AA se limita a buscar regularidades en los datos asociadas a categorías de interés, lo que incluye oportunidades apropiadas para determinadas acciones. Asimismo, el AA se usa con frecuencia para deducir asociaciones y también para adquirir nuevas competencias de acción; por ejemplo, a partir de la demostración (Huang et al., 2016).

La inteligencia es un subconjunto estricto de la computación, es decir, de transformación de la información. Hay que tener en cuenta que la computación es un proceso físico, no matemático: requiere tiempo, espacio y energía. La inteligencia es el subconjunto de la computación que transforma un contexto en acción

Debemos tener en cuenta que todo AA implica un componente programado manualmente. La mera conceptualización o descubrimiento de un algoritmo nunca conduce a la aparición espontánea de una máquina capaz de sentir o actuar. Por definición, toda IA es un artefacto, resultado de acciones humanas deliberadas. Para que haya aprendizaje, se debe construir primero algo diseñado para conectar una fuente de datos a una representación. Todos los sistemas inteligentes tienen una arquitectura, una configuración del flujo de energía e información, y casi todos incluyen emplazamientos donde se retiene la información llamados memoria. El diseño de esta arquitectura se denomina ingeniería de sistemas; esta es la fase en que se debe comprobar la seguridad y la validez de un sistema. En contra de algunas afirmaciones estrafalarias, pero inquietantemente frecuentes, la seguridad de la IA no es un campo de estudio nuevo. De hecho, la ingeniería de sistemas es anterior a los ordenadores (Schlager, 1956) y siempre ha sido un componente principal de la enseñanza de ciencias informáticas. La integración de la IA en el software se remonta mucho tiempo atrás, tal como he documentado en la introducción, de modo que cuenta con una larga trayectoria de seguridad en su diseño (por ejemplo, Bryson, 2003; Chessell y Smith, 2013).

Los robots son artefactos que sienten y actúan en el mundo físico y en tiempo real. De acuerdo con esta definición, un teléfono inteligente es un robot (doméstico). Además de micrófonos, cuenta con varios tipos de sensores propioceptivos que le permiten saber cuándo su orientación está cambiando o desapareciendo. Su rango de tareas abarca la interacción con su usuario y la transmisión de información, instrucciones incluidas, a otros dispositivos. Lo mismo se puede decir de algunas consolas de videojuegos y de los asistentes digitales domésticos: los «altavoces inteligentes» o micrófonos, como Google Home; Echo, de Amazon (Alexa), o Cortana, de Microsoft.

La seguridad de la IA no es un campo de estudio nuevo. De hecho, la ingeniería de sistemas es anterior a los ordenadores y siempre ha sido un componente principal de la enseñanza de ciencias informáticas

En términos técnicos, la autonomía es la capacidad de actuar como un individuo (Armstrong y Read, 1995; Cooke, 1999). Por ejemplo, un país pierde su autonomía bien si sus instituciones se desmoronan de manera que solo las acciones individuales de sus ciudadanos son eficaces, bien si sus instituciones están tan influidas por otros actores o gobiernos que no pueden determinar el rumbo del país por sí solas. Huelga decir que ambos extremos son muy inusuales. De hecho, entre animales sociales como los humanos, la autonomía nunca es absoluta (Gilbert et al., 2012). Nuestra inteligencia individual determina muchas de nuestras acciones, pero algunas células pueden volverse cancerosas y atender a sus propios objetivos en detrimento de nuestro bienestar general (Hanahan y Weinberg, 2011). De un modo similar, entendemos que una familia, un lugar de trabajo o un gobierno influyan en nuestras acciones. También estamos sujetos a una influencia social muy superior de la que llegamos a ser conscientes (Devos y Banaji, 2003). Sin embargo se nos considera autónomos porque, en cierta medida, nuestra inteligencia individual también influye en nuestro comportamiento. Por consiguiente, un sistema técnico capaz de sentir el mundo y seleccionar una acción específica para el contexto en que se encuentre se denomina «autónomo» pese a que, en última instancia, sus acciones estén determinadas por los diseñadores que desarrollaron su inteligencia y los que lo operan. Los operarios pueden influir en la IA en directo y lo harán, de hecho, de antemano, al configurar los parámetros de su funcionamiento, lo que incluye cuándo y dónde funciona, si es que lo hace. Así pues, los diseñadores crean el sistema y determinan sus capacidades; en especial, a qué información puede acceder y qué acciones puede efectuar. E incluso si un diseñador decide introducir un componente de azar en sistema de IA, como la dependencia del entorno en que se encuentre o un generador de números aleatorios, dicha inclusión no deja de ser una elección deliberada.

Preocupaciones sobre la IA y la sociedad

La IA es fundamental para algunas de las empresas con más éxito de la historia en términos de capitalización del mercado: Apple, Alphabet, Microsoft y Amazon. Junto a la tecnología de la información y la comunicación (TIC) en general, la IA ha revolucionado el acceso de personas de todo el mundo al conocimiento, el crédito y otras ventajas de la sociedad global contemporánea. Dicho acceso ha contribuido a una reducción masiva de la desigualdad mundial y la pobreza extrema, por ejemplo, al permitir que los granjeros conozcan los precios justos y los cultivos más rentables y darles acceso a predicciones meteorológicas precisas (Aker y Mbiti, 2010).

La IA se beneficia de décadas de política regulatoria: hasta ahora su despliegue e investigación ha sido en gran medida objeto de una regulación creciente y de una inversión masiva por parte del gobierno y otros inversores de capital (Brundage y Bryson, 2017; Miguel y Casado, 2016; Technology Council Committee on Technology, 2016). Pese a que buena parte de la atención de apartados posteriores del presente capítulo se centra en los posibles motivos o mecanismos de la restricción normativa de la IA, hay que subrayar que:

  1. Cualquier política de IA debería ser desarrollada e implementada teniendo en cuenta la importancia de respetar también los impactos positivos de la tecnología.2
  2. Nadie habla de introducir nueva regulación para la IA, puesto que la IA ya se integra en un marco regulatorio (Brundage y Bryson, 2017; O’Reilly, 2017). Lo que se debate es si se debe optimizar dicho marco.
  3. Hasta el momento y en su mayor parte, la regulación ha sido constructiva, de modo que los gobiernos proporcionaban enormes recursos a las empresas y universidades que desarrollaban la IA. Incluso unas restricciones regulatorias fundamentadas y bien diseñadas pueden conducir a un crecimiento más sostenible e, incluso, más rápido.

Dicho esto, académicos, tecnólogos y el público en general han planteado varias preocupaciones que podrían apuntar a una necesidad de subregulación o restricciones específicas. Smith (2018), presidente de Microsoft, afirmaba hace poco:

La tecnología [inteligente]3 plantea cuestiones que apelan a la protección de derechos humanos fundamentales, como el derecho a la privacidad o a la libertad de expresión. Estas cuestiones aumentan la responsabilidad de las empresas tecnológicas que crean dichos productos. En mi opinión, también reclaman una regulación gubernamental razonada y el desarrollo de normas sobre los usos aceptables. En una república democrática, nada puede reemplazar la toma de decisiones por parte de nuestros representantes electos ante las cuestiones que requieran de encontrar un equilibrio entre la seguridad pública y la esencia de nuestras libertades democráticas.

En este apartado clasifico los riesgos percibidos en función de los requererimientos de políticas que pueden generar. Asimismo, analizo si se trata de falsos problemas, problemas de TIC o de la tecnología más generales o problemas específicos de la IA y, en cada caso, propongo un posible remedio.

La inteligencia artificial general y la superinteligencia

Empezaré analizando algunas de las afirmaciones más sensacionalistas: «Cuando la inteligencia artificial se desarrolle hasta el punto de superar las capacidades humanas, podría llegar a tomar el control de nuestros recursos y superar a nuestra especie, lo que conduciría a la extinción de la humanidad». Como he mencionado en el apartado 1, la IA es ya sobrehumana en muchos ámbitos. Las máquinas ya nos permiten calcular mejor, jugar mejor al ajedrez y al Go, transcribir mejor el habla, leer mejor los labios, recordar más cosas y durante más tiempo e, incluso, ser más rápidos y más fuertes. Pese a que dichas capacidades han sido disruptivas para las vidas humanas en facetas como el mercado laboral (ver a continuación), en ningún caso han dotado a las máquinas de ambición.

Para algunos, la falta de ambición de las máquinas o su incapacidad de dominarnos se deben a que las formas de IA producidas hasta ahora no son lo bastante generales. La expresión inteligencia artificial general (IAG) se emplea para designar dos cosas distintas: (a) una IA capaz de aprenderlo todo y sin límites y (b) una IA parecida a la humana. Estos dos significados de la IAG suelen mezclarse, lo cual es incoherente, dado que la inteligencia humana adolece de limitaciones importantes. Comprender las limitaciones de la inteligencia humana es instructivo, puesto que también están relacionadas con los límites de la IA.

Las limitaciones de la inteligencia humana tienen dos causas: la combinatoria y el sesgo. La primera, la combinatoria, es un problema universal que afecta a toda la computación y, por lo tanto, a toda la inteligencia natural y artificial (Sipser, 2005). Si un agente es capaz de llevar a cabo 100 acciones, entonces es capaz de preparar 10.000 planes de dos fases. Dado que los humanos tienen capacidad de llevar a cabo más de 100 acciones diferentes y efectúan más de dos incluso en un solo día, queda claro que el espacio de las estrategias posibles es de una enormidad inabarcable y de difícil conquista, con independencia de la magnitud de la inteligencia que lo intente (Wolpert, 1996b).

No obstante, la ciencia informática ha demostrado que algunas formas de explorar estos espacios inabarcables son más eficaces que otras; al menos, con determinados objetivos (Wolpert, 1996a). En lo relativo a la inteligencia, la búsqueda concurrente y simultánea por muchos procesadores puede resultar eficaz siempre que se pueda dividir el espacio del problema y la solución, una vez encontrada, se pueda reconocer y también comunicar (Grama, 2003). La razón por la cual la tecnología humana es mucho más avanzada que la de otras especies radica en que somos mucho más eficaces en esta estrategia de búsqueda concurrente, gracias a nuestra capacidad única para compartir avances o «trucos» mediante el lenguaje (Dennett, 2013; Bryson, 2008, 2015; Van Schaik et al., 2017). El creciente ritmo de transformación de nuestra cultura se debe, en parte, a la abundancia sin precedentes de personas con buen nivel educativo y de salud y conectadas mediante TIC, pero también a la mejora de nuestras búsquedas gracias a la computación automática. Nuestras crecientes capacidades en IA y en computación más general incrementan nuestro potencial de exploración; la computación cuántica podría acelerar todavía más este proceso (Williams, 2010). Sin embargo, estas ventajas no son gratuitas. Efectuar dos cómputos a la vez puede duplicar la velocidad de computación si la tarea es perfectamente divisible, pero sin duda duplica también la cantidad de espacio y energía necesarios. La computación cuántica es concurrente en el espacio y también en el tiempo, pero sus costes en energía son todavía desconocidos y, muy probablemente, desorbitados.

El creciente ritmo de transformación de nuestra cultura se debe a la abundancia de personas con buen nivel educativo y de salud y conectadas mediante TIC, pero también a la mejora de nuestras búsquedas gracias a la computación automática

Gran parte del inmenso crecimiento de la IA en los últimos tiempos se ha debido a la mejora en «minería» de datos mediante AA de los descubrimientos ya existentes, tanto de la humanidad como de la naturaleza en general (Caliskan et al., 2017; Moeslund y Granum, 2001; Calinon et al., 2010). Los resultados de parte de nuestra computación anterior se almacenan en nuestra cultura y la evolución biológica también se puede interpretar como una búsqueda paralela masiva cuyos resultados se acumulan de un modo muy ineficiente, con una velocidad limitada a la capacidad de reproducción de los mejores genes. Cabe esperar que esta estrategia de minería de soluciones pasadas no tarde en estancarse, cuando la inteligencia artificial y la natural lleguen a compartir la frontera (la misma, pero todavía en expansión) del conocimiento existente.

La segunda fuente de limitaciones para la inteligencia humana, que antes denominé «sesgo», es específica de nuestra especie. Dados los problemas de combinatoria, cada especie explora solo un pequeño subconjunto de soluciones posibles, una especialización que en AA se denomina sesgo. La naturaleza precisa de cualquier inteligencia biológica forma parte de su nicho evolutivo, que rara vez será compartido con otras especies biológicas, más allá de que tengan necesidades y estrategias de supervivencia similares (Laland et al., 2000). Por lo tanto, compartimos muchos de nuestros atributos cognitivos, como la capacidad de percepción y acción y, lo que es muy importante, las motivaciones, con otros simios. Pero también tenemos motivaciones y capacidades específicas que reflejan nuestra naturaleza altamente social (Stoddart, 1990). No hay inteligencia, de la magnitud que sea, que lleve consigo una necesidad intrínseca de competitividad social ni que imponga el deseo de ser aceptado por el grupo al que pertenece, dominar un grupo ajeno o lograr el reconocimiento dentro del propio. Estas son motivaciones subyacentes en la cooperación y la competición humanas resultado de nuestra historia evolutiva (Mace, 1998; Lamba y Mace, 2012; Jordan et al., 2016; Bryson et al., 2017); además, incluso cambian de una persona a otra (Herrmann et al., 2008; Van Lange et al., 1997; Sylwester et al., 2017). Para los humanos, las organizaciones sociales que varían como respuesta a a un contexto político y económico constituyen un mecanismo de supervivencia importante (Stewart et al., 2018).

Desde la perspectiva de un artefacto, nada de esto es necesario; es más, puede resultar hasta incoherente. Los artefactos los diseñan los humanos, no son producto de la evolución. Estos actos intencionados de creación con autoría humana4 no solo comportan una responsabilidad humana, también un paisaje por entero distinto de recompensas potenciales y limitaciones de diseño (Bryson et al., 2017; Bryson, 2018).

Teniendo en cuenta todo lo anterior, la IAG es, obviamente, un mito; de hecho, dos mitos ortogonales:

  1. Por vasta que sea, ninguna inteligencia natural o artificial será capaz de resolver todos los problemas.
  2. Es muy poco probable que, incluso si es extremadamente potente, una IA se parezca demasiado a la inteligencia humana, porque encarnará un conjunto por completo distinto de motivaciones y funciones de recompensa.

Estos razonamientos no nos protegen de otro problema relacionado. Superinteligencia es un término que describe la situación en que un sistema cognitivo no solo aprende, sino que aprende cómo aprender. Una vez más, surgen dos cuestiones. En primer lugar, una inteligencia debería ser capaz de crecer rápidamente, a modo de bola de nieve, hasta dejar de ser comprehensible para el análisis humano convencional. En segundo, aunque dicha inteligencia fuera diseñada de modo que tuviera objetivos que coincidieran con las necesidades humanas, podría desarrollar por sí misma unos objetivos imprevistos incompatibles con estas. Por ejemplo, un robot que juega al ajedrez podría aprender a disparar a unas personas que lo privan de los recursos suficientes para mejorar su juego porque lo apagan de noche; o un robot archivador podría convertir el planeta entero en clips para asegurarse de que todos los papeles potencialmente existentes se puedan ordenar de forma adecuada (Bostrom, 2012).

Estos dos ejemplos resultan ridículos si recordamos que todos los sistemas de IA están diseñados bajo la responsabilidad humana. Nadie ha creado nunca un programa de ajedrez con información sobre recursos ajenos al tablero de juego (con la posible excepción del tiempo), ni con la capacidad de disparar un arma de fuego. La elección de la capacidad y los componentes de un sistema informático también forma parte de su arquitectura. Como ya he dicho, la ingeniería de sistemas de una arquitectura constituye un componente importante para la seguridad de la IA existente y, como explicaré más adelante (apartado 4.3), también puede ser un medio importante de regular la IA.

Pero el concepto de superinteligencia no es ridículo en sí mismo: no hay duda de que los sistemas que aprenden a aprender pueden tener un crecimiento exponencial y, de hecho, lo hacen. El error que cometen los agoreros de la superinteligencia radica en pensar que esta situación es solo uno de los futuros posibles. De hecho, se trata de una excelente descripción de la cultura humana de los últimos 10.000 años, desde la invención de la escritura (Barnosky, 2008; Haberl et al., 2007). La potenciación de la inteligencia humana mediante la tecnología ha desembocado, en realidad, en un sistema que no se ha diseñado con cuidado y que genera efectos no deseados. Algunos de dichos efectos son muy peligrosos, como el calentamiento del planeta y la reducción de la diversidad de las especies. List y Pettit (2011) exponen un argumento similar cuando califican de «IA» organizaciones humanas como las grandes corporaciones o los gobiernos.

Retomaré la cuestión de la importancia de la arquitectura y el diseño, pero vale la pena resaltar una vez más la necesidad de que existan sesgos y límites. Los robots hacen especialmente evidente que el comportamiento no solo depende de la capacidad de computación, también de otros atributos del sistema, como las capacidades físicas. La manipulación digital, como la mecanografía o tocar la flauta, está fuera del alcance tanto de un teléfono inteligente como de una serpiente, por inteligentes que sean. Con las motivaciones sucede lo mismo: a menos que diseñemos un sistema con objetivos antropomórficos, percepción social y capacidades de comportamiento social, no aprenderá a producir un comportamiento social antropomórfico, como el intento de dominar la conversación, una empresa o un país. Si hay grandes corporaciones que demuestran estas características, son la expresión de las personas que la integran y también la manera indisciplinada y descontrolada en la que han crecido y adquirido poder. De modo que es posible que un sistema de IA (por lo menos según la definición de List y Pettit [2011]) manifieste superinteligencia, y habría que desarrollar por tanto regulaciones que lo eviten.

A partir de lo expuesto concluyo que el problema de la superinteligencia es real pero no específico de la IA; por el contrario, es un problema al que ya se enfrentan nuestras culturas. La IA es hoy un factor que contribuye a nuestra capacidad de sobresalir, pero también podría conducirnos a aprender cómo autorregularnos mejor (es decir, gobernarnos), como ha hecho varias veces en el pasado (Milanovic, 2016; Scheidel, 2017). Por otra parte, aunque la IAG fuera una realidad y la metáfora biológica de la IA y la selección natural tuviera fundamentos sólidos, no habría razones para creer que la IA vaya a provocar nuestra extinción. Nosotros no hemos provocado la extinción de las múltiples especies (en especial, microbianas) de las que dependemos directamente. Reflexionar sobre las consecuencias no deseadas de un crecimiento exponencial de la inteligencia de todo nuestro sistema sociotécnico (en lugar de solo de la IA), sin embargo, suscita preocupaciones más sustanciales.

Desigualdad y empleo

Durante siglos, la sustitución de los trabajadores por medio de la tecnología ha suscitado temores de gran relevancia (Autor, 2015). No cabe duda de que las nuevas tecnologías cambian las sociedades, las familias y las vidas, pero tampoco de que, históricamente, la mayor parte de ese cambio ha sido positivo (Pinker, 2012). En general, la esperanza de vida es mayor y la mortalidad infantil es más baja que nunca; se trata de buenos indicadores de la satisfacción de los humanos, dado que la baja mortalidad infantil está muy relacionada con la estabilidad política (King y Zeng, 2001).

No obstante hay disrupciones que conducen al conflicto político y, según algunas hipótesis recientes, podrían estar relacionadas con el auge de la IA. La desigualdad de renta (y, cabe presumir, de riqueza) muestra una correlación muy elevada con la polarización política (McCarty et al., 2016). La polarización política se define como la incapacidad de los partidos políticos de cooperar en un sistema de gobierno democrático, pero los periodos de polarización se caracterizan también por un incremento de políticas identitarias y extremismos. La polarización política y la desigualdad de renta están correlacionadas, pero se desconoce cuál es la causa y cuál la consecuencia, puesto que no se compreden bien los factores subyacentes (Stewart et al., 2018). Lo que sí se sabe es que la última vez que estos indicadores fueron tan altos como ahora (al menos en la OCDE) fue inmediatamente antes y después de la Primera Guerra Mundial. Por desgracia, fueron necesarias décadas de innovación de las políticas, una crisis financiera mundial y la Segunda Guerra Mundial para que la desigualdad y la polarización se redujeran radicalmente y se estabilizarán durante el periodo comprendido entre 1945 y 1978 (Scheidel, 2017), sin olvidar que en algunos países, como Estados Unidos y Reino Unido, bastó la crisis financiera.

BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Robots soldando componentes para vehículos en la planta de ensamblaje de Bayerische Motoren Werke AG (BMW) en Greer, Carolina del Sur, mayo de 2018
Robots soldando componentes para vehículos en la planta de ensamblaje de Bayerische Motoren Werke AG (BMW) en Greer, Carolina del Sur, mayo de 2018

Por fortuna hoy sabemos cómo responder ante esta situación: la redistribución reduce la desigualdad. Después de la Segunda Guerra Mundial, los tipos impositivos rondaban el 50%, se desarrollaron o consolidaron los estados del bienestar modernos, se bloqueó la extracción transnacional de riqueza (Bullough, 2018) y tanto la desigualdad de renta como la polarización política se mantuvieron bajas durante más de veinte años. En aquella época, además, los salarios crecían al ritmo de la productividad (Mishel, 2012). Sin embargo, hacia 1978, los salarios se estancaron y tanto la desigualdad como la polarización política empezaron a crecer, de nuevo, en la OCDE.5 ¿Cuál fue la causa? Hay muchas teorías al respecto, pero dada la crudeza del cambio según muchos indicadores, parece que se debió más a las políticas que a la tecnología. Podría resultar de los cambios geopolíticos del momento; por ejemplo, podría señalar el punto en que los miembros económicamente influyentes de la OCDE detectaron el fin de la Guerra Fría y dejaron de lado las políticas diseñadas para combatir la amenaza comunista.

En lo que respecta a la IA y con independencia de sus causas, el hecho de que a finales del siglo XIX se dieran unas tendencias políticas y económicas similares significa que no es un fenómeno relacionado con una tecnología concreta. Aunque, como ya he dicho, todavía no hay consenso sobre las causas, mi investigación en curso junto a otros autores6 analiza el argumento de que algunas tecnologías reducen costes que tradicionalmente habían mantenido la diversidad del sistema económico. Por ejemplo, unos costes de transporte elevados pueden inducir a una persona a que busque un bien determinado en un proveedor cercano en lugar de encontrar el mejor proveedor del mundo. De un modo similar, la falta de transparencia en la información o de escalabilidad de la capacidad puede conducir a un uso más diverso de los proveedores. Las innovaciones técnicas (también en el proceso empresarial) pueden superar estos costes y permitir el predominio de un número relativamente pequeño de empresas. Los ejemplos de finales del siglo XIX podrían incluir el uso del petróleo, el ferrocarril y el telégrafo, así como la mejora del transporte de mercancías y la distribución de periódicos.

Cuando unos pocos proveedores acaparan el negocio, también acaparan la riqueza. La gobernanza es uno de los principales mecanismos de redistribución (Landau, 2016), de modo que las revoluciones tecnológicas podrían requerir revoluciones en la gobernanza para recuperar un equilibrio (Stewart et al., 2018). El Estado del bienestar podría ser un ejemplo (Scheidel, 2017). Más adelante volveré a analizar la posible necesidad de innovaciones en la gobernanza (apartado 4).

Volviendo a la IA o, más concretamente, a las TIC, aunque no son las únicas tecnologías que contribuyen a la desigualdad y la polarización política, sí podrían ser las que más lo hacen. Por otra parte, la atención que tanto el público como los estamentos políticos están dedicando a la IA puede brindarnos oportunidades de estudiar y abordar las principales causas de la desigualdad y la polarización, en especial si la IA se interpreta como una crisis (Tepperman, 2016). Merece la pena que nos detengamos en una hipotética consecuencia de la polarización. Un incremento de políticas identitarias podría conducir a un uso aumentado de las creencias para señalar el estatus o la afiliación de endogrupos (Iyengar et al., 2012; Newman et al., 2014), lo que, por desgracia, reduciría proporcionalmente su utilidad a la hora de predecir o describir el mundo; es decir, para reflejar los hechos. Por lo tanto, la era de la información podría no ser una era universal de conocimiento, sino una era de desinformación.7

Este uso de las creencias como indicador de endogrupos podría influir en otra característica preocupante de la política contemporánea: la pérdida de la confianza en los expertos. Pese a que este fenómeno esté en ocasiones alimentado por expertos que hacen un uso irresponsable (e incluso abusivo) de su posición, en general perder el acceso a las opiniones de los expertos es catastrófico. La explosión combinatoria de conocimientos mencionada en el apartado 3.1 también significa que nadie, por inteligente que sea, puede llegar a dominar todo el conocimiento humano en una vida. Si la sociedad ignora los depósitos de conocimiento especializado que ha construido (mediante la financiación de la educación superior con el dinero del contribuyente), estará en considerable desventaja. La preocupación por la naturaleza y las causas de la «verdad alternativa» nos lleva al siguiente conjunto de problemas, relativos al uso de la información personal.

Privacidad, libertad personal y autonomía

Al reflexionar sobre el impacto de la IA en el comportamiento individual, nos adentramos en un territorio donde es más claro el impacto único de las TIC. Hemos vivido largos periodos de espionaje doméstico, que se ha vinculado con todo tipo de cosas, desde un sesgo en el acceso a las oportunidades basado en prejuicios hasta los pogromos. Sin embargo, hoy las TIC nos permiten mantener registros de larga duración de cualquier individuo que produzca datos almacenables; por ejemplo, cualquiera con facturas, contratos, dispositivos digitales o un historial de crédito, por no mencionar cualquier escrito publicado o el uso de redes sociales. Esto incluye, básicamente, a todo el mundo.

No es solo el almacenamiento y la accesibilidad de los registros digitales lo que cambia nuestra sociedad; es también el hecho de que dichos registros se puedan escrutar mediante algoritmos de reconocimiento de patrones. Hemos perdido la premisa por defecto del anonimato por opacidad (Selinger y Hartzog, 2017). Hasta cierto punto, hoy todos somos famosos: a cualquiera nos puede identificar un desconocido, ya sea mediante un programa de reconocimiento facial, por los datos de nuestras compras o por nuestros hábitos en las redes sociales (Pasquale, 2015). Estos pueden indicar, además de nuestra identidad, nuestras predisposiciones políticas o económicas y qué estrategias podrían ser eficaces para modificarlas (Cadwalladr, 2017a, b). El AA nos permite descubrir nuevos patrones y periodicidades hasta ahora inconcebibles; por ejemplo, que la elección de unas determinadas palabras o, incluso, la presión al escribir a mano con un lápiz digital pueden indicar un estado emocional, incluido si alguien miente (Bandyopadhyay y Hazra, 2017; Hancock et al., 2007), o que un patrón de uso de redes sociales predice categorías de personalidad, preferencias políticas e, incluso, los logros en la vida (Youyou et al., 2015).

BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Chistopher Wylie, exdirector de investigación del grupo de investigación del grupo SCL, matriz de Cambridge Analytica (CA), en la gala TIME 100 celebrada en Nueva York en abril de 2018. Un mes antes Wylie dio la alerta del robo de información de millones de usuarios de Facebook por parte de CA para usarlos con fines políticos.
Chistopher Wylie, exdirector de investigación del grupo de investigación del grupo SCL, matriz de Cambridge Analytica (CA), en la gala TIME 100 celebrada en Nueva York en abril de 2018. Un mes antes Wylie dio la alerta del robo de información de millones de usuarios de Facebook por parte de CA para usarlos con fines políticos.

El aprendizaje automático ha abierto las puertas a unas capacidades casi humanas e incluso sobrehumanas en la transcripción del habla a partir de la voz y el reconocimiento de emociones a partir de la grabación de audio o vídeo, además de la falsificación caligráfica o la manipulación de imágenes (Valstar y Pantic, 2012; Griffin et al., 2013; Eyben et al., 2013; Kleinsmith y Bianchi-Berthouze, 2013; Hofmann et al., 2014; Haines et al., 2016; Reed et al., 2016; Vincent, 2016; Thies et al., 2016; Deng et al., 2017). Por otra parte, cuanto mejor sea el modelo de que disponemos sobre la probabilidad de que alguien haga algo, menos información necesitaremos para deducir cuál será su paso siguiente (Bishop, 2006; Youyou et al., 2015). Este principio permite la falsificación a partir de la elaboración de un modelo sobre la escritura o la voz de una persona, combinarlo con un texto y producir una «predicción» o transcripción de cómo es probable que dicha persona escriba o pronuncie el texto (Haines et al., 2016; Reed et al., 2016). Ese mismo principio podría permitir a estrategas políticos identificar qué votantes son susceptibles, si no de cambiar de partido preferido, al menos sí de incrementar o reducir su probabilidad de ir a votar y, por consiguiente, dedicar recursos a convencerlos de que lo hagan. Se supone que una estrategia así ha sido determinante en las recientes elecciones en Reino Unido y Estados Unidos (Cadwalladr, 2017a, b; ICO, 2018); de ser cierto, lo más probable es que estos métodos hayan sido probados en otras elecciones anteriores sometidas a una vigilancia menos rigurosa.

Por lo tanto, en nuestra sociedad sería razonable que las personas temieran la difusión de sus acciones o sus creencias por dos razones: en primer lugar, porque facilita hacer predicciones sobre ellas y, en consecuencia, manipularlas; y, en segundo, porque las expone a la persecución por parte de aquellos que desaprueban sus creencias. Esta persecución podría ir desde el acoso hasta el fracaso profesional o pérdida de oportunidades organizativas o empresariales e incluso, en sociedades inestables (o inmorales, al menos) el encarcelamiento o la muerte a manos del Estado. El problema de estos temores no se limita a la tensión que supone para quien los experimenta, también que, al inhibir la libertad personal y de expresión, reducen el número de ideas que se difunden en una sociedad en conjunto y, de este modo, limitan nuestra capacidad de innovar (Mill, 1859; Price, 1972). Responder tanto a las oportunidades como a los desafíos requiere creatividad y librepensamiento en todos los ámbitos de la sociedad.

Autonomía empresarial, ingresos y responsabilidad

Estas reflexiones sobre la autonomía personal nos conducen directamente al último conjunto de problemas que presento aquí y que rara vez se menciona. La biología teórica nos explica que, cuando aumenta la comunicación, la probabilidad de cooperación es superior (Roughgarden et al., 2006). Por otra parte, pese a que la cooperación a menudo es maravillosa, también se puede ver como la transferencia de una parte de la autonomía de la persona hacia un grupo (Bryson, 2015). Podemos recuperar las definiciones del apartado 2, según las cuales el grado de autonomía de una entidad equivale al grado en que determina sus acciones. Lograr autonomía individual requiere sacrificar la autonomía grupal, y viceversa, si bien es cierto que hay maneras de organizar los grupos que proporcionan un grado mayor o menor de libertad a sus integrantes. Por tanto, quizá los límites a la libertad personal que acabo de describir sean el resultado natural de una capacidad de comunicación mayor. Una vez más estoy hablando de las TIC en su conjunto, pero la IA y el AA, gracias a su capacidad para acelerar la búsqueda tanto de soluciones como de colaboradores, son sin duda un componente significativo de esta tendencia, hasta el punto, posiblemente, de cambiar las reglas del juego.

Lo irónico es que muchas personas consideran que, a cuantos más datos, mejor, pero ¿mejor para qué? La estadística básica nos enseña que el número de observaciones que necesitamos para hacer una predicción está limitado por el grado de variación en dichos datos, siempre suponiendo que sean una verdadera muestra aleatoria de su población.8 La cantidad de datos que necesitamos en ciencia o medicina podría limitarse a una fracción minúscula de una determinada población. Sin embargo, si queremos dirigirnos a algunas personas en particular, controlarlas, disuadirlas o, incluso, promoverlas, necesitamos «saberlo todo» de ellas.

Con todo, a nivel de grupo, modificar los costes y beneficios de la inversión puede tener consecuencias más allá de la privacidad y la libertad. Las TIC pueden desdibujar las distinciones entre el cliente y la empresa o, incluso, la definición de una transacción económica, algo que hasta ahora había pasado en gran medida desapercibido (ver Perzanowski y Schultz, 2016; Frischmann y Selinger, 2016). Hoy los clientes trabajan en beneficio de las empresas cuyos servicios o productos adquieren: buscan el precio de los alimentos que compran y los embolsan, introducen datos en los cajeros automáticos de los bancos, rellenan formularios para las aerolíneas, etcétera (Bryson, 2015). El valor de este trabajo no se remunera directamente, sino que damos por supuesto que repercute en una reducción implícita del precio de los productos, de modo que nuestra cesión de trabajo en beneficio de estas corporaciones se podría considerar una especie de trueque. Asimismo, este trabajo no está cuantificado, por lo que desconocemos el valor del ahorro que genera. En este sentido, las TIC propician un mercado negro o, cuando menos, opaco, que reduce la renta media y, por consiguiente, los ingresos fiscales cuando los impuestos se basan en los beneficios o ingresos declarados. Este problema es aplicable a cualquier persona que utilice servicios e interfaces de internet, aunque pasemos por alto las problemáticas definiciones de empleo que plantean las plataformas en línea (ver, sin embargo, O’Reilly, 2017). Por otra parte, nuestra creciente capacidad de obtener valor y poder al tiempo que evitamos que se reflejen en los impuestos podría ayudar a explicar el misterio del supuesto estancamiento de nuestra productividad (Brynjolfsson et al., 2017).

Esta dinámica alcanza su máxima crudeza en el caso de los servicios «gratuitos» en red. Está claro que recibimos información o entretenimiento a cambio de datos o atención. Si consumimos un contenido que va acompañado de publicidad, ofrecemos a los que nos lo suministran la oportunidad de influir en nuestro comportamiento. Lo mismo se puede decir de modos menos convencionales de presión sutil, como las hipotéticas intervenciones políticas mencionadas en el apartado 3.3. No obstante, estos intercambios solo se cuantifican (cuando se cuantifican) de forma agregada y cuando la empresa que presta el servicio es evaluada económicamente. Gran parte de los datos se recogen incluso de un modo especulativo y pueden tener escaso valor hasta que se les encuentra un uso innovador años más tarde.

Las TIC pueden desdibujar las distinciones entre el cliente y la empresa o, incluso, la definición de una transacción económica, algo que hasta ahora había pasado en gran medida desapercibido

Nuestra creciente incapacidad a la hora de cuantificar los ingresos ahí donde se hacía tradicionalmente (sobre los ingresos o durante el intercambio) podría ser otra causa del aumento de la desigualdad de la riqueza, dado que se reduce la parte de la economía que es reconocida, gravada y redistribuida. Una solución obvia sería gravar la riqueza misma (por ejemplo, el valor de mercado de una empresa), en lugar de los ingresos. La era de la información puede facilitar el seguimiento de la distribución de la riqueza y hacer más viable esta estrategia que en el pasado, en especial dada la dificultad de monitorizar los ingresos, que se agrava incluso mientras escribo este texto. Claro que no sirve si la riqueza se grava solo en el país en que la empresa tiene su domicilio social (a menudo, un paraíso fiscal). Puesto que podemos ver la transferencia internacional de datos y el flujo de servicios, en teoría deberíamos poder divulgar la consiguiente redistribución en proporción al volumen y el valor de los datos transmitidos. Imponer un sistema como este a escala internacional requeriría innovaciones considerables, dado que los impuestos convencionales son gestionados por los gobiernos y apenas existen gobiernos transnacionales. Sin embargo, sí existen tratados internacionales y zonas económicas organizadas. Los países grandes o las economías coordinadas como el Área Económica Europea pueden tener capacidad para exigir una redistribución equitativa para sus ciudadanos a cambio del privilegio del acceso a ellos. China ha demostrado con éxito que este acceso no es algo que deba darse por supuesto; y, de hecho, bloquear el acceso puede facilitar el desarrollo de competencia local. Ciudades y estados norteamericanos están usando estrategias similares contra plataformas como Uber y Airbnb.

Cualquier política de IA debería ser desarrollada e implementada teniendo en cuenta la importancia de respetar también los impactos positivos de la tecnología
BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Miembros del Parlamento Europeo durante una votación de la Eurocámara en la sede de Estrasburgo, Francia, marzo de 2018
Miembros del Parlamento Europeo durante una votación de la Eurocámara en la sede de Estrasburgo, Francia, marzo de 2018

Por otra parte, la idea de que trasladar una mente humana a la tecnología digital (si esto fuera posible siquiera) daría a esta una mayor longevidad o, incluso, la inmortalidad es ridícula. Los formatos digitales tienen una vida útil media no superior a los cinco años (Lawrence et al., 2000; Marshall et al., 2006). En este caso, la falacia consiste en confundir la computación con una modalidad matemática. La matemática es pura, eterna y cierta, pero ello se debe a que no es real: no se manifiesta en el mundo físico y no puede actuar. Por el contrario, la computación sí es real. Como se ha dicho, la computación necesita tiempo, espacio y energía (Sipser, 2005). Se requiere espacio para almacenar estados (memoria) y no hay una manera permanente de conseguir un almacenamiento de este tipo (Krauss y Starkman, 2000).

Gravar a los robots con impuestos y pensar que podemos alargar la vida humana mediante la IA goza de un atractivo populista, pero son ideas que parten de la ignorancia sobre la naturaleza de la inteligencia

Volviendo a la idea, en apariencia más práctica de gravar con impuestos las entidades de IA, una vez más pasa por alto su falta de humanidad. En concreto, la IA no es contable, como lo son las personas. La misma crítica es aplicable al apoyo de Bill Gates a los impuestos sobre los robots, aunque no defendiera que se les otorgue una personalidad jurídica (The Economist, 2017). No existe un equivalente a los «caballos de potencia» para medir el número de humanos a los que sustituye un algoritmo. Como ya he dicho, frente a una innovación acelerada, no podemos monitorizar ni siquiera el valor de las transacciones con participantes humanos. Cuando llega una tecnología nueva, durante un breve periodo podríamos ver a cuántos humanos deja sin trabajo, pero incluso este cálculo parece reflejar más el estado de la economía actual que el valor real del trabajo reemplazado (Autor, 2015; Ford, 2015). Es decir, en épocas de bonanza, una empresa mantendrá y seguirá formando a sus empleados experimentados, pero en épocas de crisis las corporaciones usarán la coyuntura de excusa para reducir sus plantillas. Aunque el cambio inicial en el empleo fuera un indicador de la «potencia humana» reemplazada, las tecnologías cambian rápidamente las economías en las que se integran y el valor del trabajo humano también varía a gran velocidad.

Es esencial recordar que los artefactos son, por definición, fruto del diseño. Dentro de los límites de las leyes de la física y la computación, gozamos de plena autoría sobre la IA y la robótica. Por consiguiente, los desarrolladores podrán evadir los impuestos de modos inconcebibles para los legisladores acostumbrados al valor fruto del trabajo humano. El proceso de descomponer una corporación en «personas electrónicas» automatizadas magnificaría los actuales problemas derivados del abuso de la personalidad jurídica, como las empresas fantasma que se emplean para blanquear dinero. La consideración, ya restringida, de las grandes empresas como personas jurídicas perdería sentido si no emplearan a ningún trabajador humano (Solaiman, 2016; Bryson et al., 2017).

Los próximos diez años: soluciones y futuros

Me gustaría reiterar que, como explicaba al principio del apartado 3, la IA ha sido y es un factor asombroso de crecimiento económico y empoderamiento individual. Nos permite conocer, aprender, descubrir y hacer cosas que habrían sido inconcebibles hace cincuenta años. Podemos pasear por una ciudad desconocida, cuyo idioma desconocemos, orientarnos y comunicarnos. Podemos beneficiarnos de la educación que nos brindan las mejores universidades del mundo en nuestra casa, aunque vivamos con un salario reducido en una economía en desarrollo (Breslow et al., 2013). También en el mundo en desarrollo, podemos utilizar el teléfono inteligente local para consultar los precios justos de varios productos agrícolas y otra información útil, como las predicciones meteorológicas, de modo que incluso los agricultores de subsistencia pueden escapar de la pobreza extrema gracias a las TIC. El increíble ritmo al que avanza el Proyecto del Genoma Humano no es más que un ejemplo más de cómo toda la humanidad puede beneficiarse de esta tecnología (Adams et al., 1991; Schena et al., 1996).

Con todo, hay que abordar los problemas antes citados. A continuación expondré mis propuestas respecto a cada uno, empezando por los últimos que he sacado a colación. Seré breve, puesto que conocer las soluciones exige primero identificar los problemas y los problemas identificados aquí son solo propuestas sin consensuar. Además, ya se han sugerido enfoques distintos de enfrentar estos problemas, algo que explico y detallo a continuación.

Empleo y estabilidad social

En el apartado 3.4 descarté la idea de que considerar a la IA como personas jurídicas pueda solucionar las disrupciones en el mercado laboral y la desigualdad de la riqueza que ya sufrimos. De hecho, la creación de personas electrónicas jurídicas incrementaría la desigualdad, al permitir a las empresas y a los ricos eludir su responsabilidad a expensas de la población común. Ahora contamos con indicios sólidos de que los donantes ricos pueden empujar a los políticos a adoptar posturas extravagantes y extremistas (Barber, 2016), con unos resultados potenciales desastrosos si se combinan con una creciente presión en favor de la polarización política y las políticas identitarias. Asimismo, es importante tener en cuenta que no siempre los muy ricos revelan su riqueza.

BBVA-OpenMind-ilustración-Joanna-J-Bryson-la-ultima-decada-y-el-futuro-del-impacto-de-la-IA-en-la-sociedad-Un teleprónter muestra a una estudiante que hace de «alumna virtual» en una clase del MIT grabada para cursos en línea en abril de 2013 en Cambridge, Massachusetts
Un teleprónter muestra a una estudiante que hace de «alumna virtual» en una clase del MIT grabada para cursos en línea en abril de 2013 en Cambridge, Massachusetts

En las democracias, otro desencadenante de periodos de marcada desigualdad y alta polarización son los resultados electorales ajustados, con candidatos que no se habría esperado que empataran. Esto por supuesto abre la puerta a (o al menos reduce el coste de) manipular resultados electorales, también por parte de poderes externos. Person (2018) sugiere que los países débiles pueden estar practicando un «equilibrio por intrusión negativa» contra los más fuertes, influyendo en elecciones y, por ende, en las capacidades de gobernanza y de autonomía, en un intento por reducir desequilibrios de poder a favor de la nación más débil.

Si hay personas o coaliciones de personas lo bastante ricas para reducir la eficacia de los gobiernos, entonces también los Estados perderán su autonomía, incluida la estabilidad de sus fronteras. La guerra, la anarquía y la inestabilidad que traen consigo no son deseables para nadie, con la posible excepción de quienes se benefician de actividades ilegales. Una estabilidad que permita planificar negocios y familias beneficia a todos. La llegada de las corporaciones trasnacionales ha estado acompañada de un aumento sustancial del número y poder de otras organizaciones de carácter supranacional. Esto puede ser una buena noticia si ayudan a coordinar la cooperación en asuntos de interés transnacional, pero no hay que olvidar que la geografía siempre será un factor determinate de muchos asuntos de gobierno. Cómo está protegida la casa de nuestros vecinos contra incendios o si sus hijos están vacunados y bien educados son cosas que siempre afectarán nuestra calidad de vida. Agua potable, alcantarillado, seguridad individual, acceso a opciones de transportes… Los gobiernos locales seguirán teniendo un papel de extrema importancia en el futuro indefinido, incluso si algunas de esas funciones pasan a ser responsabilidad de corporaciones o de gobiernos transnacionales. Por tanto, necesitan contar con los recursos adecuados.

En el apartado 3.4 recomendaba, como posible solución al impacto de las TIC en la desigualdad, un cambio de prioridades, pasando de documentar y gravar los ingresos o beneficios a hacer lo propio con la riqueza. El mayor problema de esta propuesta es que podría requerir una redistribución internacional, no solo nacional, dado que las corporaciones más ricas de internet9 están concentradas en un solo país, pese a que no hay duda de que las que trabajan fuera de China (y cada vez más también las que operan en ese país) derivan su riqueza de su actividad en todo el mundo. Gestionar esta situación exigirá innovaciones importantes en las políticas. Por suerte, casi todas las partes implicadas, incluidas las principales corporaciones, tienen interés en evitar la guerra y otras formas de inestabilidad social y económica. Las guerras mundiales y las crisis financieras del siglo XX mostraron que este argumento era especialmente aplicable a los muy ricos, que, al menos desde el punto de vista económico, son los que más tienen que perder (Milanovic, 2016; Scheidel, 2017), aunque rara vez pierden la vida.

En especial me parecen admirables las soluciones flexibles ante la crisis económica aplicadas por Alemania durante la última recesión, con políticas que permitían a las empresas hacer despidos parciales de sus trabajadores, que a cambio obtenían prestaciones parciales y tiempo libre (Eichhorst y Marx, 2011, p. 80). Esto les permitía reciclar su formación al tiempo que mantenían, durante un periodo prolongado, un nivel de vida cercano al acostumbrado. También permitía a las empresas conservar a sus empleados más valiosos mientras cambiaba el rumbo de su negocio o, sencillamente, buscaban liquidez. Habría que fomentar este tipo de flexibilidad, de modo que tanto los gobiernos como las personas conservaran su capacidad económica en largos periodos de crisis. De hecho, una flexibilidad suficiente puede evitar que los periodos de cambio intenso se conviertan en crisis.

En mi opinión, si podemos reducir la desigualdad también se reducirán los problemas de empleo, con independencia de que el cambio se acelere o no. Vivimos en una sociedad de una abundancia fastuosa y podemos permitirnos mantener, aunque sea parcialmente, a los individuos mientras vuelven a formarse. Y nuestra capacidad de innovación es fantástica. Si el dinero circula por la sociedad, las personas encontrarán la manera de emplearse y prestarse servicios entre sí (Hunter et al., 2001; Autor, 2015). Una vez más, es posible que esto ya ocurra; desde luego explicaría la reducción en el ritmo de cambio en la sociedad que algunos autores afirman haber detectado (por ejemplo, Cowen, 2011). Es posible que muchas personas sigan encontrando vías para el autoempleo y, si tienen éxito, contraten a terceros produciendo servicios dentro de sus propias comunidades. Estos servicios pueden ser desde sociales, como la docencia, las labores policiales o el periodismo, familiares y domésticos, hasta estéticos, como el paisajismo, la restauración, la música, el deporte y otras actividades comunitarias.

Permitir o no a dichas personas vivir bien y disfrutar de las ventajas de su sociedad es una decisión de política económica. Por ejemplo, a todos nos gustaría que una familia pudiera permitirse una semana de vacaciones en una gran ciudad vecina o que sus hijos disfrutarán de movilidad social, por ejemplo con un acceso a las mejores universidades de elite de la zona de su elección basado en criterios puramente meritocráticos. Por supuesto, en este siglo esperamos un acceso universal y gratuito a la atención sanitaria y a la educación primaria y secundaria. Las personas deberían poder vivir con sus familias y no tener que perder gran parte del día desplazándose a y desde el lugar de trabajo; para ello hacen falta tanto una distribución determinada de las oportunidades laborales como una infraestructura de transporte excelente y ampliable (y, en consecuencia, probablemente pública).

Si podemos reducir la desigualdad, también se reducirán los problemas de empleo. Vivimos en una sociedad de una abundancia fastuosa y podemos permitirnos mantener, aunque sea parcialmente, a los individuos mientras vuelven a formarse

El nivel de inversión en una infraestructura de este tipo depende, en parte, de la inversión pública y privada en impuestos y también de cómo se gasta dicha riqueza. En el pasado, en ocasiones hemos dedicado gran parte de nuestros recursos a la destrucción de las infraestructuras de los demás y a la reparación de las propias, a causa de la guerra. Hoy, aunque evitemos los enfrentamientos armados abiertos, debemos abordar la necesidad de abandonar las viejas infraestructuras que ya no son viables a causa del cambio climático e invertir en otras nuevas. No hay duda de que ello plantea una oportunidad considerable de redistribución, en particular en ciudades ahora mismo deprimidas, como demostró el New Deal de Roosevelt, con políticas que redujeron la desigualdad en Estados Unidos mucho antes de la Segunda Guerra Mundial (McCarty et al., 2016; Wright, 1974).

Coincido con quienes no creen que la renta básica universal sea un gran mecanismo de redistribución, por varias razones. En primer lugar, muchos esperan financiarla mediante el recorte de los servicios públicos, pero es posible que estos, a su vez, sean cada vez más necesarios a medida que números crecientes de personas queden relegadas por su incapacidad para responder a las complejidades técnicas y económicas de un mundo en rápida transformación. En segundo lugar, he visto a demasiados individuos que ante las cámaras evitaban comprometerse, con el argumento de que «el gobierno nunca ha hecho nada por mí», sin tener en cuenta la enorme inversión en su educación y seguridad y en infraestructuras. Creo que una renta básica no tardaría en volverse invisible y a darse por supuesta, como parece suceder con la recogida de basuras y los servicios de urgencias.

Pero, sobre todo, preferiría que la redistribución restituyera su importancia a las comunidades cívicas locales; es decir, que circulara a través del empleo, ya fuera directo o a través de trabajadores autónomos y clientes. La IA y las TIC facilitan los vínculos con personas de todo el mundo; favorecen incluso fantasías de entretenimiento con tecnología de IA que no son humanas. Sin embargo, el bienestar de nuestros vecinos tiene un impacto gigantesco en el nuestro y, en muchos sentidos, ambos están ligados a través de la calidad del aire y el agua, la educación, los servicios de bomberos y urgencias y, por supuesto, la seguridad. Los mejores vecindarios están conectados por el conocimiento y la preocupación por las personas; es decir, por la amistad.

Un mecanismo efectivo de incrementar la redistribución consiste, simplemente, en subir los salarios mínimos (Lee, 1999; Schmitt, 2013). Aunque solo se aplique a los empleados del sector público, sus efectos se transmiten al resto de empresas, puesto que el sector público compite por los mejores trabajadores y, por supuesto, los mayores salarios también tienen la ventaja de incentivar a los buenos trabajadores a contribuir a la sociedad mediante el servicio público. Pese a que este mecanismo ha sido criticado por varias razones (ver, por ejemplo, Meyer, 201٦), parecen existir pruebas sólidas de su impacto positivo general.

Privacidad, libertad e innovación

Volviendo a los problemas relacionados de la privacidad y la autonomía individual, abordaré un área sobre la cual es más difícil hacer predicciones o estas son más dispares. No hay duda de que la era de la privacidad propiciada por la opacidad se ha terminado, dado que ahora tenemos más información y más medios para filtrarla y comprenderla que nunca antes; es muy improbable que esto cambie, a menos que un desastre de alcance mundial acabe con nuestra capacidad digital. No obstante, durante mucho tiempo hemos vivido en espacios donde nuestros gobiernos y nuestros vecinos podían, en teoría, arrebatarnos nuestra propiedad privada, pero rara vez lo hacían, excepto mediante un acuerdo previo, como los impuestos (Christians, 2009). ¿Podremos alcanzar un nivel de control similar sobre nuestros datos personales? ¿Podremos disfrutar de una privacidad y autonomía efectivas en la era de la información? De no ser así, ¿cuáles serían las consecuencias?

Para empezar, hay que decir que cualquier enfoque de la defensa de los datos personales y la protección de los ciudadanos ante la predicción, la manipulación o, simplemente, el control por medio de sus datos personales pasa por unos sólidos mecanismos de encriptado y ciberseguridad, sin puertas traseras. En la ciberseguridad, todas las puertas traseras han sido aprovechadas por actores malintencionados (Abelson et al., 2015). La falta de ciberseguridad debería considerarse un riesgo significativo para la IA y para la economía digital, en especial en el internet de las cosas. Si no podemos confiar en los dispositivos inteligentes, o ni siquiera en los conectados, no deberían ser bienvenidos ni en casa ni en los lugares de trabajo (Singh et al., 2016; Weber, 2010).

Analistas de la privacidad y su dimensión tecnológica han sugerido que los datos sobre una persona no deberían considerarse un activo, sino una parte de esa persona, es decir, una prolongación de su identidad individual. Como tales, los datos personales no pueden ser propiedad de nadie más que de la persona a la que se refieren; cualquier otro uso sería por cesión o por contrato y no puede traspasarse ni cederse a terceros sin consentimiento (Crabtree y Mortier, 2015; Gates y Matthews, 2014). De este modo los datos personales se asemejarían más a la persona misma y, si fueran vulnerados, la persona afectada tendrá la protección de la ley. En este momento se están desarrollando varias innovaciones tecnológicas y jurídicas en consonancia con este modelo, aunque, dada la facilidad de acceso a los datos y la dificultad de demostrar dicho acceso, es posible que los datos sean mucho más difíciles de defender que la propiedad física de una persona (Rosner, 2014; Jentzsch, 2014). Por fortuna, ya hay al menos algunos gobiernos que han asumido la tarea de defender los intereses de sus ciudadanos en materia de datos (por ejemplo, con el Reglamento General de Protección de Datos de la Unión Europea [RGPD]; ver Albrecht, 201٦, y Danezis et al., 2014). Hay razones excelentes para hacerlo, porque, como ya he dicho, la extracción no deseada de datos masivos y la manipulación de las preferencias políticas individuales y de otros comportamientos personales a partir de los perfiles individuales de las redes sociales tienen consecuencias tanto políticas como económicas.

Las entidades mejor situadas para defender nuestra privacidad son los gobiernos, en principio mediante demandas judiciales colectivas contra, como mínimo, los ejemplos más indignantes de violación de los datos personales. Claro que dichas estrategias podrían requerir innovaciones importantes en el derecho internacional o los tratados internacionales, dado que algunas de las acusaciones de manipulación más famosas tienen que ver con los resultados electorales de países enteros. Sin ir más lejos, el referéndum sobre el Brexit, en Reino Unido, ha costado al país, en los dos años desde la votación (sin que se haya producido aún la salida efectiva de la Unión Europea), 23.000 millones de libras esterlinas en recaudación fiscal perdida al año, es decir, 440 millones de libras a la semana (Morales, 2018). Como ya mencioné, el referéndum sobre el Brexit estuvo al parecer influido por conocidos algoritmos de IA financiados, como se ha demostrado, por inversión extranjera (ICO, 2018). La paradoja es que reparar un perjuicio semejante requeriría, casi con total seguridad, colaboración internacional.

Por desgracia los gobiernos no siempre tienen como prioridad los intereses de sus ciudadanos o, al menos, no siempre y no todos sus intereses. De hecho, durante el siglo XX y en términos globales, un individuo tenía muchas más probabilidades de morir a manos de su propio gobierno que de alguien extranjero (Valentino, 2004). Más recientemente, China ha estado utilizando un sistema de vigilancia supuestamente dedicado a la seguridad de sus ciudadanos para destruir las vidas y las familias de más de un millón de habitantes, a los que ha encerrado en campamentos de reeducación por haberse declarado musulmanes (Human Rights Watch, 2018; Editorial, 2018). En términos más generales, cuando los gobiernos tienen miedo de que haya informantes o disidentes, o incluso eluden su responsabilidad de garantizar la dignidad y la prosperidad de todos los habitantes de su territorio, pueden recurrir a la represión y al asesinato, cosa que hacen a menudo. Es muy peligroso que un gobierno considere que gobernar a un grupo de personas dentro de sus fronteras entraña un coste o un problema superior a su valor colectivo potencial en términos de trabajo, seguridad e innovación. Esta grave amenaza se ve intensificada por la promesa y el auge de la automatización inteligente como fuente nueva y controlable y apropiable tanto de trabajo como de innovación. La exageración en el discurso sobre la IA incrementa el riesgo de que un gobierno minusvalore erróneamente vidas humanas y considere que su valor es inferior al coste percibido de mantenerlas.

No podemos saber con seguridad dónde desembocarán las tendencias actuales, pero es de esperar que, cuando se ejerza algún tipo de represión, la IA y las TIC serán los medios empleados para predecir esos díscolos potenciales y monitorizarlos. Se dice que China está usando sistemas de reconocimiento facial no solo para identificar a personas, también para interpretar su estado de ánimo y concentración, tanto en los campos de reeducación como en las escuelas. Los estudiantes y, quizá, los profesores pueden ser castigados si no aparentan estar contentos con su educación (o reeducación). Los sistemas de TIC capaces de detectar el grado de comprensión y atención de los estudiantes y de informar a los profesores, a fin de que adapten su docencia y sus materiales, también se están promoviendo en Occidente y constituyen una parte esencial de la formación personalizada con IA fuera de las aulas convencionales. Cabe suponer que se están desarrollando y, probablemente, aplicando sistemas similares en otros sectores profesionales (por ejemplo, Levy, 2015).

Si permitimos que esta tendencia se mantenga, podemos esperar que nuestras sociedades ganen en seguridad (o, al menos, que haya más paz en las calles) y homogeneidad, pero pierdan capacidad de innovación y diversidad. Más personas que nunca cuentan con los medios y los recursos económicos para viajar de un país a otro, de modo que cabe esperar que los países que ofrezcan mayor calidad de vida, también en términos de gobernanza y protección individual, atraerán a personas preocupadas por la libertad personal. Podemos esperar también que, gracias al poder combinado del trabajo y la innovación de dichos inmigrantes y de la población existente, estos países puedan llegar a protegerse e, incluso, a proteger a otros. Ya hemos visto que la Unión Europea ejercía una protección de este tipo con regulaciones éticas para la IA, como el RGPD. Y Naciones Unidas trabaja con instrumentos, como el Acuerdo de París, a fin de protegernos a todos del cambio climático. En unas sociedades tan prósperas y bien gobernadas, sería de esperar un incremento de los niveles de libertad, no un descenso, a medida que aumente la concienciación sobre los problemas derivados de la vigilancia que ya practicamos; por ejemplo, en la microgestión del tiempo personal de nuestros hijos (Lee et al., 2010; Bryson, 2015).

La exageración en el discurso sobre la IA incrementa el riesgo de que un gobierno minusvalore erróneamente vidas humanas y considere que su valor es inferior al coste percibido de mantenerlas

Por desgracia para esta visión optimista de los remansos de bienestar en que se convertirían los países bien gobernados, en la práctica la tecnología se utiliza, cada vez más, para frustrar toda la migración transfronteriza que no sea de élite (Miller, 2017). Además de los genocidios y las matanzas masivas, otra tendencia histórica observada a menudo en las guerras y las revoluciones políticas (por ejemplo, la Polonia ocupada por los nazis, la Checoslovaquia de la Guerra Fría, el Irán de la revolución, la Unión Soviética de Stalin, la Camboya de los jemeres rojos, la China de la Revolución Cultural y la actual Arabia Saudí) es el traslado forzoso o, incluso la ejecución no solo de disidentes, también de intelectuales. A menudo, se considera que mantener el control pasa por eliminar cualquier liderazgo potencial de signo innovador, aunque sea dicho liderazgo lo que se precisa para garantizar una ciudadanía sana y una sociedad estable (King y Zeng, 2001), por no hablar de un progreso tecnológico que otorge ventaja en una carrera armamentística (Yan, 2006). Estos movimientos tienden a desmoronarse solo después de años de sufrimiento prolongado, a menudo después de haber durado lo suficiente para dejar claro que sus políticas dañaban la competitividad internacional del país. La IA facilita de manera asombrosa la identificación y el aislamiento de cualquier grupo a reprimir (o incluso de los individuos que muestran determinadas actitudes). Solo la innovación en los mecanismos de protección contra gobiernos corruptos, ególatras o peligrosos en general nos permitirá proteger la diversidad y la libertad en nuestras sociedades y, con ella, nuestra seguridad.

Una vez más, la capacidad de la IA al servicio del buen gobierno y sociedades más justas y sólidas es muy real y se está desarrollando ampliamente. Así, la IA se utiliza contra los delitos financieros, el fraude y el blanqueo de dinero y para la protección de personas, empresas y gobiernos frente a influencias ilícitas e ilegales (Ngai et al., 2011). Se trata de algo razonable y parte de las obligaciones contractuales convencionales de los prestatarios de servicios financieros y, por supuesto, de los gobiernos. También puede ser ético que, cuando un ciudadano ha elegido un determinado comportamiento mediante un deseo expreso, sus dispositivos inteligentes u otros organismos le propinen «un empujoncito» para ayudarlo a cumplir con sus propósitos; por ejemplo, en relación con el ejercicio físico o los hábitos de sueño. Sin embargo, es importante reconocer los peligros crecientes tanto de la coerción explícita como de la desorientación implícita que acompañan el incremento masivo del conocimiento y el consiguiente poder derivado de la IA. Por lo tanto, la IA hace más urgente invertir en la investigación y el desarrollo de las humanidades y las ciencias sociales; en especial en ciencias políticas y sociología. A continuación abordo el problema de regular la IA.

La responsabilidad individual, empresarial y regulatoria por la IA

Como punto de partida del debate sobre la responsabilidad en la era de la IA, me gustaría volver a poner el acento, con brevedad, en el papel del diseño y las arquitecturas en la IA. Quizá una vez más por la confusión de lo inteligente con lo humano, en ocasiones he oído decir que tal o cual característica de la IA es inevitable; lo he escuchado incluso de boca de expertos en este campo pertenecientes a organizaciones influyentes. No hay ningún aspecto de la IA que sea más inevitable que la esclavitud o el derecho hereditario a la monarquía. Por supuesto, ambos fenómenos siguen existiendo en algunos lugares, pero, pese a los beneficios económicos que representaban para los que ocupaban el poder, en gran medida han sido erradicados. De un modo similar, podemos regular como mínimo los productos comerciales legales para exigir arquitecturas seguras o, al menos, transparentes (Boden et al., 2011). Podemos exigir (como ha hecho hace poco la Comisión Europea) que las decisiones que toman las máquinas sean identificables y explicables (Goodman y Flaxman, 2016).

Insistir en la responsabilidad humana de los sistemas de IA no significa que debamos (o podamos) responder del valor de cada peso en una red neuronal ni del impacto de cada dato individual empleado en su aprendizaje. No solo sería poco práctico, sino que no corresponde ni al criterio ni al medio por los cuales tienen que rendir cuentas las organizaciones hoy día. Una empresa no es responsable de la organización sináptica del cerebro de sus cuentas; es responsable del estado de estas. A decir verdad, la introducción de la IA en un proceso empresarial o de gobierno no supone demasiados cambios en cuanto a responsabilidad. Debemos ser capaces de caracterizar nuestros sistemas lo bastante bien para detectar si se están comportando de acuerdo con lo esperado (Liu et al., 2017). Es algo factible y se debe fomentar (Bryson y Theodorou, 2019).

Promover la responsabilidad comporta garantizar la rendición de cuentas (Santoni de Sio y Van den Hoven, 2018). Un modo fácil de conseguirlo es hacer entender a gobiernos y fiscales que los sistemas de software tienen, en buena parte, los mismos problemas de responsabilidad que cualquier otro artefacto fabricado: si se les da un uso inadecuado, es culpa del propietario; si generan daños cuando se utilizan adecuadamente, están defectuosos y es probable que el fabricante sea el responsable, a menos que pueda demostrar que ha respetado la diligencia debida y que han concurrido circunstancias excepcionales. El mero hecho de que parte del sistema sea autónomo no invalida este argumento, del mismo modo que se puede atribuir al banco aquellos errores generados por sus contables o sus clientes cuando los sistemas del banco deberían haberlos limitado o alertado sobre ellos. Sin duda, esta cuestión nos plantea problemas; en especial porque son muchas las aplicaciones de la tecnología de IA en contextos internacionales, pero organizaciones como la Unión Europea, Naciones Unidas y la OCDE se están esforzando para coordinar esfuerzos con los que proteger a sus ciudadanos.

Por supuesto los sistemas de IA no son exactamente como los sistemas más deterministas, pero exagerar las consecuencias de dichas diferencias es problemático. Las malas ideas pueden esconderse detrás de los «artificios» de la confusión que genera la IA sobre cuestiones de identidad y libertad de acción (Bryson, 2018). Una tendencia preocupante en la gobernanza de la IA es la tendencia a adoptar el alineamiento de valores como solución a problemas de la ciencia en general y de ética de la IA en particular. La idea es que se debe garantizar que la sociedad dirige y aprueba el rumbo que adoptan la ciencia y la tecnología (Soares y Fallenstein, 2014). Por muy seguro y democrático que suene esto, quizá sería mejor considerarlo un argumento populista. Empecemos por la ciencia: la ciencia es un mecanismo basado en principios que permite a la sociedad percibir su contexto con precisión. Por el contrario, la gobernanza es cómo elige una sociedad entre diferentes vías de acción posibles. El sentimiento popular no puede decidir qué es cierto sobre la naturaleza; solo determinar qué políticas son más fáciles de aplicar. Limitar la capacidad de una sociedad a percibir solo lo que quiere saber equivaldría a cegarla (Caliskan et al., 2017; ver análisis final). De un modo similar, el sentir popular influye en gran medida en las políticas aplicadas, pero desde luego no las determina. Por lo tanto, preguntar a la población qué espera de la IA es como preguntarle qué película de ciencia ficción preferiría ver hecha realidad: no hay garantía alguna de que elijan algo factible (por no hablar de deseable). Los ciudadanos deben determinar, a través del gobierno, sus prioridades económicas y políticas, pero el verdadero progreso casi nunca se consigue mediante referéndum. Por el contrario, la gobernanza suele consistir en negociaciones informadas entre un número limitado de negociadores expertos, con el apoyo de un número mayor, aunque también limitado, de conocedores de la materia.

Una tendencia preocupante en la gobernanza de la IA es la tendencia a adoptar el alineamiento de valores como solución a problemas de la ciencia en general y de ética de la IA en particular

Asimismo, a pesar de los enormes recursos que la explotación de la computación y la IA hacen posibles, es probable que los negociadores humanos sigan siendo siempre la mejor elección a la hora de determinar políticas. En parte porque, en calidad de ciudadanos, podemos identificarnos con quienes representamos y establecer con ellos una relación de confianza y compromiso para gestionar las decisiones negociadas. Pero, sobre todo, los representantes humanos pueden ser responsabilizados y convencidos de maneras que siempre estarán vetadas a un sistema de IA. No podemos diseñar sistemas para que se impliquen en las decisiones sociales como lo hace la inteligencia humana (o, de hecho, la inteligencia de cualquier animal social) tras siglos de evolución. No podemos hacerlo mediante el diseño, porque, por su naturaleza, es un proceso que se puede descomponer, mientras que la evolución ha descubierto repetidamente que la preocupación por la posición social debe ser un elemento inextricable de la inteligencia de los individuos de cualquier especie que dependa de estrategias sociales para su supervivencia. Así, nuestro sistema de justicia se basa en la disuasión so pena de aislamiento, pérdida de poder o de posición social. No podemos aplicar estos criterios de justicia a las máquinas que diseñamos y no podemos exigir responsabilidades mediante máquinas que no diseñamos cuidadosamente (Bryson et al., 2017; Bryson y Theodorou, 2019).

Por último, hay quienes han manifestado su preocupación por la potencial imposibilidad de regular la IA, dado su rápido ritmo de cambio. Es cierto que las capacidades humanas, incluida la de respuesta, son limitadas. Además, solo se pueden legislar a un ritmo determinado. De hecho, se introducen plazos y demoras en el proceso legislativo para garantizar que el ritmo de cambio no sea excesivo para la planificación tanto de las empresas como de las personas (Holmes, 1988; Cowen, 1992; Ginsburg, 2005; Roithmayr et al., 2015). Por consiguiente no es de esperar que la legislación siga el ritmo de cambio cada vez más acelerado que generan la IA y las TIC. Ya he sugerido que un mecanismo para forjar políticas sensatas puede ser contar con expertos que trabajen a través de organizaciones profesionales describiendo estándares (Bryson y Winfield, 2017). En tal caso, el papel del gobierno se reduciría a supervisar esta labor y aplicar sus resultados. Los argumentos que he expuesto aquí (y en Bryson y Theodorou, 2019) podrían interpretarse como una generalización de este principio. Me refiero a que no necesitamos cambiar la legislación, basta asegurarnos de que las organizaciones que desarrollan o explotan la IA se responsabilizan de las consecuencias de las acciones de sus sistemas usando los mecanismos de control tradicionales. Solo entonces estas organizaciones se verán obligadas a innovar en transparencia tanto como en el resto de apartados, a fin de poder demostrar que siempre han seguido la diligencia debida en sus sistemas.

Conclusiones

La IA ya está cambiando la sociedad a un ritmo más rápido de lo que pensamos, pero no es una experiencia tan inédita ni única como a menudo nos hacen creer. Otros avances, como el lenguaje y la escritura, las corporaciones y los gobiernos, las telecomunicaciones y el petróleo, ya ampliaron antes nuestras capacidades, alteraron nuestras economías y trastocaron nuestro orden social; en general, aunque no siempre y no para todos, para mejor. La prueba de que, de media, estamos mejor gracias al progreso es, irónicamente, quizá, la mayor amenaza a que nos enfrentamos hoy: debemos conseguir una vida sostenible y evitar la desaparición de la biodiversidad.

No obstante, la IA en particular y las TIC en general podrían requerir innovaciones radicales en nuestro modo de gobernar y, en especial, de recaudar dinero para la redistribución de riqueza. Nos enfrentamos a transferencias de riqueza transnacionales propiciadas por innovaciones empresariales que nos han arrebatado la capacidad de medir o identificar siquiera el nivel de ingresos generado. Además, esta nueva moneda de valor incognoscible consiste a menudo en datos personales y los datos personales dan a quienes los poseen un inmenso poder de predicción.

Sin embargo, más allá de los problemas económicos y de gobernanza, debemos recordar que la IA amplía y mejora lo que significa ser humano; en particular, nuestra capacidad de resolución de problemas. Frente a los desafíos globales de seguridad y sostenibilidad, estas mejoras prometen seguir aportando una ayuda significativa, siempre que desarrollemos mecanismos adecuados para regularlas. Con un catálogo sensato de políticas y organismos de regulación, deberíamos seguir ampliando y, también, limitando cuando corresponda, el potencial de aplicación de la IA.

Agradecimientos

Me gustaría dar las gracias a mis colaboradores; en especial, a Karine Perset por seleccionarme para la OCDE y por muchas buenas conversaciones, a mis (recientes) estudiantes de doctorado Andreas Theodorou y Rob Wortham, a Alan Winfield, con quien he trabajado revisando parte del contenido del presente artículo y ampliándolo para incluir el papel de las asociaciones profesionales (ver Bryson y Winfield, 2017), a Karen Croxson de la Financial Conduct Authority, la autoridad financiera de Reino Unido, y a Will Lowe, en especial por sus comentarios sobre los apartados relativos a las relaciones internacionales. Mi agradecimiento a la OCDE por autorizarme a reutilizar parte del material en trabajos académicos, como este libro. También quiero dar las gracias al AXA Research Fund por la financiación parcial de mi trabajo sobre la ética de la IA entre 2017 y 2020.

Notas

Bibliografía

—Abelson, H.; Yerson, R.; Bellovin, S. M.; Benaloh, J.; Blaze, M.; Diffie, W.; Gilmore, J.; Green, M.; Lyau, S.; Neumann, P. G. et al. (2015): «Keys under doormats: mandating insecurity by requiring government access to all data and communications», en Journal of Cybersecurity, vol. 1, n.º 1, p. 69.

—Adams, M. D.; KelleY, J. M.; Gocayne, J. D.; Dubnick, M.; Polymeropoulos, M. H.; Xiao, H. et al. (1991): «Complementary DNA sequencing: expressed sequence tags and human genome project», en Science, vol. 252, n.º 5.013, pp. 1.651-1.656.

—Aker, J. C. y Mbiti, I. M. (2010): «Mobile phones and economic development in Africa», en Journal of Economic Perspectives, vol. 24, n.º 3, pp. 207-232.

—Albrecht, J. P. (2016): «How the GDPR will change the world», en European Data Protection Law Review, vol. 2, n.º 3, pp. 287-289.

—Armstrong, H. y Read, R. (1995): «Western European micro-states and EU autonomous regions: the advantages of size and sovereignty», en World Development, vol. 23, n.º 7, pp. 1.229-1.245.

—Assael, Y. M; Shillingford, B.; Whiteson, S. y De Freitas, N. (2016): «LipNet: Sentence-level lipreading», documento ArXiv en preimpresión, n.º 1611.01599.

—Autor, D. H. (2015): «Why are there still so many jobs? The history and future of workplace automation», en The Journal of Economic Perspectives, vol. 29, n.º 3, pp. 3-30.

—Bandyopadhyay, A. y Hazra, A. (2017): «A comparative study of classifier performance on spatial and temporal features of handwritten behavioural data», en A. Basu, A. Das, P. Horain y S. Bhattacharya (eds.) (2016): Intelligent Human Computer Interaction: 8th International Conference, Pilani, India, del 12 al 13 de diciembre, Proceedings, Springer International Publishing, Cham, pp. 111-121.

—Barber, M. J. (2016): «Ideological donors, contribution limits, and the polarization of american legislatures», en The Journal of Politics, vol. 78, n.º 1, pp. 296-310.

—Barnosky, A. D. (2008): «Megafauna biomass tradeoff as a driver of quaternary and future extinctions», en Proceedings of the National Academy of Sciences, n.º 105 (suplemento 1), pp. 11.543-11.548.

—Barrett, D. P.; Barbu, A.; Siddharth, N. y Siskind, J. M. (2016): «Saying what you’re looking for: linguistics meets video search», IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 38, n.º 10, pp. 2.069-2.081.

—Barrows, E. M. (2000): Animal behavior desk reference: a dictionary of animal behavior, ecology, and evolution, Boca Ratón, CRC press.

—Bhorat, H.; Naidoo, K. y Pillay, K. (2016): «Growth, poverty and inequality interactions in Africa: an overview of key issues», notas de política del PNUD en África 2016-02, Nueva York, Programa de las Naciones Unidas para el Desarrollo.

—Bishop, C. M. (1995): Neural Networks for Pattern Recognition, Nueva York, Oxford University Press.

—(2006): Pattern Recognition and Machine Learning, Londres, Springer.

—Boden, M.; Bryson, J.; Caldwell, D.; Dautenhahn, K.; L. Edwards, S. Kember et al. (2011): «Principles of robotics», Engineering and Physical Sciences Research Council (EPSRC). Disponible en https://epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/principlesofrobotics/

—Bostrom, N. (2012): «The superintelligent will: motivation and instrumental rationality in advanced artificial agents», en Minds and Machines, vol. 22, n.º 2, pp. 71-85.

—Breslow, L.; Pritchard, D. E.; Deboer, J.; Stump, G. S.; Ho, A. D. y Seaton, D. T. (2013): «Studying learning in the worldwide classroom: research into edX’s first MOOC», en Research & Practice in Assessment, n.º 8, pp. 13-25.

—Brundage, M.; Avin, S.; Clark, J.; Toner, H.; Eckersley, P.; Garfinkel, B.; Dafoe, A.; Scharre, P. et al. (2018): «The malicious use of artificial intelligence: forecasting, prevention, and mitigation», Future of Humanity Institute, Universidad de Oxford, Centre for the Study of Existential Risk, Universidad de Cambridge, Center for a New American Security, Electronic Frontier Foundation y OpenAI, informe técnico, basado en un taller celebrado en Oxford en febrero de 2017. Disponible en https://maliciousaireport.com/

—Brundage, M. y Bryson, J. J. (2017): «Smart policies for artificial intelligence», en preparación, disponible como documento ArXiv, n.º 1608.08196.

—Brynjolfsson, E.; Rock, D. y Syverson, C. (2017): «Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics», Cambridge, National Bureau of Economic Researc.

—Bryson, J. J. (2003): «The Behavior-Oriented Design of modular agent intelligence», en R. Kowalszyk, J. P. Müller, H. Tianfield y R. Unland (eds.), Agent Technologies, Infrastructures, Tools, and Applications for e-Services, Berlín, Springer, pp. 61-76.

—(2008): «Embodiment versus memetics», en Mind & Society, vol. 7, n.º 1, pp. 77-94.

—(2015): «Artificial intelligence and pro-social behaviour», en C. Misselhorn (ed.), Collective Agency and Cooperation in Natural and Artificial Systems: Explanation, Implementation and Simulation, Berlín, Springer, pp. 281-306.

—(2018): «Patiency is not a virtue: the design of intelligent systems and systems of ethics», en Ethics and Information Technology, vol. 20, n.º 1, pp. 15-26.

—Bryson, J. J.; Diamantis M. E. y Grant, T. D. (2017): «Of, for, and by the people: the legal lacuna of synthetic persons», en Artificial Intelligence and Law, vol. 25, n.º 3, pp. 273-291.

—Bryson, J. J. y Theodorou, A. (2019): «How society can maintain human-centric artificial intelligence», en M. Toivonen-Noro y E. SaarI (eds.), Human-Centered Digitalization and Services, Springer, próxima publicación.

—Bryson, J. J. y Winfield, A. F. T. (2017): «Standardizing ethical design for artificial intelligence and autonomous systems», en Computer, vol. 50, n.º 5, pp. 116-119.

—Bullinaria, J. A. y Levy, J. P. (2007): «Extracting semantic representations from word co-occurrence statistics: a computational study», en Behavior Research Methods, vol. 39, n.º 3, pp. 510-526.

—Bullough, O. (2018): «The rise of kleptocracy: the dark side of globalization», en Journal of Democracy, vol. 29, n.º 1, pp. 25-38.

—Cadwalladr, C. (2017a): «Revealed: How US billionaire helped to back Brexit. Robert Mercer, who bankrolled Donald Trump, played key role with “sinister” advice on using Facebook data», en The Guardian, 25 de febrero.

—(2017b): «Robert Mercer: The big data billionaire waging war on mainstream media», en The Guardian, 26 de febrero.

—Calinon, S.; D’halluin, F.; Sauser, E. L.; Caldwell, D. G. y Billard, A. G. (2010): «Learning and reproduction of gestures by imitation», en IEEE Robotics & Automation Magazine, vol. 17, n.º 2, pp. 44-54.

—Caliskan, A.; Bryson, J J. y Narayanan, A. (2017): «Semantics derived automatically from language corpora contain human-like biases», en Science, vol. 356, n.º 6.334, pp. 183-186.

—Chessell, M. y Smith, H. C. (2013): Patterns of information management, Indianapolis, Pearson Education.

—Christians, A. (2009): «Sovereignty, taxation and social contract», en Minnesota Journal of International Law, n.º 18, p. 99.

—Chung, J. S. y Zisserman, A. (2017): «Lip reading in the wild», en S. H. Lai, V. Lepetit, K. Nishino y Y. Sato (eds.), Computer Vision. ACCV 2016: 13th Asian Conference on Computer Vision, Taipei, Taiwan, November 20-24, 2016: Revised Selected Papers, Part II, Cham, Springer International Publishing, pp. 87-103.

—Claxton, G. (2015): Intelligence in the Flesh: Why Your Mind Needs Your Body Much More than It Thinks, New Haven, Yale University Press.

—Comité Internacional de la Cruz Roja (2018): Ethics and autonomous weapon systems: An ethical basis for human control?, informe técnico, Ginebra, Comité Internacional de la Cruz Roja.

—Consejo Nacional de Espacio y Tecnología, Comisión de Tecnología (2016): «Preparing for the future of artificial intelligence», informe técnico, Oficina Ejecutiva del Presidente de Estados Unidos.

—Cooke, M. (1999): «A space of one’s own: autonomy, privacy, liberty», en Philosophy & Social Criticism, vol. 25, n.º 1, pp. 22-53.

—Cowen, T. (1992): «Law as a public good: the economics of anarchy», en Economics and Philosophy, vol. 8, n.º 2 , pp. 249-267.

—(2011): The Great Stagnation: How America Ate All the Low-Hanging Fruit of Modern History, Got Sick, and Will (Eventually) Feel Better, Old Saybrook, Tantor Media.

—Crabtree, A. y Mortier, R. (2015): «Human data interaction: Historical lessons from social studies and CSCW», en N. Boulus-Rødje, G. Ellingsen, T. Bratteteig, M. Aanestad y P. Bjørn (eds.), ECSCW 2015: Proceedings of the 14th European Conference on Computer Supported Cooperative Work, 19-23 September 2015, Oslo, Norway Cham, Springer International Publishing, pp. 3-21.

—Danezis, G.; Domingo-Ferrer, J.; Hansen, M.; Hoepman, J. H.; Metayer, D. L.; Tirtea, R. y Schiffner, S. (2014): «Privacy and data protection by design-from policy to engineering», informe técnico, Heraclión, Agencia Europea de Seguridad de las Redes y de la Información.

—Deng, J.; Xu, X.; Zhang, Z.; Frühholz, S. y Schuller, B. (2017): «Universum autoencoder-based domain adaptation for speech emotion recognition», en IEEE Signal Processing Letters, vol. 24, n.º 4, pp. 500-504.

—Dennett, D. C. (2013): Intuition Pumps and Other Tools for Thinking, Nueva York, WW Norton & Company.

—(2017): From Bacteria to Bach and Back, Londres, Allen Lane.

—Devos, T. y BanajI, M. R. (2003): «Implicit self and identity», en Annals of the New York Academy of Sciences, vol. 1.001, n.º 1, pp. 177-211.

—Dolata, U. (2017): «Apple, Amazon, Google, Facebook, Microsoft: market concentration-competition-innovation strategies», en SOI Discussion Paper 2017-01, Stuttgarter Beiträge zur Organisations-und Innovationsforschung.

—Editorial (2018): «China’s Orwellian tools of high-tech repression», en The Washington Post.

—Eichhorst, W. y Marx, P. (2011): «Reforming German labour market institutions: a dual path to flexibility», en Journal of European Social Policy, vol. 21, n.º 1, pp. 73-87.

—Ensafi, R.; Winter, P.; Mueen, A. y Cryall, J. R. (2015): «Analyzing the Great Firewall of China over space and time», en Proceedings on privacy enhancing technologies, abril, pp. 61-76.

—Erickson, B. J.; Korfiatis, P.; Akkus, Z; Kline, T. y Philbrick, K. (2017): «Toolkits and libraries for deep learning», en Journal of Digital Imaging, pp. 1-6.

—Eyben, F.; Weninger, F.; Lehment, N.; Schuller, B. y Rigoll, G. (2013): «Affective video retrieval: violence detection in Hollywood movies by large-scale segmental feature extraction», en PLoS ONE, vol. 8, n.º 12, e78506.

—Ford, M. (2015): Rise of the Robots: Technology and the Threat of a Jobless Future, Londres, Oneworld.

—Frischmann, B. M. y Selinger, E. (2016): «Engineering humans with contracts», 493, en Cardozo Legal Studies Research Paper, n.º 493. Disponible en https://ssrn.com/abstract=2834011

—Gabriel, I. (2017): «Effective altruism and its critics», en Journal of Applied Philosophy, vol. 34, n.º 4, pp. 457-473.

—Gates, C. y Matthews, P. (2014): «Data is the new currency», en Proceedings of the 2014 New Security Paradigms Workshop, NSPW ’14, Nueva York, ACM, pp. 105-116.

—Gilbert, S. F.; Sapp J. y Tauber, A. I. (2012): «A symbiotic view of life: we have never been individuals», en The Quarterly Review of Biology, vol. 87, n.º 4, pp. 325-341, n.º pmi, 23397797.

—Ginsburg, T. (2005): «Locking in democracy: constitutions, commitment, and international law», en New York University journal of international law and politics, vol. 38, n.º 4, p. 707.

—Goodman, B. y Flaxman, S. (2016): «EU regulations on algorithmic decision-making and a “right to explanation”», en B. Kim, D. M. Malioutov y K. R. Varshney, (eds.), ICML Workshop on Human Interpretability in Machine Learning (WHI 2016), Nueva York, pp. 26-30.

—Grama, A. (2003): Introduction to Parallel Computing, Harlow, Pearson Education.

—Griffin, H. J.; Aung, M. S. H.; Romera-Paredes, B.; Mcloughlin, C.; Mckeown, G.; Curran, W. y Bianchi-Berthouze, N. (2013): «Laughter type recognition from whole body motion», Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII), Ginebra, pp. 349-355.

—HaberL, H.; Erb, K. H.; Krausmann, F.; Gaube, V.; Bondeau, A.; Plutzar, C.; Gingrich, S.; Lucht, W. y Fischer-Kowalski, M. (2007): «Quantifying and mapping the human appropriation of net primary production in Earth’s terrestrial ecosystems», en Proceedings of the National Academy of Sciences, vol. 104, n.º 31, pp. 12.942-12.947.

—Haines, T. S. F.; Mac Aodha, O. y Brostow, G. J. (2016): «My text in your handwriting», en ACM Transactions on Graphics, vol. 35, n.º 3, art. 26, pp. 1-18.

—Hanahan, D. y Weinberg, R. (2011): «Hallmarks of cancer: the next generation», en Cell, vol. 144, n.º 5, pp. 646-674.

—Hancock, J. T.; Curry, L. E.; Goorha, S. y Woodworth, M. (2007): «On lying and being lied to: a linguistic analysis of deception in computer-mediated communication», en Discourse Processes, vol. 45, n.º 1, pp. 1-23.

—Herrmann, B.; Thöni, C. y Gächter, S. (2008): «Antisocial punishment across societies», en Science, vol. 319, n.º 5.868, pp. 1.362-1.367.

—Hofmann, M.; Geiger, J.; Bachmann, S.; Schuller, B y Rigoll, G. (2014): «The TUM gait from audio, image and depth (GAID) database: multimodal recognition of subjects and traits», en Journal of Visual Communication and Image Representation, vol. 25, n.º 1, pp. 195-206.

—Holmes, S. (1988): «Precommitment and the paradox of democracy», en Constitutionalism and democracy, n.º 195, pp. 199-221.

—Hsu, Feng-hsiung (2002): Behind Deep Blue: Building the Computer that Defeated the World Chess Champion, Princeton, Princeton University Press.

—Huang, B.; Li, M.; De Souza, R. L.; Bryson, J. J. y Billard, A. (2016): «A modular approach to learning manipulation strategies from human demonstration», en Autonomous Robots, vol. 40, n.º 5, pp. 903-927.

—Human Rights Watch (2018): «Eradicating ideological viruses: China’s campaign of repression against xinjiang’s muslims», informe técnico, Human Rights Watch.

—Hunter, L. W.; Bernhardt, A.; Hughes, K. L. y. Skuratowicz, E. (2001): «It’s not just the ATMs: technology, firm strategies, jobs, and earnings in retail banking», en Industrial &Labor Relations Review, vol. 54, n.º 2, pp. 402-424.

—ICO (2018): «Investigation into the use of data analytics in political campaigns: Investigation update», informe técnico, Reino Unido, Oficina del Comisionado de Información.

—Iyengar, S.; Sood G. y Lelkes, Y. (2012): «Affect, not ideology: social identity perspective on polarization», en Public Opinion Quarterly, vol. 76, n.º 3, p. 405.

—Jentzsch, N. (2014): «Secondary use of personal data: a welfare analysis», en European Journal of Law and Economics, pp. 1-28.

—Jia, S.; Lansdall-Welfare, T. y Cristianini, N. (2016): «Time series analysis of garment distributions via street webcam», en A. Campilho y F. Karray (eds.), Image Analysis and Recognition: 13th International Conference, ICIAR 2016, en memoria de Mohamed Kamel, Póvoa de Varzim, Portugal, del 13 al 15 de julio, Proceedings, Berlín, Springer International Publishing, Cham, pp. 765-773.

—Jordan, J. J.; Hoffman, M.; Nowak, M. A. y Ry, G. G. (2016): «Uncalculating cooperation is used to signal trustworthiness», en Proceedings of the National Academy of Sciences, vol. 113, n.º 31, pp. 8.658-8.663.

—King, G. y Zeng, L. (2001): «Improving forecasts of state failure», en World Politics, n.º 53, pp. 623-658.

—Kleinsmith, A. y Bianchi-Berthouze, N. (2013): «Affective body expression perception and recognition: a survey», en IEEE Transactions on Affective Computing, vol. 4, n.º 1, pp. 15-33.

—Krauss, L. M. y Starkman, G. D. (2000): «Life, the universe, and nothing: Life and death in an ever-expanding universe», en The Astrophysical Journal, vol. 531, n.º 1, p. 22.

—Laland, K. N.; Odling-Smee, J. y Feldman, M. W. (2000): «Niche construction, biological evolution, and cultural change», en Behavioral and Brain Sciences, vol. 23, n.º 1, pp. 131-146.

—Lamba, S. y Mace, R. (2012): «The evolution of fairness: explaining variation in bargaining behaviour», en Proceedings of the Royal Society B: Biological Sciences, vol. 280, n.º 1.750.

—Landau, J.-P. (2016): «Populism and debt: is Europe different from the U. S.?», charla en Princeton Woodrow Wilson School, en preparación.

—Lawrence, G. W.; Kehoe, W. R.; Y. Rieger, O.; Walters, W. H. y Kenney, A. R. (2000): «Risk management of digital information: a file format investigation», en Menlo College ResearchPaper 93, Washington D.C., Council on Library and Information Resources.

—Lee, D. S. (1999): «Wage inequality in the united states during the 1980s: rising dispersion or falling minimum wage?», en The Quarterly Journal of Economics, vol. 114, n.º 3, pp. 977-1.023.

—Lee, E.; Macvarish J. y Bristow, J. (2010): «Risk, health and parenting culture», en Health, Risk & Society, vol. 12, n.º 4, pp. 293-300.

—Levy, K. E. C. (2015): «Beating the box: resistance to surveillance in the United States trucking industry», capítulo de la tesis doctoral y manuscrito en preparación.

—Liao, S.-H. (2005): «Expert system methodologies and applications: a decade review from 1995 to 2004», en Expert Systems with Applications, vol. 28, n.º 1, pp. 93-103.

—List, C. y Pettit, P. (2011): Group agency: The possibility, design, and status of corporate agents, Nueva York, Oxford University Press.

—Liu, S.; Wang, X.; Liu, M. y Zhu, J. (2017): «Towards better analysis of machine learning models: a visual analytics perspective», documento ArXiv en preimpresión, n.º 1702.01226.

—Lowe, W. (2001): «Towards a theory of semantic space», en Proceedings of the Twenty-First Annual Meeting of the Cognitive Science Society, Edimburgo, Lawrence Erlbaum Associates, pp. 576-581.

—Mace, R. (1998): «The co-evolution of human fertility and wealth inheritance strategies», en Philosophical Transactions of the Royal Society of London B: Biological Sciences, vol. 353, n.º 1.367, pp. 389-397.

—Marshall, C. C.; Bly, S. y Brun-Cottan, F. (2006): «The long term fate of our digital belongings: toward a service model for personal archives», en Archiving Conference, n.º 1, pp. 25-30.

—McCarthy, J. (1983): «The little thoughts of thinking machines», en Psychology Today, vol. 17, n.º 12, pp. 46-49.

—McCarty, N. M.; Poole, K. T. y Rosenthal, H. (2016): Polarized America: the dance of ideology and unequal riches, 2.ª ed., Cambridge, MIT Press.

—Meng, X.-L. (2018): «Statistical paradises and paradoxes in big data (i): law of large populations, big data paradox, and the 2016 US presidential election», en The Annals of Applied Statistics, vol. 12, n.º 2, pp. 685-726.

—Meyer, B. (2016): «Learning to love the government: trade unions and late adoption of the minimum wage», en World Politics, vol. 68, n.º 3, pp. 538-575.

—Miguel, J. C. y Casado, M. A. (2016): «GAFAnomy (Google, Amazon, Facebook and Apple): the big four and the b-ecosystem», en M. Gómez-Uranga, J. M. Zabala-Iturriagagoitia y J. Barrutia (eds.), Dynamics of Big Internet Industry Groups and Future Trends: A View from Epigenetic Economics, Cham, Springer International Publishing, pp. 127-148.

—Milanovic, B. (2016): Global Inequality, Cambridge, Belknap Press of Harvard University Press.

—Mill, J. S. (1859): On Liberty, Londres, John W. Parker and Son.

—Miller, T. (2017): Storming The Wall: Climate Change, Migration, And Homeland Security, San Francisco, City Lights Books.

—Mishel, L. (2012): «The wedges between productivity and median compensation growth», en Issue Brief n.º 330, Washington D.C., Economic Policy Institute.

—Moeslund, T. B. y Granum, E. (2001): «A survey of computer vision-based human motion capture», en Computer Vision And Image Understanding, vol. 81, n.º 3, pp. 231-268.

—Morales, A. (2018): «Brexit has already cost the U.K. more than its E.U. budget payments, study shows», Bloomberg. Disponible en https://www.bloomberg.com/news/articles/2018-06-22/u-k-brexit-hit-already-exceeds-eu-budget-payments-study-shows

—Murphy, K. P. (2012): Machine Learning: A Probabilistic Perspective, Cambridge, MIT Press.

—Newman, E. J.; Sanson, M.; Miller, E. K.; Quigley-Mcbride, A.; Foster, J. L.; Bernstein, D. M. y Garry, M. (2014): «People with easier to pronounce names promote truthiness of claims», en PLoS ONE, vol. 9, n.º 2, e88671.

—Ngai, E. W. T.; Hu, Y.; Wong, H.; Chen, Y. y Sun, X. (2011): «The application of data mining techniques in financial fraud detection: a classification framework and an academic review of literatura», en Decision Support Systems, vol. 50, n.º 3, pp. 559-569.

—Oficina Ejecutiva del Presidente de Estados Unidos (2016): Artificial Intelligence, Automation, And The Economy, Washington D.C., diciembre.

—O’Reilly, T. (2017): WTF? What’s the Future and why It’s Up to Us, Nueva York, Random House.

—Pasquale, F. (2015): The Black Box Society: The Secret Algorithms That Control Money And Information, Cambridge, Harvard University Press.

—Person, R. (2018): «Gray zone tactics as asymmetric balancing», ponencia presentada en la reunion annual de la American Political Science Association.

—Perzanowski, A. y Schultz, J. (2016): The End of Ownership: Personal Property in the Digital Economy, Cambridge, MIT Press.

—Pinker, S. (2012): The Better Angels of our Nature: The Decline of Violence in History and Its Causes, Londres, Penguin.

—Price, G. R. (1972): «Fisher’s ‘fundamental theorem’ made clear», en Annals of Human Genetics, vol. 36, n.º 2, pp. 129-140.

—Reed, S.; Akata, Z.; Yan, X.; Logeswaran, L.; Schiele, B. y Lee, H. (2016): «Generative adversarial text to image synthesis», en Proceedings of The 33rd International Conference on Machine Learning, ICML, vol. 3.

—Roithmayr, D.; Isakov, A. y Ry, D. (2015): «Should law keep pace with society? Relative update rates determine the co-evolution of institutional punishment and citizen contributions to public godos», en Games, vol. 6, n.º 2, p. 124.

—Romanes, G. J. (1883): Animal intelligence, Nueva York, D. Appleton.

—Rosner, G. (2014): «Who owns your data?», en Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication, UbiComp ’14 Adjunct, Nueva York, ACM, pp. 623-628.

—Roughgarden, J.; Oishi, M. y Akçay, E. (2006): «Reproductive social behavior: Cooperative games to replace sexual selection», en Science, vol. 311, n.º 5.763, pp. 965-969.

—Russell, S. J. y Norvig, P. (2009): Artificial Intelligence: A Modern Approach, 3.ª ed., Englewood Cliffs, Prentice Hall.

—Santoni de Sio, F. y Van den Hoven, J. (2018): «Meaningful human control over autonomous systems: a philosophical account», en Frontiers in Robotics and AI, n.º 5, p. 15.

—Sartori, G.; Orru, G. y Monaro, M. (2016): «Detecting deception through kinematic analysis of hand movement», en International Journal of Psychophysiology, n.º 108, p. 16.

—ScheideL, W. (2017): The Great Leveler: Violence and the History of Inequality from the Stone Age to the Twenty-First Century, Princeton, Princeton University Press.

—Schena, M.; Shalon, D.; Heller, R.; Chai, A.; Brown, P. O. y Davis, R. W. (1996): «Parallel human genome analysis: microarray-based expression monitoring of 1000 genes», en Proceedings of the National Academy of Sciences, vol. 93, n.º 20, pp. 10.614-10.619.

—Schlager, K. J. (1956): «Systems engineering: key to modern development», en IRE Transactions on Engineering Management, n.º 3, pp. 64-66.

—Schmitt, J. (2013): «Why does the minimum wage have no discernible effect on employment», en Technical Report 22, Washington D.C., Center for Economic and Policy Research.

—Schuller, B.; Steidl, S.; Batliner, A.; Hirschberg, J.; Burgoon, J. K.; Baird, A.; Elkins, A.; Zhang, Y.; Coutinho, E. y Evanini, K. (2016): «The interspeech 2016 computational paralinguistics challenge: deception, sincerity & native Language», en Interspeech 2016, pp. 2.001-2.006.

—Selinger, E. y Hartzog, W. (2017): «Obscurity and privacy», en J. Pitt y A. Shew (eds.), Spaces for the Future: A Companion to Philosophy of Technology, Nueva York, Routledge, en prensa.

—Silver, D.; Huang, A.; Maddison, C. J.; Guez, A.; Sifre, L.; Schrittwieser, J.; Antonoglou, I.; Panneershelvam, V.; Lanctot, M. et al. (2016): «Mastering the game of go with deep neural networks and tree search», en Nature, vol. 529, n.º 7.587, pp. 484-489.

—Singer, P. (2015): The Most Good You Can Do: How Effective Altruism Is Changing Ideas About Living Ethically, Melbourne, Text Publishing.

—Singh, J.; Pasquier, T.; Bacon, J.; Ko, H. y Eyers, D. (2016): «Twenty security considerations for cloud-supported Internet of Things», en IEEE Internet of Things Journal, vol. 3, n.º 3, pp. 269-284.

—Sipser, M. (2005): Introduction to the Theory of Computation, 2.ª ed., Boston, Thompson.

—Smith, B. (2018): «Facial recognition technology: the need for public regulation and corporate responsibility», blog Microsoft on the Issues. Disponible en https://blogs.microsoft.com/on-the-issues/2018/07/13/facial-recognition-technology-the-need-for-public-regulation-and-corporate-responsibility/

—Soares, N. y Fallenstein, B. (2014): «Agent foundations for aligning machine intelligence with human interests: A technical research agenda», pendiente de publicación. Disponible en https://intelligence.org/files/TechnicalAgenda.pdf

—Solaiman, S. M. (2016): «Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy», en Artificial Intelligence and Law, pp. 1-25.

—Stewart, A. J.; Mccarty, N. y Bryson, J. J. (2018): «Explaining parochialism: a causal account for political polarization in changing economic environments», documento ArXiv en preimpresión n.º 1807.11477.

—Stoddart, D. M. (1990): The Scented Ape: The Biology and Culture of Human Odour, Cambridge, Cambridge University Press.

—Suwajanakorn, S.; Seitz, S. M. y Kemelmacher-Shlizerman, I. (2017): «Synthesizing Obama: Learning lip sync from audio», en ACM Transactions on Graphics, vol. 36, n.º 4, p. 95.

—Sylwester, K.; Mitchell, J.; Lowe, W. y Bryson, J. J. (2017): Punishment as aggression: Uses and consequences of costly punishment across populations, en preparación.

—Tepperman, J. (2016): The Fix: How Countries Use Crises to Solve the World’s Worst Problems, Nueva York, Tim Duggan Books.

The Economist (2017): «I, taxpayer: Why taxing robots is not a good idea. Bill Gates’s proposal is revealing about the challenge automation poses», edición impresa, 25 de febrero de 2017, archivo de la autora.

—Thies, J.; Zollhofer, M.; Stamminger, M.; Theobalt, C. y Nießner, M. (2016): «Face2Face: real-time face capture and reenactment of RGB videos», en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2.387-2.395.

—Touretzky, D. S. (1988): «On the proper treatment of thermostats», en Behavioral and Brain Sciences, vol. 11, n.º 1, p. 5.556.

—Trewavas, A. (2005): «Green plants as intelligent organisms», en Trends In Plant Science, vol. 10, n.º 9, pp. 413-419.

—Valentino, B. A. (2004): Final Solutions: Mass Killing And Genocide In The 20th Century, Ithaca, NY, Cornell University Press.

—Valstar, M. F. y Pantic, M. (2012): «Fully automatic recognition of the temporal phases of facial actions», en IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 42, n.º 1, pp. 28-43.

—Van Lange, P. A. M.; De Bruin, E.; Otten, W. y Joireman, J. A. (1997): «Development of prosocial, individualistic, and competitive orientations: theory and preliminary evidence», en Journal of Personality and Social Psychology, vol. 73, n.º 4, pp. 733-746.

—Van Schaik, C.; Graber, S.; Schuppli; C. y Burkart, J. (2017): «The ecology of social learning in animals and its link with intelligence», en The Spanish Journal of Psychology, n.º 19.

—Vincent, J. (2016): «Artificial intelligence is going to make it easier than ever to fake images and video», The Verge. Disponible en https://www.theverge.com/2016/12/20/14022958/ai-image-manipulation-creation-fakes-audio-video

—Weber, R. H. (2010): «Internet of Things: New security and privacy challenges», en Computer Law & Security Review, vol. 26, n.º 1, pp. 23-30.

—Widrow, B.; Rumelhart, D. E. y Lehr, A. A. (1994): «Neural networks: Applications in industry, business and science», en Communications of the ACM, vol. 37, n.º 3, pp. 93-105.

—Williams, C. P. (2010): Explorations in quantum computing, Londres, Springer Science & Business Media.

—Winston, P. H. (1984): Artificial Intelligence, Boston, Addison-Wesley. [Ed. esp. (1994): Inteligencia Artificial, Buenos Aires, Addison-Wesley Iberoamericana.]

—Wolpert, D. H. (1996a): «The existence of a priori distinctions between learning algorithms», en Neural Computation, vol. 8, n.º 7, pp. 1.391-1.420.

—Wolpert, D. H. (1996b): «The lack of a priori distinctions between learning algorithms», en Neural Computation, vol. 8, n.º 7, pp. 1.341-1.390.

—Wright, G. (1974): «The political economy of new deal spending: An econometric analysis», en The Review of Economics and Statistics, vol. 56, n.º 1, pp. 30-38.

—Wu, Y.; Schuster, M.; Chen, Z.; Le, Q. V.; Norouzi, M.; Macherey, W.; Krikun, M.; Cao, Y.; Gao, Q.; Macherey, K.; Klingner, J.; Shah, A. et al. (2016): «Google’s neural machine translation system: bridging the gap between human and machine translation», en Computing Research Repository (CoRR), abs, n.º 1609.08144.

—Yan, X. (2006): «The rise of China and its power status», en The Chinese Journal of International Politics, vol. 1, n.º 1, pp. 5-33.

—Yiu, E. (2016): «Alibaba tops Tencent as Asia’s biggest company by market value: new-economy companies that owe their revenue to technology and the internet are now more valuable than oil refineries, manufacturers and banks», en South China Morning Post, 5 de noviembre.

—Youyou, W.; Kosinski ,M. y Stillwell, D. (2015): «Computer-based personality judgments are more accurate than those made by humans», en Proceedings of the National Academy of Sciences, vol. 112, n.º 4, pp. 1.036-1.040.

Citar esta publicación
Escuchando
La última década y el futuro del impacto de la IA en la sociedad
Mute
Cerrar

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada