Máquinas listas, pero sin sentido común

aje

Imaginen que tuviéramos una máquina para viajar en el tiempo y pudiéramos transportar a Isaac Newton desde finales del siglo XVII hasta la actualidad. Le llevaríamos a un lugar que le pudiera resultar familiar como, por ejemplo, la capilla del Trinity College en la Universidad de Cambridge. Una vez allí se le mostraría un teléfono móvil de última generación. Newton, que demostró que la luz blanca se descompone en diferentes colores al incidir un rayo de sol en un prisma, sin duda se sorprendería de que un objeto tan pequeño produjera colores tan vivos en la oscuridad de la capilla. Después el móvil sonaría con una música que pudiera reconocer, como una ópera de Händel. A continuación, le mostraríamos en la pantalla su obra Principia Mathematica y le haríamos ver cómo usar dos dedos para ampliar el texto. Supongamos también que le mostráramos cómo hacer fotos, grabar vídeos y sonido, hacer cálculos aritméticos con gran velocidad y precisión, contar los pasos que andamos, guiarnos hacía nuestro destino y, por supuesto, poder hablar con alguien a miles de kilómetros.

¿Sería capaz Newton de dar una mínima explicación de cómo funciona ese dispositivo? A pesar de que fue una de las mentes más brillantes de la historia, inventó el cálculo infinitesimal e integral, explicó tanto la óptica como la gravedad y formuló las leyes del movimiento de los cuerpos que revolucionaron la física, Newton sería incapaz de dar una explicación mínimamente coherente. No podría distinguir ese dispositivo de la magia. ¿Qué más podría imaginar este padre de la física de lo que puede hacer un dispositivo así? ¿Creería que puede funcionar indefinidamente? Al fin y al cabo, él vivió un siglo antes que Alessandro Volta, el inventor de la pila eléctrica. ¿Creería también que ese dispositivo puede transformar plomo en oro? La química en su época era la alquimia, así que posiblemente sí. Todos tendemos a no ver los límites de aquello que nos parece mágico.

Este es precisamente uno de los problemas que tenemos a la hora de imaginar las tecnologías del futuro. Como dijo Arthur Clarke en los años sesenta: “Cualquier tecnología lo suficientemente avanzada no puede distinguirse de la magia”. En inteligencia artificial (IA) ocurre exactamente lo mismo. Parece que su potencial no tiene límites, pero en realidad la IA permanece atascada desde hace más de 50 años en una cuestión fundamental: ¿cómo dotar de sentido común a las máquinas? Esta es una cuestión crucial si queremos lograr inteligencias artificiales de tipo general indistinguibles de la inteligencia humana. Hasta hoy, los investigadores en IA no ven ningún indicio que los lleve a poder afirmar que este problema pueda ser resuelto.

Tendemos a creer que la IA no tiene límites cuando de hecho es muy limitada y no tiene casi nada que ver con la inteligencia humana

¿Cuál es la situación real de la IA? Centrémonos en los espectaculares resultados obtenidos recientemente con lo que se conoce como deep learning (aprendizaje profundo), que han permitido que un software llamado AlphaZero haya conseguido, después de jugar contra sí mismo durante unas horas, aprender a jugar a Go y al ajedrez a unos niveles nunca antes alcanzados, superando con creces a los mejores jugadores humanos y también a los mejores jugadores software (que en ajedrez ya habían vencido hace tiempo a los mejores jugadores humanos). Pues bien, estos sistemas de aprendizaje profundo son sumamente limitados ya que únicamente son capaces de aprender a reconocer patrones analizando enormes cantidades de datos.

No es exagerado afirmar que, de hecho, no aprenden realmente nada en el sentido humano de lo que entendemos por aprender. Es decir que en realidad no saben nada nuevo después de haber sido entrenados para adquirir una competencia. Prueba de ello es lo que se conoce como “olvido catastrófico”, que significa que los sistemas de aprendizaje profundo pierden todo lo aprendido a partir del instante en que se les enseña a algo nuevo.

Por ejemplo, si después de haber “aprendido” a jugar a Go entrenamos a un sistema de aprendizaje profundo a diferenciar entre gatos y perros mostrándole millones de imágenes de ambos, aprenderá perfectamente a distinguirlos pero será incapaz de volver a jugar a Go. Habría que volver a entrenarlo para que de nuevo “aprendiera a jugar a Go” y esto provocaría que a continuación sería incapaz de distinguir los gatos de los perros.

Los verdaderos peligros ya están aquí y tienen que ver con la privacidad, la autonomía de los sistemas y con el sesgo de los algoritmos

El excesivo antropomorfismo creo que es el motivo por el que la sociedad tiene en gran medida una percepción errónea de lo que es la IA. Cuando nos informan de logros espectaculares de una IA específica en una competencia concreta, como el caso de AlphaZero, tendemos a generalizar y atribuimos a la IA la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos y hacerlo mucho mejor. En otras palabras, creemos que la IA no tiene límites cuando de hecho es extremadamente limitada y, lo que es más importante, no tiene casi nada que ver con la inteligencia humana.

Es cierto que la inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir, una IA fuerte y general. Pero por muy sofisticada que llegue a ser la IA siempre será distinta de la humana, ya que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Esto, sumado al hecho de que las máquinas muy probablemente no seguirán procesos de socialización y culturización, incide todavía más en que, por muy sofisticadas que lleguen a ser, las máquinas tendrán una inteligencia distinta a la nuestra.

El hecho de ser inteligencias ajenas a la humana, y por lo tanto ajenas a los valores y necesidades humanas, nos debería hacer reflexionar sobre posibles limitaciones éticas en el desarrollo de la IA. En particular, ninguna máquina debería tomar nunca decisiones de forma completamente autónoma ni dar consejos que requieran, entre otras cosas, de la sabiduría (producto de experiencias humanas) o de valores humanos.

El peligro de la IA no es la singularidad tecnológica por la existencia de unas futuras hipotéticas súper inteligencias artificiales. No, los verdaderos peligros ya están aquí y tienen que ver con la privacidad (vigilancia y control masivo de la ciudadanía); con la autonomía de los sistemas de IA (armas autónomas, high frequency trading en los mercados bursátiles); con la excesiva confianza acerca de sus capacidades (substitución de personas por máquinas en prácticamente cualquier puesto de trabajo); con el sesgo de los algoritmos de aprendizaje y las consiguientes decisiones erróneas que ello supone; con la incapacidad de rendir cuentas cuando la decisión es errónea; y con la imposibilidad para explicar esas decisiones en un lenguaje comprensible para las personas.

A pesar de sus limitaciones, la IA tiene un extraordinario potencial para beneficiar a la sociedad siempre y cuando hagamos un uso adecuado y prudente. Es necesario aumentar la conciencia sobre los límites de la IA, así como actuar de forma colectiva para garantizar que se utilice en beneficio del bien común con seguridad, fiabilidad y responsabilidad.