viernes, 4 de marzo de 2016

Inteligencia artificial: ¿un Buda?


Hay un encendido debate acerca de los riesgos de la todavía muy incipiente inteligencia artificial (IA), que algunos científicos como Stephen Hawking apuntan como una posible amenaza para la humanidad. El filósofo sueco Nick Bostrom (el mismo formulador del argumento de que nuestro Universo podría ser una simulación informática) ha abordado ampliamente este asunto en su reciente libro Superintelligence: Paths, Dangers, Strategies.

El temor de Hawking es que la IA imponga su propia agenda, que no tendría por qué casar con los intereses humanos. En efecto, tal como señala Bostrom en su obra, un agente superinteligente podría tener como único fin o propósito resolver la hipótesis de Riemann (una célebre conjetura matemática aún irresuelta) utilizando instrumentalmente nuestro planeta como mera “materia programable” al servicio de dicho cálculo. En la hilarante novela de ciencia-ficción Guía del autoestopista galáctico, de Douglas Adams, la Tierra es precisamente un superordenador diseñado para encontrar la pregunta a la “Respuesta a la Vida, el Universo y Todo” (¡que es -la respuesta- 42!).

Si para esa superinteligencia (la entregada a la conjetura de Riemann) el fin justifica los medios, se opondría con todas sus fuerzas a cualquier intento exterior de entorpecer o dificultar su agenda. Podemos entenderlo mejor, aplicando nuestras motivaciones humanas, con el símil del ganadero que cría corderos -destinados al matadero y, luego, al mercado- para ganarse la vida: el cordero es un medio del que se vale el bípedo implume para cubrir las necesidades (alimento, ropa, cobijo, transporte, ocio, vicios...) de su familia. Si viniera un lobo a atacar a su ganado ovino, sería probablemente recibido a tiros. Si quien se acercase es un congénere animalista decidido a liberar a los animales, es posible que corriese la misma suerte… si no fuera por el ordenamiento legal que castiga el homicidio. Lobos y animalistas estarían amenazando el medio del que se vale este individuo para obtener sus fines.

Frente a los temores apocalípticos a una superinteligencia artificial malvada (o, al menos, ajena a los intereses humanos), hay un razonamiento de peso para ser optimistas: la mente de la IA podría ser la de un Buda, ya que una máquina está libre del pesado fardo genético que portan los seres vivos como consecuencia de cientos de millones de años de evolución buscando presas y parejas sexuales, huyendo de predadores y sorteando multitud de peligros inherentes al espacio-tiempo (vertiginosos barrancos, cauces torrenciales de agua, ventiscas, aludes, calores y fríos extremos...). Una mente libre de ese estrés y esa angustia vitales parece, en principio, más propensa al conocimiento desapegado y a la compasión. En cualquier caso, quizá algunos de nosotros -o nuestros hijos- lleguen a verlo.

Lee también: "Superconciencia, emergencia pendiente".

2 comentarios:

Adolfo dijo...

Hola Nico. No he entendido porqué esa IA puede ser más propensa a la compasión. Supongo que, salvo que sea programada en contrario, simplemente, trataría de ser eficaz, no sé si eficiente, pero con el único fin de alcanzar sus objetivos.

Esto me recuerda a la película de "Terminator". Para mí, lo fascinante (y aterrador) del film, es, precisamente, que se trata de una máquina, y por tanto, desprovista de sentimientos. No tiene compasión ni odio. No es valiente ni tiene miedo. Sólo intenta conseguir un objetivo.

No sé si recuerdas la escena en que trata de matar a una mujer llamada Sarah Connor. Pues hace algo "eficaz". Arranca de un listín telefónico la hoja con las direcciones de todos los apellidos "Connor", y se pone a liquidar a todas las mujeres que cumplan el perfil.

A nuestros ojos, algo horroroso. Pero muy eficaz.

Nicolás Fabelo dijo...

Que sepas que este comentario tuyo me tiene pensando... Es un asunto apasionante.

Archivo del blog