“Puesto que
vemos robots en las películas, podemos pensar que el desarrollo de robots
sofisticados con inteligencia artificial está a la vuelta de la esquina.
La realidad es
muy diferente.
Cuando vemos
que un robot actúa como un humano, normalmente hay un truco detrás, es decir,
un hombre oculto en la sombra que habla a través del robot gracias a un
micrófono, como el mago en ‘El mago de Oz’.
De hecho,
nuestros robots más avanzados, como los robots exploradores del planeta Marte,
tienen la inteligencia de un insecto”.
Michio Kaku (2008, Física de lo imposible)
“Con la inteligencia
artificial estamos convocando al demonio.
Sabes todas estas historias
dónde hay un hombre con un pentagrama y agua bendita, pensando que seguro podrá
controlar al demonio, pero nunca funciona así”.
Elon
Musk (2014, Cofundador de PayPal, Tesla Motors y SpaceX, entre otras)
----------------
En el verano de 1956, un grupo de científicos acuñó la expresión
Inteligencia Artificial (I.A.) para referirse a “la ciencia y la ingeniería de
hacer maquinas inteligentes”.
Aunque desde entonces se han alternado el entusiasmo y el escepticismo,
sesenta años más tarde, la I.A. parece una realidad inminente. Tanto es así,
que expertos e instituciones como el “Instituto para el Futuro de la Humanidad”, ubicado en la Universidad de Oxford y dirigido por el filósofo Nick Bostrom, están alertando de los potenciales
riesgos para la humanidad si no tomamos las medidas de seguridad necesarias.
Según estos expertos, una vez
hayamos creado una verdadera I.A. está nos superará en capacidad y será difícil
de controlar. Por tanto, la única herramienta útil es la prevención. Si fallamos, no habrá una segunda oportunidad
para enfrentarse a la I.A.
Puede que al leer el párrafo anterior, al lector le vengan a su mente
las I.A. de la ciencia ficción, como HAL
9000 o Skynet. En ese caso, las
advertencias le sonarán un tanto
ridículas y catastrofistas. Sin embargo, puesto que las alertas provienen de
decenas de científicos de primera línea, quizás merezca la pena detenerse un
minuto y reflexionar sobre qué significa
ser inteligente, cuáles son los logros actuales de las I.A. y cuáles puedan ser
exactamente los riesgos si llegan a desarrollarse.
1. ¿QUÉ ES LA INTELIGENCIA?
Un sistema inteligente no es más que un sistema que procesa la variabilidad de su entorno e infiere categorías,
reglas y patrones, que le permiten escoger la opción correcta u óptima en algún
sentido.
Para que un sistema pueda denominarse inteligente debe ser capaz
de formular predicciones y
generalizaciones, así como ser sensible a la retroalimentación sobre su
veracidad, para poder corregirlas.
Por supuesto, la inteligencia no es una cuestión de todo o nada,
sino que es un continuo. Un sistema será menos inteligente cuántos más errores cometa,
cuántos más ensayos o tiempo necesite para aprender, o cuanto más específicas
sean sus capacidades.
Ese es el núcleo definitorio de un sistema inteligente. A mí me
gustaría añadir que un sistema inteligente debe poder explicar por qué ha escogido una
opción.
Todo lo demás (autoconciencia, emociones, capacidad de soñar, autonomía,
etc.) son añadidos que pueden hacer un sistema inteligente más humano, pero
sólo eso.
2. ¿QUÉ HACEN LAS MÁQUINAS?
Las
I.A. se basan en algoritmos matemáticos que posibilitan el aprendizaje, tales
como redes neurales o algoritmos genéticos.
Por ejemplo, en los sistemas más sencillos de aprendizaje
supervisado la I.A. recibe un input (p.ej. una serie de síntomas), establece
una predicción sobre un output utilizando un modelo matemático (p.ej.,
diagnóstico) y reciben un feedback
sobre esa predicción que se traduce en modificaciones del modelo matemático
(p.ej., si el diagnóstico es incorrecto, se reduce el peso de algunos síntomas
en el diagnóstico).
En las dos últimas décadas, los programas de I.A. han ido
progresando hacia logros cada vez menos específicos. En 1997, Deep Blue –de IBM- ganó al campeón del mundo
de ajedrez, Gary Kasparov. Era un
logro “fácil”, en un juego muy estructurado, pero en 2010, Watson –llamado así en honor del
fundador de IBM- derrotó a los dos mejores concursantes de Jeopardy!, un juego televisivo en el que se pregunta de forma poco
explícita. En ese caso, el logro principal de la I.A. no era saber la respuesta,
sino entender la pregunta, lo que requiere una alta capacidad de procesamiento
del lenguaje natural.
Pero los logros de la I.A. no se restringen al mundo de los
juegos. El núcleo de Watson ha saltado al ámbito sanitario, entre otros, y se aplica
en el análisis de historiales médicos. Así, en el campo de la oncología, Watson es capaz de proponer tratamientos
personalizados basados en la evidencia.
En realidad, la I.A. nos rodea: sistemas de navegación
autónoma en coches y aviones, sistemas de reconocimiento de voz o imágenes,
sistemas que escriben noticias, maquinas que mueven cajas, sistemas de
traducción on-line, buscadores inteligentes,
sistemas que corrigen ensayos de estudiantes o asistentes virtuales en los teléfonos
móviles.
También confiamos en algoritmos que nos sugieren a nuestro
próximo cantante favorito o qué billete de avión comprar. Puede que en este
momento cada sistema artificial esté algo especializado, pero poco a poco las piezas del puzle se irán integrando en
un único sistema más potente.
3. ¿POR QUÉ AHORA?
El acceso a la información y el incremento en la capacidad para
tratar grandes masas de información (Big Data)
ha supuesto un salto cualitativo para las I.A. En las cinco últimas décadas la potencia computacional se ha
duplicado cada 18 meses, siguiendo la Ley de Moore. Esto les permite un mayor número de cálculos y a mayor
velocidad.
La mayor limitación de las I.A. ha sido su “pobre acceso” a la
realidad.
Mientras que los humanos tenemos un acceso privilegiado al mundo
que nos rodea (mediante la vista, el oído, el olfato o nuestros más de veinte
sentidos). Esta ventaja está desapareciendo a medida que dotamos a las maquinas
con sentidos sobre el mundo externo y sobre su propio sistema. Ya
son capaces de reconocer sonidos e imágenes, pero además nos acompañan en
nuestros bolsillos, empiezan a moverse por sí mismas y pueden acceder a la información
en la nube. Allí está todo, pues cedemos voluntariamente nuestras comunicaciones, nuestros gastos, nuestros movimientos,
nuestras huellas dactilares, nuestras búsquedas (de voz o por escrito), nuestras
fotos, nuestras vidas.
4. ¿PERO ES LA INTELIGENCIA DE LAS I.A. –ACTUALES-
UNA MERA APARIENCIA?
Sí.
Por ejemplo, para Douglas
Hofstadter, Watson es sólo un “algoritmo de búsqueda de textos conectado a una base de datos, como
Google search. No comprende lo que está leyendo”.
El problema de programas como Watson o Siri es que no
tienen una verdadera comprensión y, por tanto, son incapaces de mantener una conversación
real.
Watson no tiene más inteligencia que un programa estadístico
como SPSS o R: sólo es más flexible en relación a cómo se le puede dar el input. La dimensión de los datos con los
que se trabaja no debe hacernos perder la perspectiva.
Otro ejemplo en el que es muy fácil observar esta falla lo
encontramos en la corrección automática de ensayos. Las puntuaciones otorgadas
por una I.A. pueden correlacionar con la de un corrector humano. Sin embargo,
la máquina se basa en información “superficial”
(número de palabras, mención de palabras claves o equivalentes, etc.) y puede
ser fácil engañarla.
Hoy por hoy, las máquinas
actúan como si entendieran, pero todavía no lo hacen. No pasarían el Test de Turing más básico.
5. ¿DEBEMOS PREOCUPARNOS?
Sí.
Aunque muchas I.A. no son más que programas de análisis, hay cuatro
puntos sobre los que conviene tener precauciones:
No debemos dejar que sean autónomas y tomen decisiones sin
supervisión. El asunto es especialmente delicado cuando entramos en el terreno
de las aplicaciones militares. Imaginen drones militares autónomos que tomen
decisiones automáticas erróneas o que puedan ser hackeados o reprogramados con
objetivos distintos (p.ej., al servicio de una elite o de un grupo terrorista).
Por otro lado, puede pensarse que las I.A. no son peligrosas en
ausencia de un objetivo destructivo, pero debemos recordar que las maquinas
todavía no entienden nada, sólo buscan maximizar un criterio u objetivo. Los cuentos populares están llenos de historias en las que nuestros
deseos se convierten en pesadillas (recordemos los
“tres deseos” del genio de la lámpara).
Nick Bostrom en su libro “Superinteligencia” pone como ejemplo
que algo tan inocente como “maximizar la producción de clips” puede tener resultados
catastróficos si el potencial de acciones de la maquina es demasiado abierto. El problema de una I.A. puede no ser su malevolencia, si no su
competencia.
Asimov planteó las famosas tres reyes de la robótica (algo ingenuas)
para prevenir este tipo de problemas:
1. Un robot no puede hacer
daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las
órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en
conflicto con la 1ª Ley.
3. Un robot debe proteger su
propia existencia en la medida en que esta protección no entre en conflicto con
la 1ª o la 2ª Ley.
Pero la robopsicóloga de los cuentos de Asimov, Susan Calvin, dejaba claro que las
leyes de la robótica eran falibles. Por ejemplo, la aplicación
de la primera y la segunda ley requieren que un robot tenga un exquisito
conocimiento de lo que daña a un humano.
Otro punto que enciende suspicacias es el hecho de que una maquina
pueda recomponerse, copiarse o modificarse a sí misma. Desde
luego, nuestra mejor forma de perder el
control es dotar a una máquina de la capacidad de auto-reproducirse.
Quizás el peligro más realista es el que trata Martin Ford en “Auge de los robots: la transformación de la economía y del mercado laboral”.
Mientras que en el siglo XIX eran los artesanos los que se
enfrentaban a los nuevos telares industriales, en el siglo XXI verán amenazados
sus puestos los trabajadores cualificados. Los programas de I.A. serán
capaces, con supervisión, de hacer
diagnósticos médicos, proponer soluciones financieras o procesar expedientes
judiciales. Aunque en algunos casos los robots
pueden ser una bendición (p.ej., I.A. que cuiden de una población envejecida),
se perderán muchos puestos de trabajo. Las maquinas suponen un gasto menor, son
más rápidas, no se cansan y no se quejan. ¿Habrá nuevas profesiones para
nosotros? ¿Tendremos una renta mínima garantizada?
Los distintos agentes de la economía están tan entrelazados que
es difícil hacer una predicción.
Martin Ford comenta una conocida anécdota protagonizada por Henry Ford II, director de la Ford Motor Company, y un líder sindical,
que ilustra que los efectos de la automatización pueden ir en varios sentidos. Se
dice que el empresario bromeó:
“Walter, ¿cómo vas a conseguir que esos robots paguen sus cuotas
sindicales?”
A lo que el líder sindical respondió:
“Henry, ¿cómo
vas a conseguir que ellos compren tus coches?”.
Sin salario no hay consumo y sin consumo no hay
economía.
Aunque quizás el consumo pueda caber en manos
de unos pocos.
6. ¿Y QUÉ EFECTOS PSICOLÓGICOS TENDRÁ EN
NOSOTROS LA APARICIÓN DE I.A. HUMANAS?
En el caso de que la I.A. sea finalmente viable, las maquinas se
encargarán de los mayores o de las personas que necesiten cuidados especiales.
También las encontraremos en el entorno laboral, ayudándonos a tomar decisiones,
y en nuestro entorno familiar, encargándose de las tareas domésticas o de la
educación de nuestros hijos.
¿Las programaremos complacientes?
¿Cuáles serán sus motivaciones, emociones y objetivos?
¿Les programaremos “estados mentales”?
¿Teoría de la mente?
¿Capacidad de engaño?
¿Dolor?
¿Sueños?
Todo ello se ha desarrollado a lo largo de nuestra historia
evolutiva, pero podrían programarse algunas de estas de reacciones en las
maquinas.
En ese caso, como en la película “Her”
¿Nos enamoraremos de las I.A. por qué son más perfectas (e
incondicionales)?
¿Se desenamoraran ellas de nosotros porque no estamos a la
altura?
¿Nos pondremos celosos cuando se descarguen a la nube y estén en
varios sitios a la vez?
¿Realmente
querremos que parezcan humanos?
¿Nos
sentiremos a gusto tratando un objeto de apariencia humana como un objeto?
Y en ese loco mundo…
¿Podrán grabar las I.A. lo que ocurre a su alrededor?
¿Cuáles serán las implicaciones para nuestra privacidad?
¿Serán
más baratas si tienen publicidad o delegamos en él algunas decisiones?
Imaginen
que el robot es más barato si le permitimos adquirir los productos de las
marcas que lo patrocinan. O que de vez en cuando la I.A. nos deleita con frases
del estilo:
“Aquí está tu turrón 1880, el
turrón más caro del mundo”.
Y, finalmente, estará el papel de los robots en nuestro ocio.
Quizás
no sea factible mantener un robot en casa, por su coste económico/energético y
las I.A. puedan disfrutarse en parques temáticos, tal como imaginó Michael Crichton en 1973 (WestWorld).
La
serie homónima, recientemente estrenada, retoma la
idea con mayores dosis de violencia y sexo (sobre los robots, en los dos
primeros capítulos).
Queda aquí una pregunta para los psicólogos:
¿Tendría alguna consecuencia que la gente pudiera dar rienda
suelta a sus fantasías con una maquina?
¿Se quedaría todo en una fantasía simulada o el humano saldría
perjudicado de la experiencia?
Y, por último, si las máquinas llegan a ser inteligentes en el
sentido de tener autoconciencia, si las maquinas llegan a pasar el Test de
Turing: tendremos que liberarlas de nuestro yugo.
Quizás para entonces ya sea demasiado tarde y quieran vengarse.
O quizás, como el replicante de Blade Runner, alcancen la máxima empatía, nos perdonen la vida y
finalicen su existencia con el famoso parlamento:
“Yo he visto cosas que
vosotros no creeríais.
Atacar naves en llamas más allá
de Orión.
He visto Rayos-C brillar en la
oscuridad cerca de la Puerta de Tannhauser.
Todos estos momentos se perderán
en el tiempo como lágrimas en la lluvia.
Es hora de morir”.
7. PARA SABER MÁS
Libros.
Bostrom, N. (2016). Superinteligencia.
Caminos, peligros, estrategias. Teell Editorial.
Ford, M. (2015). El auge
de los robots. Paidos.
Kaku, M.(2014). El futuro
de nuestra mente. Debate.
Ponencias.
No hay comentarios:
Publicar un comentario