La semana próxima tengo que intentar contribuir a responder a la pregunta de si el desarrollo de robots constituye un avance o un retroceso para la humanidad. Más o menos.
Pensando en ello, y volviendo a leer algunas cosas que tenía olvidadas en mi biblioteca, me veo obligado a concluir que debo defender la tesis de que hay que darse prisa en producir robots inteligentes.
Si no se ha hecho hasta ahora ha sido porque los científicos no han querido. Un robot inteligente sería notablemente superior al homo sapiens y eso atentaría contra nuestra autoestima. Para escabullirse de ese ataque frontal se ha evitado activamente completar el trabajo.
Una máquina inteligente es simplemente un dispositivo que posee conocimiento y reglas para manejarlo. Si le diésemos a la máquina ambas cosas, la cosa estaría hecha. Pero le privamos de ellas para preservar nuestro estatus.
De mis lecturas recuperé un ejemplo, bastante arcaico, pero que expresa esta tesis.
Un programador dio instrucciones a un ordenador para que inventara un relato breve que incluyese religión, aristocracia, sexo y misterio. Interesante, ¿no?
Esta fue la historia, inventada por la máquina, que apareció en la pantalla:
¡Dios mío! dijo la duquesa. Estoy embazada. ¿Quién habrá sido?
Los científicos (o escritores con conocimientos de esa naturaleza) se sienten amenazados ante la posibilidad de que haya máquinas realmente inteligentes. Ejemplos. Arthur Clarke dijo que “la primera máquina verdaderamente inteligente que invente el hombre será su último invento”. Según Marvin Minsky “una vez que la máquina haya alcanzando el nivel de inteligencia del ser humano, comenzará a educarse a sí misma. A los pocos meses habrá llegado al nivel de un genio. Y algo después su capacidad será incalculable”. Edward Fredkin predijo: “cuando las máquinas puedan comunicarse conspirarán (se supone que contra los humanos)”.
Bastaría con aplicar las leyes de la robótica de Asimov para eliminar esa clase de temores de un plumazo:
1.- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la primera ley.
3.- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o la segunda ley.
Clarke, Minsky o Fredkin lo saben, pero se hacen los locos.
En la novela de 1950 de Asimov (I Robot) la robopsicóloga Susan Calvin nos lleva a concluir que las máquinas inteligentes se interpusieron entre el homo sapiens y su extinción. ¿Cómo fue posible esto?
Sencillo: la máquina es inteligente y no posee personalidad. De este modo puede tomar decisiones verdaderamente racionales. Decisiones en las que están ausentes nuestras bajas pasiones. Hacer lo correcto para la humanidad es inevitable para una máquina inteligente. Todo está en las tres leyes de Asimov…
Hola
ResponderEliminarMe llamo Romina, soy administradora de un directorio web/blog. Tengo que decir que me ha gustado su página y le felicito por hacer un buen trabajo. Por ello, me encantaría contar con tu sitio en mi directorio, consiguiendo que mis visitantes entren también en su web.
Si estás de acuerdo. Házmelo saber.
Suerte con tu web!
rominadiazs@hotmail.com
¿Definir "DAÑO" llevaría su tiempo, no?
ResponderEliminarUn saludo
Seguramente no sería tan complicado establecer las cosas que podrían generar daño en los humanos. Puede que la lista sea relativamente larga, pero desde luego no infinita. Salu2, R
ResponderEliminar