Recientemente se ha hecho bastante popular un video por Internet que muestra a un robot encima de una mesa, el cual es controlado por ordenes verbales. En el video se aprecia como la persona ordena oralmente al robot sentarse y levantarse y este lo hace obedientemente. Sin embargo, cuando le ordena que avance, el robot replica y en un principio se niega, ya que seguir andando le haría caer de la mesa y podría dañarse. Solamente cuando el humano le asegura que él lo cogerá y no permitirá que se caiga, el robot accede a seguir avanzando. Podéis ver el video a continuación.


Es cierto que el hombre hace constantemente algo con su mano izquierda en el bolsillo, así que no sé hasta que punto el robot es totalmente controlado sólo verbalmente… En cualquier caso ver este vídeo me hace plantearme varias cuestiones y además, como aficionado a Asimov, repasar sus famosas leyes de la robótica.

Las leyes de la robótica

Asimov fue un prolífico escritor, tanto de historia, divulgación científica y ciencia ficción. En este último género lo más conocido es sin duda su Saga de la Fundación y por supuesto, su serie sobre los robots, donde por medio de sus protagonistas sometió a todo tipo de conflictos a sus famosas leyes. Recordemos cuales son:

  1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley

Tres simples reglas que deberían marcar el comportamiento “moral” de los robots. Por supuesto en las novelas se dan todo tipo de situaciones que pondrán en la cuerda floja esta “moralidad”. Una de las situaciones más sencillas para poner a prueba estas leyes se da cuando un robot debe elegir si dañar a un ser humano para evitar que dos o más sufran daño. Complicado, incluso para nosotros, ¿no?Robots, Leyes de la robótica

Estas leyes no dejan de ser una creación para la ficción, aunque esto no significa que mucha gente crea que pueden ser una base a aplicar en la tecnología que está por venir. Esto os sonará a chiste, pero lo cierto es que en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC por sus siglas en inglés) y el Consejo de Investigación de Artes y Humanidades (AHRC por sus siglas en inglés) de Gran Bretaña publicaron conjuntamente cinco principios éticos “para los diseñadores, constructores y los usuarios de los robots en el mundo real que como veréis, tienen mucho que ver con las de Asimov. Las cinco leyes son:

  1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Como veis, la esencia es la misma. La diferencia es que estas leyes son aplicables al mundo real, y esto nos dice mucho sobre el camino que está tomando la Inteligencia Artificial, pero sobre todo, el futuro desarrollo que tendrá y el empeño en asignarles unas reglas de “conducta”. Con esto, los robots, adquirirán una mayor autonomía, podrán tomar decisiones complejas basándose en esta falsa moralidad. El conflicto podría llegar con situaciones donde tengan que elegir y por eso me ha llamado la atención el video del principio y me lleva a cuestionarme varias cosas…

Robots autónomos y… ¿Autoconscientes?

En el ejemplo del vídeo (asumimos que es verídico y que el robot responde totalmente a comandos verbales) vemos que el robot rechaza una orden humana por dos veces, ya que cumplirla implica causarse algún posible daño. Sin embargo, una vez que el humano “promete” que le coge y no le dejará caer, el robot accede a seguir adelante. En cierto modo el robot deposita confianza en lo que el humano le dice.

Viendo esto me planteo varias preguntas, no enteramente relacionadas con este vídeo concreto. En caso de conflicto directo entre una orden programada en el robot y otra dicha oralmente, ¿cuál prevalece?, ¿tendrán la capacidad de analizar la situación y optar por la más indicada en cada momento? Esto desde luego les daría cierto “libre albedrío”, una capacidad de análisis y toma de decisiones, incluso si esto implica ir en contra de alguno de sus algoritmos. Por lo que ¿significa esto que podrían alcanzar la capacidad de auto-programarse? Esto les haría evolucionar, ir haciéndose a si mismos… Incluso, ¿qué les impediría crear otro robot, bot, etc y programarlo para cualquier propósito?Robots, Leyes de la robótica
Son temas que van más allá de lo puramente tecnológico y entran de lleno en lo moral o filosófico. Y aunque parezcan preguntas más orientadas a la ciencia ficción de Asimov que al mundo real, debemos ser conscientes de que la robótica y la Inteligencia Artificial avanzan rápidamente y que es posible que tengamos que hacer frente a estas cuestiones más pronto que tarde.

Lo que está claro es que los robots causan en las personas sentimientos tan complejos como la empatía, el desprecio o la afinidad. Realmente no tenemos definidos nuestros sentimientos hacía los robots. Y un gran ejemplo de ello lo oí el otro día a PW Singer hablando en TED (dejo el video al final por si queréis verlo, no tiene desperdicio). Se hizo una lista de los 100 héroes y 100 villanos favoritos de los espectadores de películas de Hollywood. ¿Sabéis cuál fue el único que apareció en ambas listas? Terminator. Esto es una prueba más de los sentimientos tan contrastados que nos inspiran los robots.

¿Y vosotros que opináis? ¿Creéis que los robots llegarán a desarrollar algún tipo de conciencia en sí mismos? ¿Podrán llegara a disfrutar de un “libre albedrío”? ¿O por el contrario opináis que la Inteligencia Artificial nunca podrá desarrollarse hasta ese punto?