Las leyes de robótica que como humanos podríamos seguir en un futuro
09 de diciembre de 2016
¿Son reversibles las leyes de la robótica para que las personas nos comportemos con las máquinas como queremos que los robots nos traten a nosotros? ¿Debemos formular algunas nuevas para que la convivencia sea lo más sana y productiva posible?
Decía Isaac Asimov que los robots debían seguir tres principios básicos:
- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Alteremos el orden y, donde pone robot, utilicemos persona y, donde pone humanos, hablemos de robot.
- Un ser humano no hará daño a un robot o, por inacción, permitir que un robot sufra daño.
- Un ser humano debe obedecer las órdenes dadas por los robots, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un ser humano debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Isaac Asimov. Fuente: Wikipedia
Pues parece que tiene todo el sentido del mundo. Incluso en la segunda ley, que puede resultar más chocante. Pero que no lo es tanto si pensamos que, en realidad, ya la estamos cumpliendo (¿acaso no nos fiamos más de un GPS que de nuestra propia intuición para llegar a nuestro destino y hacerlo por la ruta más rápida?)
Sin embargo, quizá donde también debemos plantearnos si tenemos que legislar es en la relación que deben tener las máquinas entre sí. Porque, no nos engañemos, tendemos a elucubrar sobre las relaciones entre máquinas y humanos y a dudar sobre si los robots nos quitarán (o no) los puestos de trabajo y si nos harán la vida más fácil o, por el contrario, suponen una amenaza.
Pero, ¿qué pasa con la relación de los robots entre sí? ¿Deben protegerse entre ellos? ¿Acaso no deberían evitar hacer daño a otras máquinas? ¿No estamos obligados, como humanos, a programar las máquinas para que sean “sensibles” y no cometan injusticias con otros robots?
Declaración universal de los derechos de la máquina
Estamos ante lo que algunos filósofos llaman el derecho de las máquinas. Estas voces consideran que sería irrazonable para un robot respetar los derechos humanos y, sin embargo, ignorar los derechos de otra máquina.
Si tenemos legislados los derechos de protección para animales y despreciamos las peleas de animales organizadas para el entretenimiento humano, podríamos aplicar esta misma regla de tres a las máquinas.
Es decir, que nos adentramos en las interacciones entre robot e Inteligencia Artificial (lo que en términos anglosajones resumen como AIonAI), campo donde los expertos abogan por elaborar una propuesta de Carta Internacional de Inteligencia Artificial, equivalente a la de la Declaración Universal de Derechos Humanos de las Naciones Unidas, con el fin de dirigir la investigación y el desarrollo en ingeniería robótica e ingeniería de inteligencia moral.
Esta ley sería la responsable de aventurar cómo deben ser esas futuras relaciones entre las diferentes máquinas, especialmente cuando interactúen entre sí. Algunos van a más, y apuestan porque la ley reconozca la dignidad inherente y los derechos inalienables de las inteligencias artificiales. El objetivo es que se evite la explotación y el abuso de los seres racionales y sensibles, pero también que ayude a reflexionar sobre nuestro código moral de la ética y la humanidad.
Una ética para la programación
Por eso, y ante el temor de que puedan utilizarse los desarrollos de Inteligencia Artificial para propósitos que contravengan las Leyes de la robótica, muchos apuestan por legislar este componente ético.
El objetivo es desarrollar robots y programas seguros, teniendo la certeza de que, desde la educación y la investigación, la base es esta conciencia filosófica. Algunos incluso abogan por crear un premio AIonAI anual para el desarrollo de Inteligencia Artificial diseñada de manera más altruista.
Por tanto, no estamos hablando tanto de futuro como de algo que tenemos que implantar ya desde el presente. Respetemos a las máquinas como tal, con su esencia, y hagámoslas respetuosas y tolerantes. Apliquemos en los humanos los mismos principios y leyes que establecimos para los robots, de manera que la Inteligencia Artificial y las máquinas se respeten a sí mismas y entre ellas. Así lograremos también cerrar el círculo.
1 comentario
Las leyes de robótica que como humanos p...
10 de diciembre de 2016
[…] Según Isaac Asimov, los robots debían seguir tres leyes de robótica. […]