Ética para Rotwang

Compartir

rotwang_001

Bertrand Russell a una temprana edad propone una regla básica en su vida:

El bien de la mayoría precede al de la minoría.

Esta regla le obligaba a vivir de modo que sus acciones ayudaran a la mayor cantidad de gente posible. Y fue coherente con su pensar, siendo encarcelado varias veces por sus protestas contra las guerras injustas, y fue uno de los fundadores de Amnistía Internacional. Como matemático dejó importantes aportaciones en los fundamentos de las matemáticas: en su libro Principia Mathematica asienta las bases de la lógica y teoría de conjuntos, con las cuales pretende obtener todas las matemáticas. Para el mundo es mejor conocido como escritor y filósofo, ganador del premio Nobel de literatura, y controversial por sus escritos como el de “Por qué no soy cristiano”.

Esta regla del bien de la mayoría es usada en Star Trek, Into the darkness, en boca de Spock, donde existe el dilema ético de decidir qué hacer para buscar el bien para la mayoría, tal vez dejando morir a un individuo. El problema surge cuando defines a la mayoría. En la película hay otras especies. ¿También los incluyes? Muy pronto tendremos robots con un alto grado de inteligencia artificial ¿también los incluyes?

Los mayores avances del inicio del siglo se están llevando a cabo en distintos frentes, tanto científicos como tecnológicos. En las neurociencias, la nanotecnología, la biotecnología, las ciencias computacionales, la inteligencia artificial, por mencionar algunas, nos sorprenden a cada momento con noticias sobre lo que se puede hacer. Pero como dijo Bernard Shaw:

La ciencia siempre está en falta. Nunca soluciona un problema sin crear otros diez

Ya que lo no se da comúnmente es el cuestionamiento ético acerca de que si los avances tecnológicos deben hacerse o no. Un código de ética debería que existir para los ingenieros y para los científicos en cada disciplina, como en la bioética:

“… es la rama de la ética aplicada que reflexiona, delibera y hace planteamientos normativos y de políticas públicas para regular y resolver conflictos en la vida social, especialmente en las ciencias de la vida, así como en la práctica y en la investigación médica que afectan la vida en el planeta, tanto en la actualidad como en futuras generaciones.” Comisión nacional de Bioética, Secretaría de Salud, México

En 1991 Fernando Savater escribió Ética para Amador. Este libro inicialmente estaba dirigido a su hijo, con el amor de un padre que, siendo estudioso del tema, quiere darle algo a su hijo que le permita tener confianza para vivir.

“[Este libro] Ha sido pensado y escrito para que puedan leerlo los adolescentes: probablemente enseñará muy pocas cosas a sus maestros. Su objetivo no es fabricar ciudadanos bienpensantes (ni mucho menos malpensados) sino estimular el desarrollo de librepensadores.”

En nuestro caso particular, los que hacemos robots, y tomando en cuenta nuestra responsabilidad porque son nuestra creación, podríamos escribir una Ética para Astroboy, una guía que le indique a los robots los que es el bien y como elegir ese camino. ¿Esto es posible?

Nota que se delinean dos guías éticas relacionadas la robótica: la aplicada a los humanos, como creadores y como usuarios, y la que usan los robots para comportarse.

Una primera aproximación a la ética de los robots para comportarse son las tres leyes de la robótica de Asimov. Es curioso que estas leyes no son una guía moral, que se puede elegir, sino que están dentro del sistema operativo del robot. Esta postura indica que los robots son vistos sólo como máquinas, al contrario de otras en donde los avances en robótica nos hacen reflexionar sobre los robots de otra forma, como el transhumanismo.

En el First International Symposium on Roboethics (2004) se usó por primera vez la palabra Roboética de manera oficial (De Asís 2014). Asistieron filósofos, juristas, sociólogos, antropólogos, y científicos especialistas en robótica, para contribuir en el código ético del diseño, desarrollo, y uso de los robots (nuevamente la postura de robots como máquina). Firmaron una declaración, The World Robot Declaration, la cual, en una traducción libre dice:

“La próxima generación de robots será de compañeros que coexistirán con los seres humanos. Ellos asistirán a los seres humanos tanto física como psicológicamente; ellos contribuirán a la realización de una sociedad segura y pacífica. Para que la sociedad pueda aceptar y dar la bienvenida a los robots, es necesario definir e implementar ciertos estándares, modificar los entornos de trabajo y convivencia y las instituciones públicas deberán promover la introducción de los robots.”

De hecho la Roboética es definida por Veruggio (citado por Operto) como:

una ética aplicada cuyo objetivo es desarrollar herramientas científicas, culturales y técnicas que pueden ser compartidas por diferentes grupos sociales y credos. Estas herramientas buscan promover y alentar el desarrollo de la robótica para el avance de la sociedad humana y los individuos, y ayudan a prevenir el mal uso en contra de la humanidad.

Y esto urge pues con tristeza hemos sido testigos del uso de un robot, que se dedicaba a desarmar bombas, para matar a un hombre que mató policías en Dallas.

Y urge porque también porque ya hay drones que disparan.

Así que antes de preocuparnos por un Terminator que termine con la humanidad, tal vez debamos preocuparnos porque nosotros mismos usemos a los robots como herramientas para matarnos.

Debemos entonces escribir una Ética para Rotwang. Recuerda, Rotwang es ese científico que en Metrópolis (1921), crea a un robot para suplantar a María, y convencer a los obreros de no rebelarse.

Ya hablaremos en otra entrada sobre la ética y los derechos de los robots, por el momento terminamos con una frase de Bertrand Russell que podría entrar en estas guías Roboéticas:

Una vida buena es aquella inspirada por el amor y guiada por la inteligencia.

Divulgador científico. Matemático de formación, apasionado de la ciencia y la tecnología, sobre todo de los robots.

Be first to comment