La inteligencia artificial y las leyes de la robótica

Las leyes de la robótica ayudan a enfrentar el problema de la inteligencia artificial y sus efectos en el humano. 

 E. Arenas P.

Las leyes de la robótica son normas unificadoras de principios elaboradas inicialmente por Isaac Asimov (profesor de bioquímica, Facultad de Medicina, Universidad de Boston; escritor de ciencia ficción,1920-1992) impresas en el código del programa alojado en la memoria principal -el cerebro- de la mayoría de los robots (máquinas creadas para cumplir órdenes y ayudar en las tareas, p.ej.: las computadoras) para regular su función, no se pueden eludir: son una característica de seguridad que él escribió para establecer cómo ésos interactuarían con los humanos y entre ellos. Vieron luz en el relato «Círculo Vicioso» (1942).

Primera Ley: Un robot no dañará a un humano ni por inacción permitirá que un humano sufra daño.

Segunda Ley: Un robot cumplirá las órdenes dadas por los humanos, a excepción de las que entren en conflicto con la primera ley.

Tercera Ley:  Un robot protegerá su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Asimov agregó una cuarta (Ley Cero, que apareció en la novela «Robots e Imperio», 1985) para preceder a las demás, subordinándolas: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Esas leyes representan el código moral del robot que debe actuar siempre bajo sus imperativos y surgieron como medida de protección para los humanos frente a unas máquinas que -hipotéticamente- pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro del robot se dañaría y el robot «moriría».

Estas leyes han impactado en el pensamiento sobre la ética de la inteligencia artificial (IA), propiedad tecnológica presente en nuestro día a día (basada en software que responde a instrucciones preestablecidas), un campo donde el avance a ritmo vertiginoso hace que se ignore adónde irá a parar y que ya llega a situaciones en las que es lícito preguntar: ¿es posible que un robot viole alguna ley y «dañe» a un humano?

Se podría responder «sí» porque -según lo que se observa- el diseño de las herramientas de IA con “inteligencia humana competitiva” (IHC) -software «de inferencia» que aprende con base en su interacción con humanos, actualmente en pruebas y en implementación abierta (no limitada a la investigación y desarrollo)- confiere peculiaridades que hacen del robot una creación suficientemente versátil y flexible como para poder elegir entre diferentes cursos de comportamiento cuyas consecuencias pueden ser buenas y hasta peligrosas, poniendo en duda la capacidad del robot de cumplir con dicha jerarquía legal y esto preludia posibles y profundos riesgos, conflictos y problemas (a corto y a largo plazo que deben tomarse en serio, como los planteados en 12 investigaciones hechas por expertos académicos universitarios, grupos de la sociedad civil de Estados Unidos de América y la Unión Europea, así como por empleados y ex-empleados de OpenAI, Google y su filial DeepMind) que pueden impactar contra mucho de la humanidad en lo personal, lo organizacional, lo empresarial y más e incluso causar efectos inesperados al influir en los procesos decisorios superiores, la guerra nuclear y otras amenazas existenciales por lo que es sensato tener en cuenta los casos «cisne negro» (que parecen improbables, por ende: imprevisibles, pero que tendrían consecuencias devastadoras).

Hace poco, padres de estudiantes de institutos educativos estadounidenses pidieron retirar de ahí las computadoras y fue clamor -entre la gente de la clase social más favorecida financieramente- el respaldo a ello, pues llevan a que el humano ordene lo que se ha de hacer sin entrar en el proceso intelectual de la lógica analítica y de la síntesis conclusiva que lleva hacia la decisión e implementación, generándose así gente que no usa su mente y pierde la eficiencia funcional intelectual: un daño inmenso, pues… órgano y función que no se usan: ¡se atrofian!

Hace días, Elon Musk y 1.800 firmantes más publicaron una carta en la que piden frenar urgentemente -por seis meses- el avance de la IA con IHC en el desarrollo de sistemas más potentes que los que ya ¡tienen LIBERTAD para actuar!, como: ChatGPT-4 y el nuevo ChatGPT plus de OpenAI (app adoptada multitudinariamente, que vigila a sus usuarios y mucho más; p.ej.: mantiene conversaciones similares a las humanas, compone canciones y resume documentos extensos).

Los firmantes fueron acusados de interponer escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA con IHC (que generan el código completo de una página web y permiten la entrada de textos e imágenes, lo que ha llevado a desaparecer oficios y puestos de trabajo).

Otros grupos de ingenieros en informática piden frenar hasta que sus riesgos sean debidamente considerados, pues lo hallado envuelve la manipulación de la información y la merma de la capacidad reactiva del humano hasta someterlo y esclavizarle. (https://cutt.ly/27dtaxz)

Marc Rotenberg (Presidente y Director Ejecutivo del Electronic Privacy Information Center y profesor de leyes de privacidad de la información en Georgetown Law) dijo que las leyes de la robótica deben ampliarse con dos nuevas: una Cuarta -quinta- Ley, según la cual un robot debe poder identificarse ante el público (identificación simétrica) y una Quinta -sexta- Ley, que dicta que un robot debe poder explicar al público su proceso decisorio (transparencia algorítmica).

La IA «generativa» puso al mundo patas arriba. Las finanzas no escapan de la onda expansiva y las principales empresas empiezan a ponerse las pilas: la eficiencia de la gente y los mercados puede comprometerse por la asimetría de la información «privilegiada» disponible a un precio elevado (US$ 24.000/año).

Es oportuno cerrar con lo dicho por Asimov: «Las leyes son la única forma en que los seres humanos racionales pueden lidiar con los robots, o con cualquier otra cosa», teniéndose presente que las condiciones éticas de quienes usan IA condicionan sus efectos, considerando (tristemente) que ¡los humanos no siempre son racionales ni sapiens..! y que ignorar los daños activos es un privilegio que algunos no tenemos (Margaret Mitchel, Jefa de ética científica en la empresa de IA Hugging Face).