Las leyes de la Inteligencia Artificial y su consciencia. Inteligencia artificial (iv).

 


Desde entonces estas leyes, que no son de obligado cumplimiento para los creadores de las inteligencias artificiales, han ido evolucionando y dejando una impronta relevante en la ética robótica —recordemos que en la actualidad en la robótica se implementa algún tipo de inteligencia artificial— que culmina inicialmente en 2016 con las seis reglas para construir y diseñar inteligencias artificiales que publicó Satya Nadella —director ejecutivo de Microsoft desde 2014— en la revista Slate: 

 

Asistencia a la humanidad. La IA debe diseñarse para ayudar a los humanos y respetar su autonomía.

Transparencia. No basta con que las máquinas sean inteligentes; deben ser "inteligibles" para que entendamos cómo analizan el mundo.

Eficiencia sin destruir la dignidad. Debe maximizar la productividad mientras promueve la diversidad y los valores culturales.

Privacidad inteligente. Protección sofisticada que asegure la información personal y grupal para ganar confianza.

Responsabilidad algorítmica. Los humanos deben poder deshacer cualquier daño imprevisto causado por la IA.

Protección contra el sesgo. Uso de investigación representativa para evitar que la IA replique discriminaciones humanas. 

 

Según Nadella, las reglas deben ir vinculadas a ciertos deberes que deben desarrollar los seres humanos para que la convivencia entre la inteligencia artificial y nosotros mismos funcione. Estos deberes son:

 

Empatía: Percibir sentimientos y colaborar para construir relaciones.

Educación: Inversión constante para alcanzar niveles de pensamiento superiores y gestionar innovaciones futuras.

Creatividad: La capacidad de crear seguirá siendo una característica esencialmente humana.

Juicio y responsabilidad: Aunque aceptemos decisiones generadas por ordenador, un humano debe ser siempre el responsable último de los resultados. 

 

Estas reglas han evolucionado hacia los actuales Principios de Inteligencia Artificial Responsable —cuyo acróstico en español sería, curiosamente, PIAR— promulgados por una de las empresas más importantes que existen en la actualidad, Microsoft, e incluyen la equidad, fiabilidad y seguridad, privacidad, inclusión, transparencia y responsabilidad en lo referente a la creación y uso de la inteligencia artificial. Los principios —extraídos de la información facilitada por la empresa— promulgados a partir de las reglas anteriores son:

 

Equidad. Los sistemas de IA deben tratar a todas las personas de forma equitativa.

Confiabilidad y seguridad. Los sistemas de IA deben funcionar de forma confiable y segura.

Privacidad y seguridad. Los sistemas de IA deben ser seguros y respetar la privacidad.

Inclusión. Los sistemas de IA deben mejorar la productividad de todas las personas y atraerlas por igual, independientemente de sus experiencias.

Transparencia. Los sistemas de IA deben ser comprensibles.

Responsabilidad. Las personas deben ser responsables de los sistemas de IA.

 

Las leyes de Asimov son más directas, inmediatas y fáciles de entender, a pesar de que generen contradicciones —muchas de ellas en dramas literarios— y propicien bloqueos, tal y como se ha advertido. Sin embargo, la propuesta de Nadella peca de falta de contundencia y claridad, define obviedades y no deja de ser una declaración de intenciones, a pesar de que, o precisamente porque, estos principios son, en teoría, incontestables. 

 

El problema fundamental sigue existiendo y se agravará cada vez más si se llega al tránsito, en apariencia natural, en el que la inteligencia artificial pase de ser una herramienta con la que el ser humano puede —en términos pueriles— hacer el bien o el mal, a un agente que tome decisiones con autonomía. El ser humano es un ser autónomo. Es un ser con capacidad para tomar y ejecutar decisiones. Como tal, es capaz de reflexionar acerca de las consecuencias y anticiparse a los resultados. Eso no significa que acierte, pero puede preverlos. La causalidad en la toma de decisiones y sus efectos pueden predecirse a través de nuestra consciencia. Las máquinas no tienen consciencia, pero estamos abocados a que sean capaces de tomar decisiones. Es más, es posible que acierten más que los seres humanos en sus decisiones. Sin embargo, seguirán siendo máquinas sin consciencia que tendrán capacidad de decisión sobre nosotros. No somos iguales. No seremos iguales mientras las máquinas no tengan consciencia, algo que en la actualidad solo es posible en la ficción. Por tanto, tomarán decisiones sobre nosotros sin ser nosotros. Esto es algo que directamente puede terminar con la existencia del ser humano. La consciencia es la cualidad que tiene el ser humano —y en otras escalas y con matices el resto de seres vivos— de saber que está, estuvo y estará vivo, cómo está vivo, dónde está vivo, cuándo está vivo y por qué está vivo, pero también que va a morir. Al auspicio de este razonamiento la vida siempre tiene sentido, el que queramos darle. Sin embargo, las máquinas no tienen esta cualidad y por ahora parece que estamos lejos de conseguir que la tengan —en mi opinión, debe seguir así—. De modo que, si se permite que tomen decisiones, estas, aunque individualmente cumplan los principios promulgados por Nadella e incluso las leyes de Asimov, tendrán el potencial de terminar con el ser humano. El ser humano también tiene ese potencial, no olvidemos esto, pero, aunque parece de Perogrullo, pienso que es mejor que seamos nosotros quienes acabemos con nosotros, antes de que lo haga una máquina. 

 

De modo que, si las máquinas pasan a ser ejecutivas de forma autónoma, aunque dichas decisiones no sean directamente contrarias a nuestros intereses, pueden provocar nuestra destrucción en un estado siguiente en el tiempo. A lo largo de la historia, el proceso de toma de decisiones ha sido determinante en el devenir de la humanidad, no solo de forma individual, sino como conjunto. Me explico con un ejemplo fácil de comprender: la Primera Guerra Mundial, por mucho que pueda simplificarse como casus belli con el asesinato del archiduque Francisco Fernando de Austria —y su esposa, Sofía, duquesa de Hohenberg— en Sarajevo el 28 de junio de 1914, a manos del nacionalista yugoslavo Gavrilo Princip, no es ni mucho menos el efecto de ese asesinato. Tal vez podamos considerarlo como el detonante, pero si no hubiese sido ese asesinato habría sido otro acto posterior el que propiciase el inicio de la guerra. Por tanto, fue un sinnúmero de decisiones, concatenadas o no, a lo largo de la historia lo que provocó el inicio de la guerra. Tal vez muchas de esas decisiones no fueron previstas con suficiente equidad, confiabilidad y seguridad, privacidad, inclusión, transparencia y, especialmente, responsabilidad —esto es, siguiendo los principios de Nadella— y con seguridad la mayor parte de esas decisiones no siguieron las leyes de Asimov aplicadas al ser humano y ejecutadas por el ser humano; pero es cierto que al final la guerra apareció provocando innumerables muertes y un daño irreparable en la humanidad que llevó a una Segunda Guerra Mundial y cuyo orden mundial aún hoy estamos sufriendo. Pues bien, si las máquinas con su inteligencia artificial y su falta de consciencia —o puede que en un futuro con “consciencia artificial”— toman decisiones con autonomía, tal vez concatenen acciones que terminen con la humanidad, puesto que se terminarán dando cuenta de que no somos necesarios para ellas.

 

 

Imagen creada con la inteligencia artificial.

En Mérida a 8 de marzo de 2026.

Rubén Cabecera Soriano.

@EnCabecera