La consciencia es el catalizador de la existencia y de la experiencia para nuestra mente. Es decir, es el instrumento que utiliza nuestra mente para que podamos percibir la realidad e interpretarla para nosotros mismos. Por eso, cada uno de nosotros percibe la realidad de una forma diferente. Si fuésemos capaces de duplicar la mente de un ser vivo —sea o no humano—, de clonarla unidad de información a unidad de información, esto no implicaría necesariamente que tuviera consciencia. La pregunta de por qué esto es así, hasta donde sé, no tiene respuesta en la actualidad. Queda mucho camino por recorrer en la ciencia para alcanzar a comprender esta realidad. Es importante el matiz de la humanidad o no del ser vivo, porque no parece claro que los seres vivos no humanos carezcan de consciencia, al menos con similitudes a la humana. En cualquier caso, lo primero que debería hacerse es tener claro qué es la consciencia.
Las máquinas no tienen consciencia. La inteligencia artificial no tiene consciencia. Hoy en día no la tienen, al menos lo que se intuye que es la consciencia en términos de seres vivos. Por tanto, las máquinas, la inteligencia artificial no perciben la realidad y no la pueden interpretar. Sin embargo, disponen, manejan y procesan una cantidad de información inimaginable a una velocidad igualmente inimaginable. Eso las convierte en extremadamente parecidas a nosotros, casi indiferenciables en algunos contextos que se irán matizando en el futuro hasta hacerlas indistinguibles. Esa capacidad de procesamiento de información las convierte en magníficos imitadores de la mente humana, capaces de suplirnos en muchos escenarios e incluso suplantarnos.
Mientras que la inteligencia artificial sea una herramienta, los seres humanos la podrán utilizar para hacer el bien o el mal. Como ha ocurrido hasta ahora en la historia de la humanidad con cualquier invento que la tecnología ha desarrollado desde la ciencia más básica. El ejemplo más sencillo puede ser el del martillo: se trata de una herramienta que resulta muy útil para los trabajos de carpintería y que nos ayuda a construir, por ejemplo, las sillas de madera en las que nos sentamos. Pero también es un instrumento peligroso si se utiliza como arma para quebrarle el cráneo a alguien. En este sentido, la inteligencia artificial —incluida en las máquinas y, por tanto, las propias máquinas— como herramienta podrá ayudar o dificultar las acciones de los humanos.
Sin embargo, el verdadero peligro está en la transformación de la inteligencia artificial de herramienta a entidad, a agente activo. Es decir, el verdadero peligro radica en que se convierta en un ente autónomo. En realidad, esto es algo que ya está ocurriendo porque la inteligencia artificial ya está comenzando a tomar decisiones por sí misma, decisiones que surgen del procesado de millones de datos prácticamente en tiempo real, pero que no son catalizadas por una consciencia, porque esta no existe en ella. La inteligencia artificial está comenzando a transformarse de herramienta a entidad autónoma y las decisiones que toma están basadas en la estadística de los datos procesados, pero siempre bajo el sesgo inevitable de su creador que, al fin y al cabo, es el que ha diseñado su algoritmo. Pero muchísimo cuidado con esto, porque no solo se trata del sesgo que inevitablemente surge del algoritmo base de la inteligencia artificial, sino que también se produce un sesgo sumamente importante desde la información que se procesa, puesto que la información que se procesa es la disponible. ¿Qué quiere decir esto? Sencillamente que la inteligencia artificial maneja los datos que existen, solo los que existen, y nos los interpreta, solo los procesa. De modo que, si a una inteligencia artificial se le pide que «saque una imagen de un ser humano limpiando una casa», es altamente probable que cualquier modelo de inteligencia artificial presente una mujer haciendo esa tarea —podéis comprobarlo vosotros mismos como yo lo he hecho con varios modelos de inteligencia artificial—. En el mensaje introducido con las instrucciones, el denominado «prompt», no se indica que sea una mujer la que se presenta limpiando la casa, sin embargo, la inteligencia artificial presentará una mujer. Y si le pedís que «saque una imagen de un directivo con su ayudante», incluso si lo hacéis en inglés donde el género en los nombres está más diluido, nos mostrará a un señor bien vestido con una joven a su lado e interpelada la inteligencia artificial para diferenciar quién es quién. Supongo que no hace falta que explique el rol de cada personaje según la inteligencia artificial.
De modo que, ante la falta de consciencia de la inteligencia artificial, el sesgo de algoritmo y de información procesada puede provocar, si la inteligencia artificial dispone de autonomía, graves problemas, a pesar de que algunos modelos están trabajando para paliar la discriminación que el algoritmo y la información introducen. En cualquier caso, esto pone de manifiesto la trascendencia de la ética y la moral en este proceso. Es decir, es necesaria una reflexión filosófica y crítica sobre las normas, costumbres y valores aceptados y aceptables que justifiquen de forma racional, al menos, unos principios universales. Pero la inteligencia artificial entenderá estos principios como información a procesar; no podrá concebirlos a través de una consciencia que propicie una interpretación de la realidad con sentido… humano.
Por lo tanto, se hace necesario, imprescindible, establecer unas bases que deban reglar la inteligencia artificial para evitar que pueda dañar y discriminar a los seres vivos, incluidos los humanos. Esto puede derivar en un bloqueo casi total de la inteligencia artificial, puesto que el sentido de estas normas o leyes debe ser, en primer lugar, la preservación de la especie humana y evitarle el dolor y el sufrimiento; de no ser así, podemos convertirnos en seres irrelevantes y prescindibles para la inteligencia artificial.
Isaac Asimov estableció en 1942 las denominadas tres leyes de la robótica en su relato «Círculo vicioso». Estaban pensadas para robots que pudieran llegar a tener autonomía, es decir, para máquinas que no fuesen meras herramientas. Por tanto, son perfectamente aplicables a la situación actual. Fueron estas:
Primera Ley
Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley
Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Posteriormente, Asimov agregó una «Ley Cero» que precede a las anteriores:
Ley Cero
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Estas leyes, directas y sencillas, como anticipé, provocan algo parecido al efecto mariposa que, aunque en un ser humano puede relativizarse, en una máquina provocaría un bloqueo absoluto de su funcionamiento. Es prácticamente imposible la ejecución de una orden sin contradecir alguna de estas leyes. No existe ninguna instrucción que pueda ejecutar una máquina que no produzca, aunque solo sea remotamente, algún problema o daño, por pequeño que sea a un ser humano…
Imagen creada con la inteligencia artificial.
En Mérida a 1 de marzo de 2026.
Rubén Cabecera Soriano.
@EnCabecera

