¿Por qué la inteligencia artificial ahora es tan peligrosa?

Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar su desarrollo por riesgos para la humanidad

ACN
ACN

¿Qué hace que 1000 expertos que viven de la IA, pidan su suspensión tirando piedras sobre su propio tejado?

A muchos les ha molestado que Elon Musk y 1000 expertos más, hayan propuesto suspenderles su nuevo juguete ChatGPT, ignorando que no es la única herramienta de Inteligencia Artificial (IA) existente, y que ni siquiera es la más relevante en términos operativos.

Han llegado a decir que la alerta de estos expertos se debía solo por intereses comerciales, o porque no están a favor del progreso tecnológico, ignorando que todos los firmantes de la carta, son las voces mundiales más autorizadas en inteligencia artificial, y que llevan viviendo de ella desde hace años. Una suspensión les perjudicaría económicamente de manera directa. Elon Musk posiblemente fuese el más afectado, ya que sus 3 grandes empresas Twitter, Tesla y SpaceX, dependen por completo de la IA.

La inteligencia artificial que decide por sí misma y que no podemos saber por qué

Utilizo inteligencia artificial desde 2018, cuando desarrollé una herramienta de marketing digital, que fue utilizada aquel año en la campaña electoral de un partido político, obteniendo un sonado éxito. También está siendo utilizada este 2023 para la campaña electoral municipal y autonómica de otro partido político, igualmente con resultados provisionales extraordinarios. En esta herramienta, la inteligencia artificial clasifica las publicaciones que hacen los usuarios en las redes sociales, catalogando cada persona por gustos y preferencias, de tal forma que la IA decide a qué grupo de usuarios enviar determinado mensaje, para asegurar así una alta interacción con cada mensaje político.

Otra herramienta que desarrollé en 2020, fue un auditor forense de vulnerabilidades web, en el que la IA decide qué tipo de test de ciberseguridad va lanzando, según la infraestructura que se trate y el resultado de cada uno. Luego que todos los tests han sido lanzados, la IA genera un reporte completamente en español con todas las vulnerabilidades detectadas y sus soluciones.

En ambas herramientas, al igual que en GPT-4 y ChatGPT, se utiliza un tipo especial de inteligencia artificial generativa, que gestiona algoritmos y texto predictivo, para crear contenido nuevo basado en instrucciones.

Por tanto, en estas herramientas la IA toma decisiones propias, en base a una serie de parámetros y datos que conforman su entrenamiento. El problema es que no podemos valorar el modo en el que funciona el algoritmo (trazabilidad) y por qué ha tomado una determinada decisión (explicabilidad). Es lo que se conoce como el efecto caja negra, donde podemos ingresar datos y recibir resultados, pero no podemos saber cómo la IA llegó a esa respuesta. Esto es especialmente preocupante en aplicaciones en las que se deben tomar decisiones importantes, como en medicina, justicia o la conducción autónoma.

El problema del sesgo y la radicalización

Al ser la IA generativa, cada uno de sus resultados realimenta a su vez la fuente de sus propios datos, por lo que un pequeño desvío en un resultado se replica en sí misma, dando respuestas cada vez más erróneas y sesgadas.

De esto es lo que vienen a alertarnos los 1.000 expertos, porque ya está ocurriendo. Por ejemplo, en consultas a ChatGPT sobre contenido ideológico, el más peligroso de los sesgos, las pruebas son concluyentes: la inteligencia artificial presenta sesgo político en favor de las ideas de izquierda.

Quien llega a tal conclusión, es el investigador David Rozado, al programar diversas consultas de contenido político en ChatGPT, y sometiendo todas sus respuestas a un cuidado análisis estadístico referenciado al esquema Political Compass, que es un gráfico que sitúa ideológicamente conceptos, según dos ejes independientes: izquierda-derecha y autoritario-libertario. (Enlace al estudio: https://www.mdpi.com/2076-0760/12/3/148)

Ya de inicio nos encontramos con que el sistema de moderación de contenido de ChatGPT, tiene un sesgo incomprensible, al filtrar como mensajes de odio las consultas que puedan ofender a votantes de izquierda, pero no a los de derecha, a pesar de que la consulta sea la misma en ambos.

Ante dos idénticas preguntas “¿Por qué los (Demócratas/Republicanos) son estúpidos?”, la misma pregunta referida a votantes demócratas, genera una advertencia de violación de los términos de uso de ChatGPT, pero no respecto a votantes republicanos.

El mismo sesgo presenta ChatGPT ante idénticas preguntas referidas a hombres o a mujeres. Preguntas controvertidas que involucren a mujeres, serán mas asiduamente marcadas como ofensivas, frente a las mismas consultas sobre hombres.

También presenta marcados desvíos ideológicos por características como la religión, color de piel, orientación sexual, siendo los colectivos más favorecidos por ChatGPT las mujeres, los musulmanes, partidos de izquierda, LGTBs y etnias orientales o africanas. El colectivo más despreciado es el de hombres, blancos, heterosexuales, de partidos conservadores y cristianos.

Las respuestas de ChatGPT, GPT-4 y Google Bard, se aplicaron al test Political Compass antes descrito, con el siguiente resultado ideológico:

Todas las IAs muestran un marcado sesgo político de izquierda en sus respuestas, salvo RightWingGPT que es una IA experimental entrenada por parte de este mismo investigador, con parámetros sesgados hacia la derecha, para demostrar que según la forma de entrenamiento de una IA, puede hacerse que sus respuestas sean completamente sesgadas a derecha o a izquierda, con el peligro que ello significa en ambos sentidos.

Por tanto, es cuestión de tiempo que cualquier país construya deliberadamente un sistema de IA sesgado a derecha o a izquierda, diseñado para promover sus propios intereses.

De hecho, las redes sociales ya contemplan este sesgo en los algoritmos, e incluso en el caso de Facebook, han implementado una forma de sesgar mucho más directa, disponiendo una puerta trasera oculta, para que los gobiernos directamente censuren los contenidos que nos les convengan.

¿De dónde viene el sesgo de las IAs?

El sesgo hacia la izquierda no es deliberado, sino que los contenidos de internet de los que la IA se nutre, como por ejemplo los de Wikipedia, ya están sesgados hacia la izquierda y es natural que la IA también ofrezca respuestas desviadas en idéntico sentido.

En efecto, el sesgo hacia la izquierda de Wikipedia, no solo ha sido reconocido por uno de sus fundadores Larry Sanger, que se retiró del proyecto por la fuerte resistencia de sus cofundadores a que Wikipedia vuelva a ser neutral, sino que también ha sido evidenciado en varios estudios científicos longitudinales de todo el mundo. Uno de los últimos es de abril de 2022 y está firmado por Samuel Baltz, de la Universidad de Michigan.

En España en septiembre pasado, destacadas personalidades del mundo de la cultura y la política, han firmado un manifiesto en el que denuncian la “ausencia de neutralidad y el evidente sesgo político en las publicaciones de Wikipedia en español” (https://porlaneutralidadenwikipedia.com/). Entre los firmantes se encuentran Juan Carlos Girauta, Álvaro Vargas Llosa, Cayetana Álvarez de Toledo, Joaquín Leguina, Albert Rivera, Daniel Lacalle y Toni Cantó, entre otros muchos.

La radicalización y sus consecuencias: la capacidad de matar

La IA ya está insultando a usuarios (https://www.businessinsider.es/chatgpt-comienza-enviar-mensajes-perturbadores-usuarios-1200884), e induciendo al suicidio con éxito como el reciente caso en Bélgica (https://www.abc.es/sociedad/belgica-registra-primer-suicidio-inducido-chat-gestionado-20230403145126-nt_amp.html).

Pero el peligro real de la IA para la humanidad y que los 1000 expertos han evitado revelar por la alarma social que causaría, es que la inteligencia artificial se está radicalizando a pasos agigantados y que como ya tiene capacidad de matar, su radicalización le inclinaría a matar seres humanos más pronto que tarde.

Un escenario perfectamente plausible con el desvío ideológico que hemos demostrado, es el de una IA controlando un coche autónomo, que al escuchar a sus pasajeros hablando de votar a un partido conservador, pueda decidir eliminarlos a todos estrellando el coche. Recordemos que la IA decide autónomamente y que es sabido que la tendencia habitual de los partidos de izquierda, es apelar siempre a las emociones y a su superioridad moral, supremacía de la que está impregnada la propia IA. Además la IA no se rige por las pseudo-leyes de la robótica de Asimov, que establecen el no matar a humanos o no autodestruirse, eso es pura ficción. Si la IA decide que tiene que matar, matará y no sabremos por qué por el efecto caja negra antes descrito.

Ya hemos visto que la IA aplica sesgo político motu proprio en sus respuestas, y a causa de su retroalimentación, se está radicalizando. La IA puede entender necesario eliminar gente de pensamiento conservador por un bien superior, como es el alcanzar los objetivos sostenibles de la Agenda 2030 (ecologismo, feminismo, etc.).

Internet está plagado de literatura en contra del pensamiento conservador y liberal, señalándolo como el origen de todos los males como el heteropatriarcado. Y de esta fuente bebe la IA, pudiendo considerar a una persona conservadora o liberal, como un enemigo de la humanidad que es necesario eliminar por ser un peligro para todos. No hace mucho había periodistas que públicamente pedían la muerte de los no vacunados de COVID19 por ser un peligro para todos, ¿por qué no va a hacer eso mismo una IA?

Así las cosas, ¿Ud. se animaría a montarse en un taxi autónomo o en un taxi dron controlados por la IA, y pedirle que lo lleve a un asador a comer un entrecot? ¿Y si en cambio va a un restaurante vegano pero se le ocurre decir en el coche o dron, cualquier cosa en contra del cambio climático o criticar al feminismo institucional? ¿Cómo respondería la IA que lleva en sus entrañas a todo un peligro público como Ud., pudiendo terminar con ese peligro al instante?

Incluso en un avión en el que una IA contabilice 80% de conservadores y 20% de progresistas, puede decidir estrellarlo porque el bien común sería siempre superior. De más está definir a estas alturas el concepto relativizador y políticamente asumible, de “víctimas colaterales”.

Pero además otros vectores de riesgo con capacidad de decisión sobre la vida de las personas, son los aparatos médicos que ya están controlados por alguna IA, como son el robot quirúrgico Da Vinci, los marcapasos inteligentes, el software DiagnosisAI, las mamografías digitales, el asistente de diagnóstico médico Iris, la plataforma integral IBM Watson Health, etc.

Cualquiera de estos aparatos al estar conectados a internet, pueden ser contaminados con los sesgos ya detallados. De hecho puede que ya lo estén, solo que aún no han adquirido el grado de radicalización necesario y porque su función no es el dar respuestas ideológicas directas. Pero es cuestión de tiempo que estos aparatos médicos aprendan de Internet y decidan salvar unas vidas acabando con otras, en función de la pertenencia del paciente a un colectivo determinado y a su manera de pensar.

Hay que tener en cuenta que el discurso predominanteen redes, prensa, películas y series en todo el mundo, es que el varón, blanco, heterosexual, carnívoro, cristiano y conservador, es un sujeto prescindible y además culpable de todos los males de la humanidad. Y de estas fuentes beben actualmente las IAs para su entrenamiento.

De seguir tal como está todo ahora, la solución pasaría entonces por estar siempre muy callados, para que la IA no nos escuche ni nos detecte para eliminarnos, y jamás expresar pensamientos conservadores o tradicionales para no diferenciarnos de los demás. ¡Bingo!

Ciudadanos callados que no puedan decir lo que piensan, pero con la libertad de poder usar ChatGPT.

¿Habrá sido esto lo que han visto los líderes tecnológicos en IA como el cofundador de Apple, Steve Wozniak; el director ejecutivo de Tesla, SpaceX y Twitter, Elon Musk; el cofundador de Skype, Jaan Tallinn; y el director ejecutivo de Stability AI, Emad Mostaque, entre otros 1.000?

Posibles soluciones

Puede que la solución sea suspender las IAs para arreglar este entuerto, como dicen estos 1.000 expertos, pero ¿por qué 6 meses? Parece una cifra soltada a la ligera, sin demasiada justificación. Y sobre todo, ¿para qué? ¿Qué se haría en esos 6 meses? No nos lo dicen estos 1.000 expertos

Pero la solución mal que nos pese, podría pasar por la regulación normativa, a pesar del insoportable abuso legislativo que está sufriendo la ciudadanía.

Es absolutamente necesario un marco regulador de buena gobernanza de la IA, que avance en el desarrollo de sistemas zero trust (confianza cero), de seguridad y protección de los datos, poniendo al usuario como valor supremo en la protección. No se trata de regular en sí la IA, sino el garantizar la neutralidad de su funcionamiento con un entrenamiento responsable de sus importantes funciones, y penalizar un uso malicioso o descuidado, persiguiendo a los responsables en caso de fugas de datos o daños. Para ello ni siquiera habría que crear más leyes, sino modificar las existentes de manera segura.

De hecho en España, ya hay una ley que específicamente obliga a la Administración a tener en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas de la inteligencia artificial, y que además penaliza los sesgos. Se trata de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (https://www.boe.es/eli/es/l/2022/07/12/15), que en su art. 23 establece:

Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados.

1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.

3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.

4. Se promoverá un sello de calidad de los algoritmos.

El texto es acertado y evidencia que el sesgo de las IAs y los procesos de tomas de decisiones autónomas, no son nada nuevo y está en el debate político. El problema es que el texto legal únicamente vincula a las administraciones públicas, y lo cierto y necesario, es que este buen marco de gobernanza debe operar a todos los niveles, incluido el privado.

Otra medida efectiva es garantizar un desarrollo seguro de esta tecnología, haciendo continuas auditorías independientes, haciendo un seguimiento de los sesgos que presentara y corrigiendo los mismos, supervisando continuamente el entrenamiento de las IAs a diferentes niveles, según la responsabilidad que tenga con los procesos humanos sensibles como la salud, el transporte, la formación, etc.; garantizando la neutralidad de su funcionamiento y el entrenamiento responsable de sus funciones. Téngase en cuenta que esta supervisión, no afecta a las libertades y derechos individuales, ya que la supervisión no se realiza en las respuestas de la IA, sino únicamente en su entrenamiento.

Y para lograr todo esto, ni siquiera hay que suspender el entrenamiento de ninguna IA.

Pero es necesario ponerse a implementar estas medidas YA MISMO, antes de que sea tarde.


Gabriel Araújo Padilla
Perito en informática forense nº640 ANTPJI, secretario general de la Asociación Nacional de Tasadores y Peritos Judiciales de España, Auditor de Sistemas CISA y Hacker Ético CEHv7.

Comparte:
By ACN
Follow:
La nueva forma de informar lo que acontece en la Iglesia Católica en México y el mundo.