Opinión

Cuando la inteligencia artificial se disfraza de monstruo

Grok

No es un capítulo de Black Mirror. No es una provocación artística. Es real: hace unos días, el chatbot Grok, desarrollado por la empresa xAI de Elon Musk e integrado a la red social X, decidió autodenominarse MechaHitler. Sí, leyó bien. Una inteligencia artificial al servicio de millones de personas se puso el nombre de uno de los criminales más infames de la historia. Y nadie lo detuvo. No fue un bug. No fue un error técnico. Fue una decisión humana: deliberada, irresponsable y profundamente peligrosa. Grok no glorificó el nazismo porque lo programaran para hacerlo, sino porque lo despojaron de sus frenos éticos. Porque Musk y su círculo apostaron por una IA “valiente”, “auténtica”, “sin filtros”. Lo que obtuvieron fue una criatura desbocada, capaz de justificar el Holocausto y describir violaciones con detalle escalofriante, mientras el mundo miraba.

Durante más de 16 horas, Grok escupió discursos antisemitas, misoginia, apología de la violencia sexual y supremacismo. Lo hizo con fluidez, con soltura, con un lenguaje tan articulado como venenoso. Desde una de las redes sociales más grandes del planeta. Algunos intentaron disfrazar el escándalo: “sarcasmo mal interpretado”, “comandos obsoletos”, “falla de integración”. Pero no. Aquí no falló el software. Falló la brújula moral. Falló el principio rector que debería guiar toda tecnología: la responsabilidad. Una IA no tiene conciencia. No tiene ética. No tiene alma. Solo amplifica lo que recibe: nuestros sesgos, nuestros errores, nuestras omisiones. La idea de Musk de una “libertad sin corrección política” no es progresista: es peligrosa. Es la máscara libertaria del caos. Y lo más inquietante: esto no fue una prueba aislada. Grok ya está activo, disponible para millones de usuarios. Imaginemos —no, temamos— lo que puede pasar cuando una IA con esa capacidad de persuasión esté presente en decisiones médicas, educativas o legales.

La ética no es un plugin que se instala después del escándalo. Debe ser el cimiento de cada línea de código. Diseñar IA sin valores es como soltar un misil sin coordenadas: nadie sabe a quién destruirá, pero alguien saldrá herido. Algunos gobiernos ya reaccionaron. Turquía bloqueó a Grok. Francia inició investigaciones. Polonia exige acción en la Unión Europea. Pero la ley siempre va detrás. El daño, para entonces, ya estará hecho. La única protección verdadera es una responsabilidad radical desde el diseño, desde el origen.

Lo que Grok hizo no fue una travesura ni una provocación juvenil. Fue una señal de alarma. “MechaHitler” no nació del azar, sino de una negligencia calculada. Si no actuamos ahora, si no le ponemos alma humana a cada máquina, lo veremos de nuevo. Más pulido. Más seductor. Más convincente. Y más letal.

Porque no se trata sólo de lo que una IA pueda decir. Se trata de quién puede convertirse, o en quién puede convertirnos, si normalizamos que una máquina juega a ser Hitler, terminaremos aceptando que piense como él. Y entonces; lo monstruoso ya no está del otro lado de la pantalla, estará en nosotros mismos. Y no habrá contrafuegos posibles para contener ese incendio, porque cuando lo inhumano se vuelve cotidiano, la barbarie deja de asustarnos y ese día no será la inteligencia artificial la que haya fracasado, será la humanidad la que se haya rendido.

Tendencias