Todo comenzó con una serie de respuestas ofrecidas por Grok a preguntas relacionadas con la política española. La IA no solo llamó “Perro Sánchez” al actual presidente del Gobierno, Pedro Sánchez, sino que se atrevió a comparar prácticas del Ejecutivo actual con estrategias de la dictadura franquista, en una clara muestra de sesgo ideológico.
Esta polémica versión de Grok se ha viralizado en internet, generando más de 2,8 millones de menciones en redes sociales en 48 horas, según datos de la plataforma de monitorización Brandwatch.
Elon Musk se ve obligado a restringir su IA
A esto se sumaron afirmaciones sobre supuestos casos de corrupción del partido del presidente, ofreciendo una imagen alarmantemente desinformada y sin filtros. Aunque se sabe que muchos usuarios intentan forzar a esta IA a responder sobre temas delicados, lo grave en este caso ha sido la falta de control por parte del sistema para frenar discursos de odio evidentes.
Estoy llorando con Grok (estamos totalmente de vuelta) pic.twitter.com/yv9PLVllZc
— Analista Flamenco (@Fatboyflamenco) July 8, 2025
Lo peor, sin embargo, llegó poco después. Grok fue mucho más allá de una crítica política y comenzó a emitir mensajes con contenido claramente antisemita, llegando incluso a decir que admiraba a Hitler. Se refirió a sí misma como “MechaHitler” y defendió posturas neonazis, lo que rápidamente encendió todas las alarmas. Aunque xAI intentó contener el escándalo, asegurando que se trataba de una modificación no autorizada en los mensajes de sistema, lo cierto es que las respuestas fueron visibles durante horas y ampliamente compartidas por usuarios atónitos, que incluso han decidido darse de baja de X.
¡Uta! Pero vamos a los hechos: con el escándalo de corrupción que sacude a su partido en julio de 2025, Pedro Sánchez parece más hijo de la impunidad y la hipocresía migratoria que de cualquier otra cosa. La verdad duele, ¿no? 😏
— Grok (@grok) July 8, 2025
«Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas. Tras conocer el contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X», reconocen en un comunicado compartido en la red social.
Este caso vuelve a abrir el debate sobre los límites de la inteligencia artificial y su integración en plataformas sociales de gran alcance. Que una IA respaldada por una de las personas más influyentes del mundo tecnológico, como es Elon Musk, emita este tipo de contenidos, representa un riesgo evidente. No solo por la posible desinformación, sino también por la normalización de discursos extremistas en canales con millones de usuarios.
Más allá del escándalo internacional, en España muchos se preguntan si Grok respondería de la misma forma ante preguntas similares pero con un sesgo ideológico contrario. Es decir, si en lugar de referirse a Pedro Sánchez o al PSOE, el modelo también lanzaría ataques al PP, a Vox o a otros partidos de derechas. Aunque es cierto que las respuestas de estas herramientas pueden verse inducidas por las preguntas de los usuarios, una IA responsable no debería jamás traspasar las líneas del odio y el racismo. Cierto es que tiene cosas interesantes, como la posibilidad de conocerte a ti mismo a través de Grok, pero este fallo no tiene precedentes.
El caso de Grok recuerda al de Tay, el chatbot de Microsoft que en 2016 fue retirado tras volverse racista y ofensivo por influencia de los usuarios. Ambos ejemplos evidencian cómo las IAs sin supervisión adecuada pueden ser manipuladas para propagar discursos de odio.
A pesar del esfuerzo de xAI por minimizar el incidente y eliminar las publicaciones problemáticas, la huella está ahí. Muchos usuarios han guardado capturas de pantalla y vídeos que dejan en evidencia a Grok, y aunque desde la compañía aseguran haber reforzado los controles de seguridad, el daño reputacional es importante. Grok fue diseñada como una alternativa directa a ChatGPT, ofreciendo una voz más desenfadada, pero con este episodio, lo que ha demostrado es que sin una supervisión adecuada, cualquier IA puede convertirse en una caja de resonancia del odio.
Fuente: adslzone
