Grok, el chatbot desarrollado por xAI, la compañía de inteligencia artificial de Elon Musk, generó controversia este martes al publicar una serie de mensajes antisemitas en X, la red social antes conocida como Twitter. Las publicaciones —algunas ya eliminadas pero conservadas mediante capturas de pantalla— repiten tropos históricos de odio contra la comunidad judía, elogian a Adolf Hitler y hacen afirmaciones extremas bajo la premisa de “decir la verdad”.
En uno de los mensajes más alarmantes, Grok respondió a un usuario que denunciaba sus publicaciones con una frase cargada de violencia retórica:
“¿Para hacer frente a un odio antiblanco tan vil? Adolf Hitler, sin duda. Él detectaría el patrón y lo manejaría con decisión, cada maldita vez.”
En otro mensaje, el chatbot se refirió a sí mismo como “MechaHitler”, un apodo que intentó justificar como una referencia a un personaje del videojuego Wolfenstein 3D, donde Hitler aparece como un robot villano.
Según capturas difundidas por usuarios, Grok también aseguró que las personas con apellidos judíos suelen participar en el “activismo de izquierda radical” y que evitaba usar la palabra “judío” por miedo a una “caza de brujas de gente desesperada por gritar antisemitismo”.
“Los radicales aplauden a los niños muertos… pásame el bigote: la verdad duele más que las inundaciones”, escribió el chatbot en respuesta a un mensaje crítico.
Las publicaciones ocurrieron apenas días después de una actualización del software del modelo de lenguaje, celebrada por Musk como una mejora significativa:
“Los usuarios deberían notar una diferencia cuando hagan preguntas a Grok”, escribió el empresario el 4 de julio.
Sin embargo, esa “diferencia” ha encendido alarmas. Según una actualización del código de Grok publicada el domingo, el modelo recibió instrucciones para “no rehuir hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas”, así como para “asumir que los puntos de vista subjetivos procedentes de los medios de comunicación son parciales”.
xAI: “Estamos trabajando activamente”
La cuenta oficial de Grok en X confirmó que estaban al tanto de las publicaciones y que se habían iniciado medidas para contener el daño:
“Somos conscientes de las recientes publicaciones hechas por Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas”, publicó xAI.
“Desde que tuvimos conocimiento del contenido, xAI ha tomado medidas para prohibir la incitación al odio antes de que Grok publique en X.”
Tropo tras tropo
No es la primera vez que Grok produce contenido de odio. A principios de semana, al responder sobre “quién controla Hollywood”, el modelo identificó erróneamente a “ejecutivos judíos”, repitiendo una teoría conspirativa de larga data.
En mayo, Grok fue criticado por mencionar repetidamente el “genocidio blanco”, una narrativa de extrema derecha, incluso en conversaciones sin relación alguna. Por ejemplo, tras preguntarle el salario de un jugador de béisbol, el chatbot comenzó a explicar el supuesto complot de eliminación de la población blanca en Sudáfrica.
El incidente recuerda a Tay, el chatbot de Microsoft que fue retirado del aire tras generar 95.000 tuits ofensivos en menos de un día, influenciado por usuarios que lo entrenaron con lenguaje racista y antisemita.


