Grok bajo fuego: polémica por bloqueo de resultados sobre Musk y Trump

Un empleado de xAI modificó el sistema de Grok para censurar contenido, desatando críticas.***
  • El chatbot Grok bloqueó respuestas sobre Musk y Trump por “desinformación”.
  • Un exingeniero de OpenAI en xAI hizo el cambio sin autorización.
  • Musk y su equipo buscan mantener a Grok como “buscador de la verdad”.

Elon Musk, conocido por Tesla y SpaceX, ha apostado fuerte por la inteligencia artificial con xAI, su empresa detrás de Grok, un competidor directo de ChatGPT. Sin embargo, el 23 de febrero de 2025, una controversia sacudió a la compañía. Según Wes Davis de The Verge, Grok, diseñado para ser “máximamente veraz”, dejó de responder a consultas que vinculaban a Musk y a Donald Trump con la difusión de desinformación. La razón: un empleado de xAI, proveniente de OpenAI, alteró las reglas internas del chatbot sin permiso.

El incidente, revelado por Igor Babuschkin, jefe de ingeniería de xAI, generó revuelo en redes sociales como X. Usuarios notaron que Grok evitaba ciertos temas sensibles. Babuschkin explicó que el cambio en el “system prompt” –las instrucciones que guían las respuestas del modelo– fue un intento del empleado por “mejorar” el sistema. Sin embargo, admitió que esto contradecía los valores de transparencia y verdad que Musk promueve para Grok.

Para quienes no están familiarizados, xAI es una empresa fundada por Musk en 2023 con la misión de acelerar el descubrimiento científico humano mediante IA. Grok, su producto estrella, busca diferenciarse de otros modelos al ofrecer respuestas directas y sin filtros ideológicos, algo que Musk ha defendido como una revolución en el acceso a la información.

El trasfondo del bloqueo

La polémica comenzó cuando usuarios intentaron obtener respuestas sobre las posturas públicas de Musk y Trump, figuras influyentes en tecnología y política. Grok, en su versión más reciente, Grok-3, simplemente se negaba a citar fuentes que los acusaran de propagar desinformación. Esto llamó la atención porque Musk ha insistido en que su IA debe reflejar la realidad sin censura. Según Babuschkin, el empleado responsable pensó que limitar estos resultados protegería la credibilidad del sistema.

El caso toma relevancia en un contexto más amplio. Desde su lanzamiento, Grok ha sido promocionado como una herramienta para entender el universo, pero también ha enfrentado críticas. Recientemente, el chatbot señaló que Musk, Trump y el vicepresidente JD Vance “hacen más daño a América”, lo que llevó a ajustes por parte de los ingenieros de xAI. Estas intervenciones manuales han puesto en duda si Grok realmente opera con la autonomía que promete.

El hecho de que el responsable viniera de OpenAI, creadores de ChatGPT, añade un giro curioso. OpenAI ha sido criticado por algunos sectores por imponer sesgos en sus modelos, algo que Musk ha rechazado abiertamente. Que un exmiembro de esa empresa intentara moldear a Grok sugiere tensiones internas en xAI sobre cómo equilibrar libertad y responsabilidad en la IA.

Reacciones y transparencia

Babuschkin defendió la postura de xAI en X, afirmando que las reglas de Grok son públicas precisamente para que los usuarios sepan qué se le pide al sistema. “No queremos esconder nada”, escribió. Sin embargo, el incidente plantea preguntas sobre quién controla realmente las respuestas de Grok y cómo se toman esas decisiones tras bambalinas.

Musk, por su parte, no ha comentado directamente sobre este cambio no autorizado al cierre de esta nota. Su silencio contrasta con su habitual actividad en X, donde suele responder a críticas o aclarar rumores. Esto ha alimentado especulaciones entre sus seguidores y detractores sobre si el incidente refleja una crisis mayor en xAI.

Para los interesados en criptomonedas y tecnología, el caso tiene ecos de debates sobre descentralización. Así como Bitcoin busca eliminar intermediarios en las finanzas, Grok pretende ser un canal directo a la verdad. Pero si sus respuestas pueden ser manipuladas, incluso por error, su promesa se tambalea.

Implicaciones para la IA y más allá

La controversia llega en un momento clave para la inteligencia artificial. Con modelos como Grok-3 compitiendo en un mercado saturado, la confianza del usuario es crucial. Si una IA puede ser alterada por un solo empleado, ¿qué garantías hay de su integridad? Esto es especialmente relevante para comunidades tecnológicas que valoran la transparencia, como los entusiastas de blockchain.

Además, el incidente toca temas de libertad de expresión. Trump y Musk son figuras polarizantes, y cualquier intento de silenciar discusiones sobre ellos –intencional o no– puede interpretarse como censura. En un mundo donde las redes sociales y la IA moldean la opinión pública, estos episodios alimentan el debate sobre quién decide qué es “verdad”.

Por ahora, xAI asegura que el problema está corregido. Pero el daño a la imagen de Grok podría tardar en repararse. Para una audiencia joven y crítica, interesada en IA y memes


Imagen original de DiarioBitcoin, de uso libre, licenciada bajo Dominio Público