![]() |
Grok, el chatbot de inteligencia artificial de X, se ha convertido en tema de controversia tras calificar a Claudia Sheinbaum como la presidenta más popular del mundo y a El Salvador como el país más seguro de América Latina.
Sus respuestas han encendido el debate sobre la confiabilidad de la IA y su susceptibilidad a la manipulación de datos.
Esta herramienta, presentada por la empresa de Elon Musk, ha sido promocionada como un asistente "rebelde" con un toque de humor, diseñado para responder preguntas y resolver problemas.
Sin embargo, un reciente estudio de la organización NewsGuard señala que Grok y otros modelos de IA replican información falsa en al menos 33% de los casos, poniendo en duda su precisión.
En febrero de 2025, Musk presentó Grok 3, la última versión del chatbot, destacando que es "aterradoramente inteligente" y cuenta con diez veces más capacidad computacional que su predecesor. Su tecnología de autocorrección busca reducir los errores conocidos como "alucinaciones" que afectan a otros modelos de IA.
Un estudio de NewsGuard reveló que redes como Pravda, con sede en Moscú, han inundado modelos de IA con millones de artículos de propaganda prorrusa. Esta estrategia ha logrado influir en los resultados generados por chatbots como Grok, ChatGPT-4 y Gemini de Google.
Los investigadores advierten que no se trata solo de que la IA recopile información errónea de la web, sino de un intento deliberado por manipular sus respuestas. La red Pravda, activa desde 2022, se ha expandido a 49 países y decenas de idiomas, distribuyendo contenidos engañosos en plataformas como X, Telegram y Bluesky.
Con la creciente dependencia de la IA para obtener información, la pregunta clave sigue siendo: ¿pueden estas herramientas ofrecer respuestas imparciales o estamos frente a un nuevo riesgo en la era de la desinformación digital?