El chatbot Grok, desarrollado por Elon Musk e integrado en la red social X, ha señalado erróneamente que varias imágenes de niños desnutridos en Gaza pertenecían a crisis pasadas en Yemen o Irak.
Sin embargo, las fotografías son recientes, tomadas en julio y agosto de 2025 por reporteros gráficos de agencias internacionales como Associated Press (AP), Agence France-Presse (AFP) y Anadolu, y documentan el impacto real de la hambruna en Gaza.
El caso más mediático tuvo lugar el 28 de julio, cuando el senador Bernie Sanders compartió en X una imagen de un niño gazatí malnutrido. Grok afirmó que era de Yemen en 2016.
Verificadores de AFP Factual y periodistas de Associated Press confirmaron que se trataba de Yazan, de dos años, fotografiado el 23 de julio en el campo de refugiados de Shati.
No fue un caso aislado. Grok también aseguró que otra imagen correspondía a Yemen en 2017. En realidad, era Mohamed, de un año y medio, captado el 21 de julio por Ahmed Al-arini (Anadolu). La BBC entrevistó a su madre para confirmar el contexto.
En un tercer caso, Grok negó la autenticidad de una fotografía de Mariam Dawwas, niña de nueve años visiblemente desnutrida. La situó en Yemen en 2018, pero verificaciones independientes demostraron que fue tomada el 2 de agosto de 2025 en Gaza por Omar Al-Qattaa (AFP).
Otro episodio documentado por Deutsche Welle y AAP FactCheck muestra cómo Grok identificó como “Irak 2014” la imagen de una niña en una cocina comunitaria, cuando en realidad fue captada el 26 de julio en ciudad de Gaza por un fotógrafo de AP.
Varios analistas advierten de que el problema no es excepcional, sino estructural. Javier Barriuso, comunicador y analista de fenómenos sociales y de desinformación, que comenta activamente en X la influencia de las narrativas digitales, afirma que Grok se alimenta principalmente de contenido publicado en la propia red social, un ecosistema saturado de bulos y mensajes manipulados. Esa dependencia provoca que repita afirmaciones falsas con gran seguridad.
Por su parte, Carlos Guadián, consultor especializado en comunicación digital, inteligencia artificial y análisis de datos, sostiene que el diseño de Grok como un bot “anti-woke” busca ofrecer respuestas directas y sin filtros, pero esto puede derivar en errores graves en contextos sensibles como guerras o crisis humanitarias. Guadián recuerda que una IA sin mecanismos robustos de verificación y sin intervención humana no debería emplearse como única fuente en temas de alto impacto.
El caso de Grok expone los peligros de usar las herramienta inteligencia artificial como fuente de verificación en contextos de crisis humanitaria. Sin contraste con fact-checkers humanos y bases de datos verificadas, la probabilidad de difundir noticias falsas aumenta de forma considerable.
En Gaza, donde según la ONU la malnutrición infantil afecta a más del cincuenta por ciento de la población menor de cinco años, la confusión sobre la autenticidad de las imágenes no solo distorsiona la percepción pública, sino que también puede retrasar la respuesta internacional.
La inteligencia artificial puede ser una herramienta útil, pero el caso Grok demuestra que no sustituye la labor periodística ni la verificación humana. En medio del genocidio que se está cometiendo en Gaza, la información verificada es vital. Confiar ciegamente en una IA que se nutre de redes sociales pone en riesgo el derecho a saber y la capacidad de reacción de la comunidad internacional.