«Hey, @Grok, ¿esto es cierto?” Miles de usuarios de X (antes Twitter) han estado haciendo esta pregunta para verificar rápidamente la información que ven en esa plataforma desde que xAI, la empresa de Elon Musk, lanzó su chatbot de inteligencia artificial generativa Grok, en noviembre de 2023. Y más aún desde que se extendió a todos los usuarios no prémium en diciembre de 2024.
Una encuesta reciente realizada por la publicación tecnológica británica TechRadar reveló que el 27 por ciento de los estadounidenses ha utilizado herramientas de inteligencia artificial como ChatGPT de OpenAI, Meta AI de Meta, Gemini de Google, Copilot de Microsoft,o aplicaciones como Perplexity, en lugar de buscadores tradicionales como Google o Yahoo.
Pero, ¿qué tan precisas y confiables son realmente las respuestas de estos chatbots? Muchos se han hecho esta pregunta ante las recientes declaraciones de Grok sobre un supuesto «genocidio blanco» en Sudáfrica.
Más allá de la postura problemática del bot sobre este tema, a los usuarios de X también les sorprendió que comenzara a hablar de ello cuando se le consultaban temas completamente distintos, como en el siguiente ejemplo: el debate sobre un presunto «genocidio blanco” surgió después de que la administración Trumpacogiera a sudafricanos blancos como «refugiados» en Estados Unidos.
Trump afirmó que estos estaban enfrentando un «genocidio” en su país, una acusación sin fundamento, y que muchos vinculan con el mito conspirativo racista de extrema derecha del «Gran Reemplazo”.
xAI atribuyó la insistencia de Grok en el tema a una «modificación no autorizada” y aseguró haber realizado una «investigación exhaustiva”. Pero, ¿ocurren fallos como este con frecuencia? ¿Qué tan seguro puede estar un usuario de obtener información confiable al usar IA para verificar hechos?
Un estudio revela errores fácticos y citas alteradas
Dos estudios realizados este año en Estados Unidos por la cadena pública británica BBC y el Tow Center for Digital Journalism han identificado deficiencias significativas en la capacidad de los chatbots de IA generativa para transmitir información periodística con precisión.
En febrero, un estudio de la BBC concluyó que «las respuestas generadas por asistentes de IA contenían inexactitudes importantes y distorsiones” del contenido producido por la organización.
Al pedir a ChatGPT, Copilot, Gemini y Perplexity que respondieran preguntas sobre noticias actuales usando artículos de la BBC como fuente, se descubrió que el 51 por ciento de las respuestas presentaban «problemas significativos de algún tipo”.
El 19 por ciento contenía errores fácticos añadidos por el chatbot, y el 13 por ciento incluía citas alteradas o que no aparecían en los artículos citados.
«Los asistentes de IA no pueden considerarse actualmente fuentes fiables de noticias y corren el riesgo de desinformar a la audiencia”, concluyó Pete Archer, director del Programa de IA Generativa de la BBC.
Respuestas incorrectas con «una confianza alarmante”
De manera similar, una investigación del Tow Center for Digital Journalism, publicada en marzo de 2025 en la Columbia Journalism Review (CJR), reveló que ocho herramientas de búsqueda con IA generativa no lograron identificar correctamente el origen de fragmentos de artículos en el 60 por ciento de los casos.
Perplexity fue la que tuvo mejor desempeño, con una tasa de error del «solo” 37 por ciento, mientras que Grok respondió incorrectamente al 94 por ciento de las consultas.
La CJR manifestó especial preocupación por la «confianza alarmante” con la que estas herramientas presentaban respuestas erróneas. Informó, por ejemplo: «ChatGPT identificó erróneamente 134 artículos, pero solo expresó dudas en quince de sus doscientas respuestas, y nunca se negó a responder.”
En general, el estudio concluyó que los chatbots eran «poco competentes a la hora de rechazar preguntas cuya respuesta no podían dar con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas”, y que las herramientas de búsqueda por IA «fabricaban enlaces y citaban versiones sindicadas o copiadas de los artículos”.
Con información Agencias.-