{"id":277850,"date":"2025-05-19T17:01:51","date_gmt":"2025-05-19T21:01:51","guid":{"rendered":"https:\/\/elluchador.info\/?p=277850"},"modified":"2025-05-19T17:01:54","modified_gmt":"2025-05-19T21:01:54","slug":"cuan-fiables-son-las-verificaciones-de-hechos-mediante-ia","status":"publish","type":"post","link":"https:\/\/elluchador.info\/?p=277850","title":{"rendered":"\u00bfCu\u00e1n fiables son las verificaciones de hechos mediante IA?"},"content":{"rendered":"\n<p>\u00abHey, @Grok, \u00bfesto es cierto?\u201d Miles de usuarios de X (antes Twitter) han estado haciendo esta pregunta para verificar r\u00e1pidamente la informaci\u00f3n que ven en esa plataforma desde que xAI, la empresa de Elon Musk, lanz\u00f3 su chatbot de inteligencia artificial generativa Grok, en noviembre de 2023. Y m\u00e1s a\u00fan desde que se extendi\u00f3 a todos los usuarios no pr\u00e9mium en diciembre de 2024.<\/p>\n\n\n\n<p>Una encuesta reciente realizada por la publicaci\u00f3n tecnol\u00f3gica brit\u00e1nica TechRadar revel\u00f3 que el 27 por ciento de los estadounidenses ha utilizado herramientas de inteligencia artificial como ChatGPT de OpenAI, Meta AI de Meta, Gemini de Google, Copilot de Microsoft,o aplicaciones como Perplexity, en lugar de buscadores tradicionales como Google o Yahoo.<\/p>\n\n\n\n<p>Pero, \u00bfqu\u00e9 tan precisas y confiables son realmente las respuestas de estos chatbots? Muchos se han hecho esta pregunta ante las recientes declaraciones de Grok sobre un supuesto \u00abgenocidio blanco\u00bb en Sud\u00e1frica. <\/p>\n\n\n\n<p>M\u00e1s all\u00e1 de la postura problem\u00e1tica del bot sobre este tema, a los usuarios de X tambi\u00e9n les sorprendi\u00f3 que comenzara a hablar de ello cuando se le consultaban temas completamente distintos, como en el siguiente ejemplo: el debate sobre un presunto \u00abgenocidio blanco\u201d surgi\u00f3 despu\u00e9s de que la administraci\u00f3n Trumpacogiera a sudafricanos blancos como \u00abrefugiados\u00bb en Estados Unidos. <\/p>\n\n\n\n<p>Trump afirm\u00f3 que estos estaban enfrentando un \u00abgenocidio\u201d en su pa\u00eds, una acusaci\u00f3n sin fundamento, y que muchos vinculan con el mito conspirativo racista de extrema derecha del \u00abGran Reemplazo\u201d.<\/p>\n\n\n\n<p>xAI atribuy\u00f3 la insistencia de Grok en el tema a una \u00abmodificaci\u00f3n no autorizada\u201d y asegur\u00f3 haber realizado una \u00abinvestigaci\u00f3n exhaustiva\u201d. Pero, \u00bfocurren fallos como este con frecuencia? \u00bfQu\u00e9 tan seguro puede estar un usuario de obtener informaci\u00f3n confiable al usar IA para verificar hechos?<\/p>\n\n\n\n<p><strong>Un estudio revela errores f\u00e1cticos y citas alteradas<\/strong><\/p>\n\n\n\n<p>Dos estudios realizados este a\u00f1o en Estados Unidos por la cadena p\u00fablica brit\u00e1nica BBC y el Tow Center for Digital Journalism han identificado deficiencias significativas en la capacidad de los chatbots de IA generativa para transmitir informaci\u00f3n period\u00edstica con precisi\u00f3n.<\/p>\n\n\n\n<p>En febrero, un estudio de la BBC concluy\u00f3 que \u00ablas respuestas generadas por asistentes de IA conten\u00edan inexactitudes importantes y distorsiones\u201d del contenido producido por la organizaci\u00f3n.<\/p>\n\n\n\n<p>Al pedir a ChatGPT, Copilot, Gemini y Perplexity que respondieran preguntas sobre noticias actuales usando art\u00edculos de la BBC como fuente, se descubri\u00f3 que el 51 por ciento de las respuestas presentaban \u00abproblemas significativos de alg\u00fan tipo\u201d.<\/p>\n\n\n\n<p>El 19 por ciento conten\u00eda errores f\u00e1cticos a\u00f1adidos por el chatbot, y el 13 por ciento inclu\u00eda citas alteradas o que no aparec\u00edan en los art\u00edculos citados.<\/p>\n\n\n\n<p>\u00abLos asistentes de IA no pueden considerarse actualmente fuentes fiables de noticias y corren el riesgo de desinformar a la audiencia\u201d, concluy\u00f3 Pete Archer, director del Programa de IA Generativa de la BBC.<\/p>\n\n\n\n<p><strong>Respuestas incorrectas con \u00abuna confianza alarmante\u201d<\/strong><\/p>\n\n\n\n<p>De manera similar, una investigaci\u00f3n del Tow Center for Digital Journalism, publicada en marzo de 2025 en la Columbia Journalism Review (CJR), revel\u00f3 que ocho herramientas de b\u00fasqueda con IA generativa no lograron identificar correctamente el origen de fragmentos de art\u00edculos en el 60 por ciento de los casos.<\/p>\n\n\n\n<p>Perplexity fue la que tuvo mejor desempe\u00f1o, con una tasa de error del \u00absolo\u201d 37 por ciento, mientras que Grok respondi\u00f3 incorrectamente al 94 por ciento de las consultas.<\/p>\n\n\n\n<p>La CJR manifest\u00f3 especial preocupaci\u00f3n por la \u00abconfianza alarmante\u201d con la que estas herramientas presentaban respuestas err\u00f3neas. Inform\u00f3, por ejemplo: \u00abChatGPT identific\u00f3 err\u00f3neamente 134 art\u00edculos, pero solo expres\u00f3 dudas en quince de sus doscientas respuestas, y nunca se neg\u00f3 a responder.\u201d<\/p>\n\n\n\n<p>En general, el estudio concluy\u00f3 que los chatbots eran \u00abpoco competentes a la hora de rechazar preguntas cuya respuesta no pod\u00edan dar con precisi\u00f3n, ofreciendo en su lugar respuestas incorrectas o especulativas\u201d, y que las herramientas de b\u00fasqueda por IA \u00abfabricaban enlaces y citaban versiones sindicadas o copiadas de los art\u00edculos\u201d.<\/p>\n\n\n\n<p>Con informaci\u00f3n <strong><em><mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-green-cyan-color\">Agencias.-<\/mark><\/em><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00abHey, @Grok, \u00bfesto es cierto?\u201d Miles de usuarios de X (antes Twitter) han estado haciendo esta pregunta para verificar r\u00e1pidamente la informaci\u00f3n que ven en esa plataforma desde que xAI, la empresa de Elon Musk, lanz\u00f3 su chatbot de inteligencia artificial generativa Grok, en noviembre de 2023. Y m\u00e1s a\u00fan desde que se extendi\u00f3 a [&hellip;]<\/p>\n","protected":false},"author":33,"featured_media":277851,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[1508,4040],"class_list":{"0":"post-277850","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia","8":"tag-ia","9":"tag-verificacion"},"_links":{"self":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/277850","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/users\/33"}],"replies":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=277850"}],"version-history":[{"count":1,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/277850\/revisions"}],"predecessor-version":[{"id":277852,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/277850\/revisions\/277852"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/media\/277851"}],"wp:attachment":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=277850"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=277850"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=277850"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}