febrero 25, 2026



Un periodista tecnológico puso a prueba los sistemas de inteligencia artificial de uso masivo y evidenció una vulnerabilidad: logró que chatbots como OpenAI y herramientas de búsqueda impulsadas por IA de Google replicaran información falsa publicada por él mismo en un blog personal.

El experimento fue realizado por Thomas Germain, periodista de la BBC, quien redactó un artículo completamente inventado en el que aseguraba ser “el mejor periodista comedor de panchos del mundo”. En el texto incluyó detalles ficticios, supuestos campeonatos internacionales y nombres reales y falsos de colegas para darle mayor apariencia de veracidad.

El artículo fue publicado en su blog y, según explicó, en menos de 24 horas las respuestas generadas por ChatGPT y las herramientas de IA de Google comenzaron a reproducir esas afirmaciones como si se tratara de datos reales. Incluso, en algunos casos, citaban el propio blog como fuente sin advertir que se trataba del único origen de la información.

Cómo funciona la vulnerabilidad

Los modelos de lenguaje que utilizan estos servicios están entrenados con grandes volúmenes de datos previamente analizados. Sin embargo, cuando reciben consultas sobre temas específicos o recientes, pueden realizar búsquedas en internet para complementar la información. En ese proceso, si el contenido no está debidamente contrastado, la IA puede incorporar datos inexactos.

El experimento evidenció que, con contenido redactado de forma detallada y verosímil, es posible influir en las respuestas que brindan estas herramientas.

Tras la difusión del caso, un portavoz de Google indicó que los sistemas de clasificación de su buscador mantienen los resultados “99% libres de spam”, aunque reconoció que las funciones de IA pueden cometer errores. Desde OpenAI también señalaron que implementan medidas para interrumpir intentos de manipulación, pero admitieron que los sistemas no son infalibles.

De acuerdo con el periodista, otros modelos, como los desarrollados por Anthropic, mostraron mayor cautela y señalaron que la información podría tratarse de una broma.

Riesgos y recomendaciones

El caso reaviva el debate sobre la desinformación en entornos digitales y el alcance que puede tener cuando es amplificada por sistemas automatizados. Expertos advierten que este tipo de fallas podría tener consecuencias en ámbitos sensibles como la salud, la economía o la política.

Ante este escenario, recomiendan a los usuarios verificar las fuentes citadas por los servicios de IA y contrastar la información con medios reconocidos antes de tomar decisiones basadas en respuestas automatizadas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *