Voy a continuar con el tema de la seguridad, articulándolo con los tópicos ya abordados: el asedio a periodistas y medios de comunicación como una de las columnas fundamentales del sistema democrático.
En este sentido, abordaré un fenómeno que exige, en apariencia, desplazar ligeramente el foco, pero que resulta central para comprender el contexto actual: la manipulación e interferencia informativa extranjera (FIMI, por sus siglas en inglés), particularmente en relación con los procesos electorales y su impacto tanto en la seguridad de los periodistas como en la estabilidad de las democracias. Se trata de un campo en el que he trabajado durante los últimos cinco años.
Su sistematización comenzó principalmente en Europa, aunque presenta una característica distintiva: estas operaciones buscan desestabilizar las democracias desde el exterior. Es decir, no solo se apoyan en fragilidades internas, sino que son impulsadas por actores extranjeros —Estados, gobiernos o entidades vinculadas a intereses geopolíticos específicos— que intervienen deliberadamente en el ecosistema informativo.
En este contexto, el periodismo y los medios de comunicación se convierten en blancos privilegiados. Las estrategias de FIMI buscan vulnerarlos tanto en lo personal como en lo profesional, dado que uno de sus objetivos centrales es erosionar la noción de verdad factual e imponer “posverdades”. Para lograrlo, resulta indispensable desacreditar al periodista, desplazando el valor de los hechos verificados en favor de narrativas funcionales a intereses específicos.
“Para instalar la posverdad, primero hay que desacreditar al periodista.”
MÁS ALLÁ DE LAS “FAKE NEWS”: EL ECOSISTEMA DE LOS DESÓRDENES INFORMATIVOS
FIMI se apoya en lo que hoy conocemos como desórdenes informativos, un ecosistema más amplio que el reductivo concepto de “noticias falsas” (término que es preferible evitar), dado que involucra la intención del emisor, el contexto de circulación, los canales de difusión y el impacto en la sociedad. Dichos desórdenes pueden originarse en redes sociales y posteriormente amplificarse en medios tradicionales, con potencial para provocar o incrementar la violencia y el desacato institucional.
Estos desórdenes se clasifican en tres categorías:
- Misinformation: información errónea, falsa o engañosa difundida sin intención de causar daño o engañar.
- Disinformation: información falsa o engañosa difundida deliberadamente para dañar, engañar o manipular.
- Malinformation: información basada en hechos reales que es deliberadamente manipulada o descontextualizada o manipulada con la intención de causar daño.
En consecuencia, FIMI no se limita a la desinformación; integra estos tres componentes como parte de una estrategia compleja orientada a debilitar democracias, socavar el periodismo y, en particular, interferir y secuestrar los procesos electorales.
INTELIGENCIA ARTIFICIAL Y ACELERACIÓN DEL RIESGO
Este fenómeno se ha visto exponencialmente amplificado por el desarrollo de la inteligencia artificial generativa, especialmente desde 2024, cuando su acceso se generalizó. Esto ha incrementado significativamente cuatro variables clave:
- Volumen de la información que dificulta la capacidad de las personas para distinguir entre información veraz y desinformación.
- Velocidad de propagación que se ha incrementado dramáticamente desde la época analógica.
- Viralidad de los contenidos. Las nuevas tecnologías han contribuido a la viralización de información y seguirán haciéndolo a escalas sin precedentes con capacidad de penetración en grupos segmentados.
- Verosimilitud que se refiere al hecho de que el contenido artificial es cada vez más indistinguible del verdadero. La identificación de la desinformación es muy complicada para el usuario.
El resultado es un entorno en el que distinguir entre lo verdadero y lo falso se vuelve cada vez más difícil, incluso para periodistas profesionales.
DEL CONTENIDO AL COMPORTAMIENTO: UN CAMBIO DE PARADIGMA
“Ya no basta con verificar información: hay que rastrear operaciones.”
En términos conceptuales, FIMI puede definirse como un patrón de comportamiento —mayormente no ilegal— que amenaza o tiene el potencial de afectar negativamente valores, procesos y procedimientos políticos. Dicha actividad es de carácter manipulador y es llevada a cabo de manera intencionada y coordinada, llevada a cabo por actores estatales o no estatales, dentro o fuera de sus territorios.
Este enfoque implica un cambio de paradigma fundamental: el análisis ya no se centra únicamente en el contenido —si es verdadero o falso—, sino en el comportamiento —si existe intención maliciosa y coordinación detrás de su difusión—. En consecuencia, verificar información ya no es suficiente; es necesario rastrear operaciones complejas, independientemente de que el contenido sea técnicamente verídico.
Es un sistema completo y complejo, casi como un ecosistema global de acoso informativo.
OPERACIONES ENCUBIERTAS: EL CASO DOPPELGÄNGER
Un caso clave que forzó a Europa a estabilizar su definición y generar una metodología para su análisis y seguimiento es el de “Doppelgänger” (los Dobles). En esta operación, actores vinculados al gobierno ruso replicaron sitios web de al menos 17 medios prestigiados como The Guardian, Le Monde, LaStampa, 20Minutos o Der Spiegel, para difundir contenido falso y desacreditar al gobierno ucraniano.
Esta campaña de Manipulación e Interferencia Informativa Extranjera (FIMI), iniciada en febrero de 2022 tras la invasión rusa a Ucrania, buscaba legitimar dicha intervención mediante narrativas recurrentes, como la supuesta “desnazificación” del país, al tiempo que desacreditaban a Zelensky y debilitaban el apoyo internacional a las sanciones impuestas a Rusia.
Para ello, se utilizaron técnicas sofisticadas de suplantación de identidad mediática, clonando diseño, estilo y formato de medios reales, difundiendo contenido falso en forma de capturas a través de anuncios pagos, redes de bots y cuentas falsas, en múltiples idiomas, principalmente en francés, inglés, letón, ucraniano y ruso.
La investigación del caso, basada en Técnicas OSINT, permitió identificar patrones de comportamiento coordinado, registros de dominios similares, el uso compartido de servidores y sincronización en la creación de sitios apuntando a Rusia.
Todo ello generó un entorno de confusión y desacreditación que obligó a un análisis e investigación rigurosos a partir de:
- Herramientas de Análisis de Dominios (WHOIS y DNS) que evidenciaron que los sitios clonados no eran independientes, sino parte de una estructura coordinada
- Análisis de publicidad digital a través de bibliotecas como Meta Ad Library y Google Ads Transparency, que permitió detectar campañas pagadas con patrones de segmentación similares;
- Análisis de las narrativas mediante búsquedas avanzadas (Google Dorks), monitoreo de palabras clave -keywords-, y técnicas semánticas, que revelaron la sincronización de mensajes en múltiples idiomas.
RESPUESTA TECNOLÓGICA Y LÍMITES DE CONTENCIÓN
La complejidad de estas campañas exigió respuestas técnicas igualmente sofisticadas como:
- El desmantelamiento en plataformas digitales donde empresas como Meta y Google eliminaron cuentas falsas, bloquearon dominios que imitaban medios legítimos y retiraron campañas publicitarias asociadas para frenar la amplificación y visibilidad de la operación.
- La exposición pública de estas operaciones mediante la publicación de informes detallados que explicaban sus narrativas buscando reducir su credibilidad y fortalecer la resiliencia de las audiencias.
- El desarrollo formal de la metodología FIMI por parte del Servicio Europeo de Acción Exterior (EEAS) que marcó un cambio decisivo al pasar del análisis del contenido al análisis del comportamiento.
“No se trata de contenidos aislados, sino de infraestructuras coordinadas de manipulación.”
Este caso evidenció un punto crítico: sin la participación activa -intervención y acción- de las plataformas digitales, resulta extremadamente difícil frenar estas campañas.
QUÉ DEFINE A UNA OPERACIÓN FIMI
Como hemos dicho, cuando hablamos de FIMI, nos referimos a un conjunto de características recurrentes: origen extranjero con objetivos geopolíticos definidos; manipulación deliberada del entorno informativo; suplantación de identidad mediática; coordinación y amplificación multicanal; uso de técnicas híbridas propias de la guerra contemporánea; un patrón de comportamiento, intencionalidad y coordinación; y una escala sostenida en el tiempo que descarta la idea de incidentes aislados.
En síntesis, sus rasgos esenciales son tres:
- Patrón de comportamiento: no se trata de una publicación puntual, sino de tácticas sostenidas, generalmente no ilegales por sí mismas.
- Intencionalidad: diseñadas deliberadamente para manipular, engañar y causar daño.
- Coordinación: ejecutadas de forma sistemática por actores estatales o sus agentes dentro y fuera de su territorio.
“La amenaza ya no es una noticia falsa: es un sistema organizado de interferencia.”
UNA AMENAZA GLOBAL EN EXPANSIÓN
Muchas de estas campañas ya detectadas e investigadas —más de 10,500 canales y 43,000 piezas de contenido—, han sido atribuidas a Rusia (29%), China (6%) y otros actores no identificados (65%). Su impacto es global: afecta tanto a países y organizaciones objetivo como a terceros, aún y cuando no están directamente en el radar.
Entre los casos documentados de países afectados se encuentran: Estados Unidos (51), Alemania (71), Bélgica (16), República de Moldova (94), Ucrania (112), Polonia (17), Reino Unido (36), Francia (107), Italia (11), Rumanía (14), Armenia (18), Siria (15), Japón (13) y más de 200 organizaciones. En América Latina, estos ataques han comenzado a manifestarse con creciente claridad.
ELECCIONES BAJO PRESIÓN: DEL CICLO POLÍTICO A LA OPERACIÓN PERMANENTE
FIMI tiene un impacto particularmente significativo en los procesos electorales. A diferencia de las campañas analógicas —limitadas en tiempo y recursos—, las estrategias digitales actuales operan de manera continua y sin restricciones temporales, es decir, operan de manera permanente y son mucho menos costosas.
Las campañas políticas digitales no se rigen por los límites formales de los ciclos electorales ni su legislación: el contenido circula antes, durante y después de las elecciones, con escasa regulación, sin necesidad de verificación de los datos, bajo costo y alta capacidad de penetración al presentarse en formatos mucho más amigables para los destinatarios.
En este contexto, los medios y periodistas han dejado de ser guardianes de la información para convertirse en blancos de ataque.
LA ERA DE LAS “ELECCIONES GENERATIVAS”
Hoy nos encontramos en un nuevo estadio: el de las elecciones generativas que se caracterizan por una sobrecarga exponencial de la información en donde las herramientas de IA, especialmente los Grandes Modelos de Lenguaje (LLMs), aumentan la cantidad de contenido producido y difundido.
Esto genera un entorno donde:
- Los ciudadanos tienen crecientes dificultades para distinguir entre información veraz y manipulada.
- El contenido generado por IA está optimizado para el impacto emocional y la viralidad.
- GenAI redefine las estrategias de campaña en términos de escala, velocidad y segmentación sin precedentes.
“La inteligencia artificial no solo amplifica la desinformación: redefine la política.”
FASES DE LA INTERFERENCIA ELECTORAL
Las campañas electorales digitales y generativas impulsadas por FIMI no son espontáneas, siguen patrones estructurados que atraviesan distintas fases y se extienden en el tiempo, eclosionando en determinados momentos del ciclo e intensificándose en momentos clave:
- Preparación (meses antes): creación de canales encubiertos, captación de audiencias objetivo y siembra temprana de narrativas divisivas.
- Intensificación (mes previo): activación de redes inauténticas coordinadas, proliferación de contenido falso y filtraciones estratégicas preparadas (hack-and-leak).
- Zona crítica: manipulación intensiva en las últimas 72 horas con falsas alertas de seguridad para disuadir el voto, ataques DDoS para generar pánico de última hora y picos de manipulación emocional.
- Deslegitimación (postelectoral): explotación de la incertidumbre durante el conteo, denuncias de fraudes prefabricados e incitación a la protesta y violencia.
LIBERTAD DE EXPRESIÓN EN DISPUTA
FIMI es contrario al espíritu del Artículo 19 de la Declaración Universal de los Derechos Humanos adoptada en 1948, que consagra la libertad de expresión: : “Todo el mundo tiene derecho a la libertad de opinión y expresión, este derecho incluye la libertad de mantener opiniones sin interferencias ni ser molestado, la libertad de buscar, recibir y transmitir información e ideas a través de cualquier medio de expresión, independientemente de las fronteras”.
Hay que aclarar que esta libertad no es absoluta: existen límites legítimos vinculados a la protección de la seguridad nacional, el orden público, la salud pública y moral, y si la integridad física, mental y la reputación de los demás está en riesgo. También hay límites en casos de propaganda en favor de la guerra y cuando hace apología al odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia.
En este contexto, coexisten dos modelos de libertad de expresión: el enfoque internacional de derechos humanos y que es predominante en América Latina con ciertos límites y el modelo estadounidense sin límites basado en la Primera Enmienda y que concibe la libertad de expresión como un derecho casi absoluto frente al Estado, con mínimas restricciones que solo aplican en casos excepcionales como incitación directa a la violencia o amenazas reales. Este modelo favorece las dinámicas algorítmicas de las plataformas que priorizan contenidos polarizantes como fuente monetizadora en convergencia con las estrategias de FIMI.
Un ejemplo de ello se dio en Brasil en 2023, cuando el Tribunal Supremo ordenó eliminar contenido que incitaba a la insurrección tras la derrota electoral de Jair Bolsonaro. Plataformas como X de Elon Musk se resistieron, alegando censura, lo que derivó en un conflicto institucional que culminó con el bloqueo temporal de la red social hasta el cumplimiento de los requisitos legales establecidos por las autoridades brasileñas.
Este caso ilustra cómo la lógica algorítmica —que privilegia contenidos emocionales, polarizantes y de alta interacción—, favorece las campañas de manipulación informativa y les permite a ciertos actores incidir y debilitar las democracias.
El caso de Cambridge Analytica mostró cómo el uso de datos masivos —87 millones de perfiles de Facebook— permitió influir en el referéndum del Brexit de 2016, evidenciando la convergencia entre actores políticos, tecnológicos y mediáticos en procesos de manipulación electoral. En este caso se comprobaron: la injerencia extranjera de actores involucrados; el objetivo de manipular a los votantes; la participación de medios estatales extranjeros que replicaron el mensaje; y múltiples actores que permitieron la amplificación y difusión masiva de la narrativa polarizante mediante el uso de cuentas falsas y bots.
Esto afectó la democracia de Reino Unido, debilitó a la Unión Europea y, en lo positivo, provocó cambios en la regulación y arquitectura de las plataformas digitales.
EL “EFECTO MANCHA DE PETRÓLEO”: LA EXPANSIÓN SILENCIOSA
Un concepto clave para entender la dinámica de estas campañas es el denominado “efecto mancha de petróleo”: incluso aquellos países que no son objetivos directos terminan siendo contaminados por estas operaciones, debido a la naturaleza transnacional del ecosistema informativo.
En América Latina, este fenómeno ya es observable a través de casos documentados.
Uno de ellos es Bolivia, con la operación “Luis Arce” entre 2024 y 2025, en la que actores vinculados al antiguo grupo Wagner (ruso) enviaron operadores para intervenir en la comunicación política, favoreciendo la imagen del entonces presidente Arce mediante la construcción de narrativas en torno a una supuesta revuelta militar atribuida al excomandante Juan José Zúñiga, en el contexto de las elecciones de 2025.
Otro caso relevante es el denominado “Ensalada Rusa” en Argentina, donde, bajo injerencia del Kremlin, se infiltraron más de 20 portales y medios para desprestigiar al gobierno de Javier Milei, generar tensiones regionales —particularmente con Chile—, promover narrativas antioccidentales debilitando la influencia de Estados Unidos y la Unión Europea, y exacerbar las divisiones sociales. En esta operación se difundieron más de 250 artículos falsos utilizando identidades de periodistas inexistentes creadas con inteligencia artificial.
CÓMO IDENTIFICAR UNA OPERACIÓN FIMI: PATRONES, TÁCTICAS Y EFECTOS
Sintetizando, las campañas de manipulación e interferencia informativa extranjera (FIMI) comparten una serie de elementos estructurales que permiten su identificación. En todos los casos, existe un evento sobre el que se busca incidir -elecciones, por ejemplo-, actores con intereses definidos, distribución viral y saturación del espacio digital, suplantación de identidad de medios y periodistas, patrones de comportamiento reconocibles y contenido simplificado, altamente polarizante y carente de sofisticación argumentativa.
A esto se suma una distribución viral que amplifica su alcance y genera efectos negativos directos sobre las instituciones democráticas. En última instancia, estas campañas persiguen objetivos claros: desestimar, distorsionar, distraer, desanimar y dividir a la sociedad.
“No buscan convencer: buscan confundir, fragmentar y erosionar la confianza.”
El llamado “lavado de información” es una de las estrategias más eficaces: consiste en introducir contenidos en espacios marginales o poco visibles y luego amplificarlos progresivamente hasta posicionarlos en el debate público como si fueran legítimos.
PERIODISMO BAJO PRESIÓN: RIESGOS EXTERNOS Y NUEVAS AMENAZAS
La conclusión es clara: los riesgos para los periodistas ya no son únicamente internos, sino también externos. Las campañas FIMI destruyen reputaciones, suplantan identidades y erosionan la credibilidad profesional.
Además, generan acoso coordinado y amenazas mediante ejércitos de bots y trolls que buscan silenciar a los periodistas a través del miedo. En contextos de conflicto, guerra o inestabilidad, estas estrategias pueden escalar aún más, deshumanizando a ciertos grupos o presentando a los reporteros como “agentes enemigos”, lo que incrementa el riesgo de violencia directa contra ellos en el terreno.
“El ataque ya no es solo físico: es reputacional, digital y sistemático.”
LA PARADOJA DEMOCRÁTICA: LIBERTAD DE EXPRESIÓN COMO VECTOR DE ATAQUE
Uno de los mayores riesgos estructurales es que las campañas FIMI utilizan las propias leyes de libertad de expresión de las democracias para inyectar “venenos informativos”. Esta paradoja puede empujar a los Estados a adoptar medidas restrictivas que, en última instancia, terminan afectando el ejercicio legítimo del periodismo.
CONCLUSIÓN: CONSTRUIR ESTRATEGIAS DE DEFENSA
Frente a este escenario, es fundamental reconocer la existencia de las campañas FIMI y desarrollar escudos de protección estructurados en cuatro dimensiones clave:
- Identificación y preparación: evaluar vulnerabilidades, mapear el ecosistema informativo, establecer alianzas de alerta temprana e implementar estrategias de pre-bunking (desmentido preventivo).
- Detección: monitorear patrones de comportamiento inauténtico (TTPs) y recolectar evidencia de manera sistemática mediante estándares de inteligencia compartida.
- Reacción: desplegar planes de acción tácticos y calibrados acordes al nivel de riesgo —desde ignorar para evitar amplificación hasta contener o redirigir la narrativa hacia fuentes confiables—, en coordinación forzosa con plataformas digitales.
Integración: realizar análisis “post-mortem” (lecciones aprendidas) y fortalecer la cooperación mediante redes de intercambio de inteligencia colectiva.
Experta en integridad de la información electoral, libertad de expresión, seguridad de los periodistas, políticas tecnológicas y participación política de las mujeres.
Tiene más de 20 años de experiencia trabajando para la OEA, Operaciones de Mantenimiento de la Paz de la ONU, PNUD, ONU Mujeres y más recientemente en la UNESCO, cubriendo posiciones que van desde jefa de oficina, jefa de equipo, oficial sobre el terreno, asesora gubernamental, consultora independiente e instructora certificada de BRIDGE.
Ha participado en numerosas misiones en Ucrania, Níger, Costa de Marfil, Túnez, Libia, Timor Oriental, Indonesia, Nueva Caledonia, México, Bolivia, Perú, Colombia, Costa Rica, Ecuador, República Dominicana y Venezuela. Estudió Filosofía y Literatura con Maestría en Periodismo.







