La inteligencia artificial ya llegó a las campañas electorales y, para muchos equipos, llegó con la promesa de resolverlo todo: redactar discursos, generar videos, segmentar audiencias, monitorear conversaciones, responder ataques, diseñar contenidos y hasta sugerir líneas narrativas en tiempo real.
No es una exageración. Organismos internacionales como la UNESCO y el PNUD han advertido que la IA ya está influyendo en cómo se produce, distribuye y consume la información durante los periodos electorales, al tiempo que amplifica riesgos como la desinformación, la invasión de la privacidad y las noticias falsas contra figuras políticas. Además, la adopción social de estas herramientas ha crecido: la OCDE reportó que en 2025 más de un tercio de las personas en sus países miembros ya utilizaba IA generativa.
Ese crecimiento explica por qué hoy la IA ya se usa en política para tareas reales y cotidianas: redactar variantes de mensajes, resumir encuestas, convertir bases de datos en hallazgos preliminares, identificar tendencias de conversación, producir piezas creativas a gran velocidad y adaptar contenidos para distintos públicos. Bien utilizada, puede ahorrar tiempo, reducir carga operativa y acelerar la capacidad de reacción.
Claro que sería muy absurdo negarlo. El problema empieza cuando la herramienta deja de ser apoyo y se convierte en sustituto del criterio. Ahí es donde muchos equipos están cometiendo un error de fondo: confundir velocidad con estrategia, volumen con inteligencia y automatización con comprensión política.
La política electoral no ocurre en el vacío ni en un laboratorio. Ocurre en colonias, secciones, regiones, crisis, coyunturas, inconformidades acumuladas de los ciudadanos, símbolos locales, liderazgos reales y emociones reales.
Una campaña requiere más que mensajes; necesita timing, lectura de contexto, jerarquización de riesgos, comprensión del adversario y sensibilidad para decidir qué decir, cuándo callar, qué pelea dar y cuál evitar.
Eso no sale intacto de una caja de texto. La IA puede ordenar información, pero no reemplaza el instinto político cultivado en territorio, con los estudios. Puede proponer frases, pero no puede cargar con el costo de una mala decisión. Puede producir opciones, pero no puede asumir la responsabilidad estratégica de escoger la correcta.
Además, sería bueno que reflexionemos sobre la necesidad de frenar a la fe ciega que algunos ya depositan en estas tecnologías. La propia investigación sobre modelos de lenguaje reconoce que las llamadas “alucinaciones” siguen siendo un problema estructural. OpenAI señaló en 2025 que estos sistemas tienden a “adivinar” cuando son inciertos, porque los procesos de entrenamiento y evaluación suelen premiar más una respuesta plausible que el reconocimiento honesto de no saber.
En su tarjeta técnica de los modelos o3 y o4-mini, la misma empresa reportó tasas de alucinación de 33% y 48%, respectivamente, en su evaluación PersonQA; y en SimpleQA los resultados fueron aún peores para algunos modelos, con tasas de 51% para o3 y 79% para o4-mini. Dicho de otro modo: no es serio tratar estas herramientas como si fueran la panacea de la comunicación política. Vea aqui el estudio: https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf
Esto importa especialmente en campaña porque el error no siempre se nota de inmediato. A veces la IA inventa un dato, atribuye una cita inexistente, mezcla contextos, resume mal un estudio o presenta como certeza algo que solo era una inferencia débil.
Y cuando eso ocurre el daño puede ser costoso: un mensaje mal sustentado, una reacción precipitada, una lectura equivocada del humor social o una pieza audiovisual que cruce la línea ética pueden erosionar credibilidad en cuestión de horas.
Brookings documentó que antes de la elección presidencial estadounidense de 2024 existía una preocupación social muy alta por el uso de IA para difundir información engañosa, mientras que la UNESCO ha insistido en que estas tecnologías pueden afectar la integridad informativa del proceso electoral.
Por eso la discusión seria no es si debemos usar IA o no. Esa etapa ya pasó. La pregunta correcta es quién la usa, para qué la usa, con qué controles la usa y bajo qué criterio humano la supervisa.
Una campaña responsable puede apoyarse en IA para acelerar borradores, explorar escenarios, analizar y clasificar datos por ejemplo. Pero todo eso debe pasar por el filtro del operador político, del cuarto de guerra, del conocimiento territorial y del juicio estratégico. La máquina puede sugerir; la dirección debe seguir siendo humana.
Por ejemplo, Meta tiene requisitos muy claros de divulgación para anuncios políticos y de temas sociales que utilicen IA u otras técnicas de manipulación digital, precisamente por el riesgo de mostrar personas, eventos o declaraciones inexistentes.
Si las mismas plataformas reconocen que el contenido sintético puede confundir al electorado, resulta todavía más irresponsable que hoy en día existan consultores que vendan la idea de campañas casi automáticas, operadas a punta de prompts y plantillas.
La gran tentación de esta época es creer que pensar ya no será necesario porque ahora existe una herramienta que responde rápido, redacta bonito y parece segura de sí misma. Pero una campaña electoral no se define por quién escribe más rápido, sino por quién interpreta mejor la realidad.
Y la realidad política sigue siendo demasiado compleja para delegarla por completo a un sistema que todavía puede equivocarse con una seguridad alarmante.
El pensamiento estratégico y crítico, aplicado en el momento y en el lugar correctos vale mucho más de lo que hoy se cree. Y con tanta euforia por el uso de la IA, la verdadera ventaja competitiva no está en usarla sin límites, sino en saber hasta dónde dejarla entrar.
