Democracia con Inteligencia Artificial y elecciones en Bolivia

En las próximas elecciones nacionales en Bolivia, el verdadero adversario no será un candidato ni un partido. Será algo más sutil, ubicuo e invisible, la inteligencia artificial.

Una tecnología que, si bien tiene el potencial de modernizar y transparentar los procesos democráticos, también puede convertirse en la herramienta más peligrosa de manipulación política jamás vista en la historia del país.

“La mentira ha dado un paso más, ahora no solo se disfraza de verdad, sino que la imita a la perfección.” — Adaptación libre de Hannah Arendt

Ya no se trata solo de encuestas amañadas, trolls humanos o cadenas de WhatsApp. Estamos entrando en una era donde la mentira puede ser producida en masa, distribuida de manera automática y personalizada, y —peor aún— indistinguible de la verdad.

Lo que está en juego no es solo una elección, sino la confianza misma en lo que vemos, oímos y creemos.

Los deepfakes ya no son una promesa futurista. Son una realidad inquietante. En 2023, circularon en redes sociales bolivianas videos aparentemente reales de Evo Morales declarando su apoyo a una figura opositora, o de Luis Arce proponiendo medidas económicas inexistentes.

Aunque se desmintieron posteriormente, el daño estaba hecho, miles de personas los vieron, creyeron y compartieron antes de que llegara la rectificación.

Gracias al aprendizaje profundo (deep learning), hoy es posible generar videos en los que cualquier persona —viva o muerta— puede ser manipulada para decir lo que nunca dijo.

Y lo que es aún más peligroso, pueden ser personalizados. Un deepfake puede ser dirigido a un segmento específico del electorado con discursos diseñados para manipular emociones, generar odio y reforzar creencias. Así, la IA no solo falsifica la realidad, sino que la adapta al sesgo de cada usuario.

En un país como Bolivia, donde la polarización es profunda, el impacto emocional de un video falso puede ser devastador. En zonas rurales, donde el acceso a la verificación de datos es limitado, estos contenidos pueden inclinar votos, generar violencia o desatar crisis institucionales.

La IA también ha multiplicado la capacidad de generar contenido falso. En cuestión de segundos, un modelo como ChatGPT o Gemini puede redactar un artículo completo con cifras, nombres y declaraciones inventadas pero verosímiles.

Estos textos luego se publican en portales fantasmas, se replican en redes sociales y se posicionan gracias a granjas de bots.

Durante procesos electorales anteriores ya vimos cómo las fake news inundaron WhatsApp, Facebook y TikTok. Pero lo que viene será mucho más complejo. La IA no solo redacta la noticia falsa, la personaliza, la distribuye estratégicamente, y si es necesario, responde a los comentarios para defenderla. No estamos hablando de desinformación manual, sino industrializada.

La IA no solo produce contenido. También lo distribuye con eficiencia quirúrgica. Plataformas como Facebook o X (Twitter) permiten segmentar el contenido de forma extremadamente precisa.

La IA puede saber qué elector está indeciso, en qué barrio vive, qué noticias lee y qué tipo de lenguaje emocional lo conmueve. Y con eso, diseñar mensajes específicamente orientados a manipular su percepción.

La lógica es la siguiente, si eres joven y estudias en la universidad, probablemente recibirás contenidos distintos a los que recibe un jubilado rural.

Si alguna vez le diste “me gusta” a un post anticorrupción, es probable que te lleguen noticias sobre “la nueva mafia política” que se candidatea. Si interactuaste con memes, se te ofrecerán videos satíricos. Y así, la IA convierte el ecosistema digital en una burbuja emocional personalizada, diseñada para reforzar creencias y atacar al adversario político.

Esto ya lo vimos en elecciones internacionales (el caso Cambridge Analytica es el más emblemático), pero Bolivia no está exenta. Varias campañas pasadas usaron bots en Twitter y Facebook para amplificar mensajes, hostigar a periodistas, y posicionar etiquetas manipuladas.

Un tema que suele pasar desapercibido es que los modelos de IA también pueden tener sesgos ideológicos. Aunque las empresas desarrolladoras lo nieguen, es evidente que los datos con los que se entrenan los sistemas pueden reflejar posiciones políticas dominantes, tanto locales como globales.

Imagina una IA que, sin intención explícita, privilegia la visibilidad de noticias pro-gobierno o anti-oposición (o viceversa). No porque alguien la haya “programado” así, sino porque fue entrenada con miles de datos previamente sesgados.

Esa IA no será neutral, y sus “sugerencias” de contenido tampoco lo serán. En un contexto electoral, eso equivale a una manipulación masiva y silenciosa del voto.

El gran problema es que en Bolivia no existe aún una regulación específica sobre el uso de inteligencia artificial en procesos electorales.

El Tribunal Supremo Electoral (TSE) aún trabaja con sistemas tradicionales de monitoreo de medios, y aunque hay algunos convenios con empresas tecnológicas, estos no garantizan una respuesta eficaz ante la velocidad del caos digital.

Tampoco existe un observatorio ciudadano que pueda monitorear en tiempo real los efectos de estas tecnologías en el discurso público. Y mucho menos un sistema de alfabetización digital masiva que enseñe a los votantes a identificar un deepfake, una fake news o un contenido manipulado algorítmicamente.

Mientras tanto, los partidos políticos —de todos los colores y sabores— se preparan para una guerra donde la verdad será apenas una variable más.

En la próxima campaña electoral, no ganará el que tenga la mejor propuesta, sino el que sepa manipular mejor la percepción del electorado digital.

“La tecnología es una herramienta poderosa. Lo que hagamos con ella define si avanza la democracia o se profundiza la manipulación.”Shoshana Zuboff, socióloga y crítica del capitalismo de vigilancia

En un país como Bolivia, donde la desconfianza hacia las instituciones es endémica y las acusaciones de fraude aparecen incluso antes del escrutinio, utilizar la IA con fines democráticos no solo es posible, sino urgente.

Uno de los grandes cuellos de botella del sistema electoral boliviano ha sido históricamente la opacidad en la administración de los datos. Actas escaneadas a baja resolución, conteos lentos, ausencia de APIs públicas, y la nula interoperabilidad entre instituciones. La IA puede cambiar todo eso.

A través del uso de modelos de aprendizaje automático, se puede procesar en tiempo real la información proveniente de miles de actas, detectar patrones atípicos, errores sistemáticos, o incluso indicios de posible manipulación sin necesidad de esperar semanas.

Otra aplicación clave es la verificación de discursos políticos en tiempo real. En plena campaña, es habitual que los candidatos inflen cifras, repitan frases emocionalmente efectivas pero factualmente falsas, o prometan logros inexistentes. La IA puede convertirse en el nuevo “fact-checker” inmediato.

Herramientas como ClaimBuster, desarrollada en Estados Unidos, ya permiten detectar afirmaciones verificables dentro de un discurso y contrastarlas automáticamente con bases de datos oficiales.

Si esto se adaptara al contexto boliviano, plataformas como el SICOES, el INE o el TSE podrían alimentar motores de verificación en tiempo real.

Imaginemos un debate presidencial en Bolivia, transmitido en vivo, donde la ciudadanía reciba simultáneamente una alerta:

“Dato falso: El candidato mencionó una inversión de $300 millones en salud en 2023, pero el Presupuesto General del Estado reporta $112 millones.”

Este tipo de herramientas no solo empodera al votante, sino que fuerza a los políticos a subir el nivel de su argumentación y preparación. La IA se convierte, entonces, en garante técnico del debate democrático.

Así como la IA se usa para producir y distribuir noticias falsas, también puede emplearse para detectar, desacreditar y detener su avance.

Modelos entrenados para identificar patrones de fake news (lenguaje alarmista, fuentes dudosas, contenido duplicado) pueden operar en plataformas sociales como escudos digitales.

Por ejemplo, alguien reenvía un mensaje de voz donde se dice que el padrón electoral fue hackeado. El bot verifica si hubo algún reporte oficial, busca noticias en medios creíbles, analiza metadatos y responde:

“Información verificada: No hay reportes técnicos ni comunicados oficiales que confirmen esa versión. La noticia es falsa.”

Este enfoque exige inversión, infraestructura y alianzas entre el Estado, la sociedad civil y las plataformas digitales. Pero no es ciencia ficción: la tecnología ya existe. Lo que falta es voluntad política para adoptarla con transparencia.

Uno de los momentos más tensos en cualquier elección boliviana es la noche del escrutinio. La lentitud, la ambigüedad, los cortes en la transmisión y la falta de acceso a datos ordenados alimentan sospechas.

Aquí también la IA puede intervenir, no para contar votos, sino para presentar y difundir información fidedigna en tiempo real.

Imagina una plataforma nacional donde, al instante que se suben las actas, se genera un tablero visualizado por región, por género, por edad, por tipo de mesa, incluso con alertas de inconsistencias.

El ciudadano ve el mismo dato que ve el TSE. No hay “primero nos enteramos nosotros y luego ustedes”. La transparencia se vuelve simultánea, distribuida, democrática.

Y si esa misma plataforma incorpora elementos de IA —como detección de duplicidades, alertas de voto cruzado irregular, análisis estadístico de patrones sospechosos— entonces el proceso no solo es visible, sino protegido.

La IA también puede ser una herramienta poderosa para la inclusión electoral. En Bolivia, muchas personas no votan no por falta de voluntad, sino por barreras logísticas, lingüísticas o cognitivas.

Aplicaciones de IA pueden traducir mensajes políticos a lenguas originarias en tiempo real, crear interfaces accesibles para personas con discapacidad visual o cognitiva, y hasta generar resúmenes simplificados de planes de gobierno para sectores con bajo nivel de instrucción.

Una campaña basada en IA puede difundir cápsulas informativas adaptadas a cada comunidad, respetando su idioma, su cosmovisión y sus necesidades. Lejos de uniformar, la IA bien usada puede diversificar la participación política, haciendo que votar sea un derecho plenamente ejercido, no un privilegio limitado a quien tiene acceso y comprensión digital.

Por supuesto, todo este uso positivo de la IA depende de una condición fundamental, la neutralidad de quien la administra. Si el TSE, el Gobierno o cualquier fuerza política controlan los modelos, los datos, los algoritmos o los canales, entonces el riesgo de manipulación no desaparece: se institucionaliza.

Por eso, cualquier implementación de IA con fines democráticos debe ser:

De lo contrario, la herramienta de liberación se convierte en aparato de dominación.

La promesa de la inteligencia artificial como aliada de la democracia convive con un riesgo estructural, que esta misma tecnología, lejos de reducir los abusos del poder, los perpetúe con mayor eficiencia, invisibilidad y velocidad. En el contexto boliviano —marcado por la polarización, la desconfianza en las instituciones, y la fragilidad normativa— este dilema ético cobra una gravedad ineludible.

Si la IA no es desarrollada, administrada y auditada bajo principios de transparencia, participación y justicia algorítmica, no solo puede deformar el proceso electoral. Puede redefinir quiénes tienen derecho a ser escuchados, qué discursos circulan, qué voces son amplificadas y cuáles son silenciadas.

Uno de los mayores mitos sobre la IA es que es “neutral”. La realidad es otra, los algoritmos son tan objetivos como los datos que los entrenan... y esos datos están plagados de sesgos históricos, sociales, lingüísticos y políticos.

En Bolivia, por ejemplo, si un modelo de IA que analiza tendencias electorales se entrena solo con datos urbanos —provenientes de medios como Página Siete, El Deber o redes sociales— su capacidad para entender las dinámicas electorales rurales será nula.

Si se entrena solo con comentarios en castellano, invisibilizará las demandas del votante quechua, aymara o guaraní. Si analiza solo X (Twitter), proyectará la opinión de una élite digital que no representa al grueso de la población votante.

Si el modelo se alimenta de contenidos ya sesgados —por medios alineados a una fuerza política, o por influencers con agendas personales— terminará amplificando esas distorsiones. Así, una IA que parece técnica en realidad reproduce la subjetividad de quien la construyó.

Este fenómeno ya ha ocurrido. En Estados Unidos, sistemas de predicción electoral erraron masivamente porque no contemplaban la desinformación viralizada en foros cerrados.

En Brasil, se ha documentado cómo herramientas automatizadas de análisis político invisibilizan a los movimientos sociales rurales porque su huella digital es mínima. En Bolivia, el riesgo de sesgo algorítmico es estructural.

El verdadero problema no es solo técnico. Es político. Porque en última instancia, la IA no es solo una herramienta, es una configuración del poder.

Y en un país donde el uso de la tecnología ha sido históricamente instrumentalizado con fines de control, la administración de estas tecnologías debe ser observada con escepticismo activo.

¿Quién decidirá qué datos se usan para entrenar los modelos que procesen discursos, tendencias o mapas de intención de voto?¿Quién audita las plataformas que combaten (o silencian) “desinformación”?¿Quién tiene acceso al dashboard que monitorea el comportamiento electoral digital?¿Estará en manos del Estado? ¿De una empresa privada? ¿De una ONG financiada desde el exterior? ¿Del propio TSE?

Sin mecanismos claros de control ciudadano, el “vigilante digital” puede convertirse en “vigilante político”. Y Bolivia ya ha tenido suficientes experiencias con software electoral opaco, sospechas de manipulación tecnológica y denuncias cruzadas sobre fraudes no comprobados.

Otro aspecto crítico es la soberanía tecnológica. Bolivia no cuenta hoy con modelos de IA propios ni con centros de investigación nacionales en IA electoral. Depende de tecnologías diseñadas fuera del país, con lógicas ajenas a su contexto sociopolítico.

Esto significa que cualquier herramienta adoptada para gestionar información electoral —desde análisis de sentimientos hasta detección de bots— dependerá de estándares, códigos y estructuras diseñadas bajo marcos culturales distintos.

Y lo que es peor, muchos de estos sistemas son de caja negra, es decir, no se puede saber cómo toman decisiones internas.

Así, Bolivia corre el riesgo de adoptar soluciones tecnológicas con apariencia de objetividad, pero que consolidan una nueva forma de colonialismo digital, la subordinación política y democrática a los intereses de las plataformas y las potencias que las controlan.

Frente a este panorama, Bolivia necesita con urgencia un marco normativo, ético y técnico para el uso de inteligencia artificial en procesos electorales. Algunas propuestas concretas:

La inteligencia artificial no es enemiga de la democracia. Pero tampoco es su aliada automática. Es una tecnología ambivalente, poderosa y peligrosa, cuyo impacto depende de las reglas, los actores y los intereses que la rodean.

En Bolivia, el 2025 no será solo un año electoral. Será una prueba histórica de si estamos preparados para enfrentar el nuevo rostro del poder digital. La pregunta no es si la IA estará presente. Lo estará. La pregunta es: ¿quién la controlará? ¿Cómo? ¿Para qué?