En Llallagua murieron policías. Jóvenes. Emboscados. Enfrentamientos. Bloqueos. Dinamita. Francotiradores. Videos. Testimonios. Cruces de versiones. Todo revuelto en un cóctel de titulares diseñados para no informar, sino para reforzar bandos.
Las autoridades hablan de “paramilitares”; la oposición responde con “montajes”. Mientras tanto, los muertos no tienen versión, solo silencio.
Los medios hegemónicos, en lugar de esclarecer, se suman al ruido. Se lanzan noticias sin contrastar, titulares que insinúan más que informan, imágenes sin contexto.
Algunos intentan jugar al fact-checking de último momento, pero el daño ya está hecho. La narrativa del caos vende, polariza y sirve a todos los extremos.
La tecnología puede verificar. La inteligencia artificial puede detectar deepfakes, analizar imágenes, contrastar fuentes, rastrear desinformación y proteger la verdad.
Pero en Bolivia, donde la verdad incomoda a todos, eso no interesa. Aquí se prefiere la sospecha, el montaje, la posverdad y el “show mediático” delante de cámaras.
Aun así, existen dos plataformas que hacen un esfuerzo valiente y necesario: Bolivia Verifica y Chequea Bolivia. Desde hace años, ambas se dedican a desmontar desinformación viral, auditar discursos públicos, verificar imágenes y titulares manipulados.
Son una especie de IA humana, trabajando casi a contracorriente. Y aunque son valiosas, no pueden sustituir un sistema institucional que debería garantizar la verdad desde el poder.
No es su culpa. Es el sistema el que ha fallado. Porque no basta con verificar una noticia falsa cuando todo el ecosistema informativo está podrido.
Mientras en otros países se discute el uso ético de la IA para mejorar la justicia y la gobernanza, en Bolivia la tecnología es instrumentalizada para vigilar al disidente y blindar al poder y a la oligarquía.
Se anuncian “sistemas de videovigilancia”, “centros de monitoreo inteligente”, “patrullajes con IA” —pero ni una muerte, ni un montaje, ni un abuso ha sido esclarecido gracias a eso.
¿Dónde están los resultados? ¿Dónde están los análisis forenses digitales? ¿Dónde está la verificación algorítmica del video que usaron para justificar la violencia? En ninguna parte. Porque lo que se busca no es la verdad, sino el control.
La IA es poderosa. Pero cuando la ética está ausente, esa misma herramienta puede ser usada para censurar, espiar, acosar o fabricar “pruebas”.
Y en un país donde la institucionalidad está colonizada por facciones, toda tecnología termina subordinada a la narrativa dominante.
Bolivia necesita construir sistemas de inteligencia artificial al servicio de la ciudadanía, no del régimen ni de los caudillos. Plataformas abiertas, transparentes, descentralizadas, que verifiquen información, auditen videos, identifiquen manipulación mediática y alerten sobre narrativas falsas.
Necesitamos una IA que no vigile, sino que defienda. Que no criminalice, sino que esclarezca. Que no sirva al gobierno ni a la oposición, sino a la verdad.
Y sobre todo, necesitamos una ciudadanía crítica, formada, que no crea todo lo que ve ni todo lo que le dicen. Porque ninguna tecnología servirá si la gente prefiere la consigna al criterio.
Cada vez que se lanza una noticia sin verificar, Bolivia se rompe un poco más. Cada vez que un líder político manipula una imagen o un testimonio, se pudre un poco más la democracia.
Cada vez que el Estado opta por el montaje en lugar de la transparencia, profundiza la violencia.
La inteligencia artificial no salvará al país. Pero podría ser una herramienta para reconstruir la verdad, si la dejamos en manos de la gente, y no del poder.