Vivimos en una era donde la tecnología ha impregnado todos los aspectos de la vida humana: desde cómo nos comunicamos, trabajamos y compramos, hasta cómo se toman decisiones en la medicina, la educación y la justicia. El caso de Lina, una mujer asesinada por su expareja en Benalmádena, España, ilustra cómo incluso las herramientas tecnológicas diseñadas para proteger pueden fallar trágicamente.
En enero de 2025 Lina Balbuena acudió a la policía tras recibir amenazas de su expareja, quien había tenido episodios violentos previos. Su denuncia fue registrada en el Sistema de Seguimiento Integral en los casos de Violencia de Género (VioGén), una herramienta digital que evalúa el nivel de riesgo que enfrenta una mujer víctima de violencia machista. Esta herramienta, alimentada por un cuestionario de 35 preguntas, calificó su situación como de "riesgo medio".
Lina acudió a un juzgado especializado en violencia de género en Málaga con la intención de obtener una orden de alejamiento que impidiera a su expareja acercarse o seguir conviviendo con ella. Sin embargo, su solicitud fue rechazada.
"Lo único que Lina quería era cambiar las cerraduras para poder sentirse segura junto a sus hijos", relata su primo.
Apenas tres semanas después, su vida terminó de forma trágica. Según las investigaciones, su expareja habría usado una copia de la llave para acceder a la vivienda, que poco después fue consumida por las llamas.
En el momento del incendio, lograron escapar sus hijos, su madre y el propio agresor. Lina, en cambio, no sobrevivió. De acuerdo con fuentes locales, fue su hijo de 11 años quien contó a la policía que su padre había asesinado a su madre.
El cuerpo sin vida de Lina fue hallado entre los restos calcinados de su hogar. El sospechoso, padre de sus tres hijos menores, fue detenido.
El protocolo de VioGén establece que el seguimiento policial para los casos medios debe hacerse dentro de un plazo de 30 días. Lina no vivió para ver ese seguimiento: tres semanas después, murió calcinada en su propia casa, presuntamente asesinada por el mismo hombre al que temía.
El algoritmo no previó el peligro real. Pero más allá de un fallo técnico, la tragedia de Lina expone una serie de interrogantes sobre el peso que damos a las herramientas digitales para tomar decisiones humanas. Su caso demuestra que, cuando la burocracia se apoya demasiado en lo automatizado, corre el riesgo de perder de vista las señales que solo una evaluación más humana y menos mecanizada puede captar.
¿Qué es VioGén?
VioGén fue desarrollado por la policía española en colaboración con académicos, y está presente en todo el país salvo en el País Vasco y Cataluña, donde se utilizan sistemas propios. El objetivo del sistema es ambicioso: ofrecer una respuesta rápida y estandarizada al fenómeno de la violencia de género. Pero su funcionamiento está lejos de ser perfecto. Como señalaron críticos y expertos, un algoritmo no puede captar todos los matices emocionales, sociales y contextuales que rodean a un caso de abuso.
A pesar de que la jefa policial en Málaga defiende que VioGén es "súper importante" para el trabajo diario, incluso ella reconoce que "sí falla". Y cuando falla, el precio puede ser la vida de una mujer. En este caso, lo fue.
Las consecuencias de su clasificación de riesgo también llegaron a los tribunales. Lina solicitó una orden de alejamiento, pero fue denegada. Aunque la jueza no se pronunció sobre la influencia de VioGén en su decisión, es legítimo preguntarse cuánto pesa el algoritmo en las decisiones judiciales, especialmente cuando el sistema no ha sido sometido a auditorías independientes. Según la jueza María del Carmen Gutiérrez, el riesgo determinado por VioGén es solo uno de los elementos que se valoran, pero la falta de transparencia sobre su uso en tribunales alimenta las dudas.
Gemma Galdón, directora de la organización Eticas, que audita el impacto ético de la tecnología, advierte que sin revisiones independientes no se puede saber si estas herramientas están cumpliendo su propósito. El Ministerio del Interior ha rechazado auditorías, lo que limita el de académicos a los datos del sistema y bloquea la posibilidad de mejorar desde la evidencia.
Este caso debería obligarnos a hacer una pausa y reflexionar: ¿qué lugar queremos que ocupe la inteligencia artificial en nuestras decisiones más sensibles? En campos como la salud o el transporte, los errores algorítmicos pueden corregirse con revisiones periódicas y datos de control. Pero cuando se trata de la vida de las personas, especialmente de mujeres en situación de vulnerabilidad, el margen de error no puede permitirse.