Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Fin de Veripol: La IA ya no será usada por la policía

https://img.rtve.es/imagenes/maria-fernandez-miguel-camacho-policias-nacionales-probando-veripol/1541159624800.jpg

La Policía Nacional ha optado por detener el empleo de Veripol, un sistema de inteligencia artificial (IA) creado para identificar denuncias falsas de robos con agresión. Esta IA fue lanzada en 2018, siendo la pionera de su clase a nivel global, con una exactitud superior al 90%. No obstante, su uso se suspendió en octubre de 2024, ya que no lograba cumplir con los estándares requeridos para su utilización en procesos legales, según informaron las fuentes del Ministerio del Interior.

La creación de Veripol fue el resultado de la colaboración entre investigadores de las universidades Complutense y Carlos III, junto con el agente de policía Miguel Camacho-Collados. El algoritmo fue capacitado utilizando 1.122 denuncias de robo presentadas en España, de las cuales 534 eran verdaderas y 588 resultaron ser falsas. Estas denuncias fueron analizadas a través de técnicas de procesamiento de lenguaje natural (NLP) para detectar patrones comunes en los relatos inventados. De esta manera, se identificó que ciertos términos y expresiones, como «abogado», «seguro» o «espalda», estaban más frecuentemente relacionados con las denuncias no verídicas.

Pese a su alta precisión en las pruebas iniciales, donde se logró identificar un gran porcentaje de denuncias fraudulentas, la herramienta ha recibido diversas críticas con el tiempo. En 2022, un informe realizado por especialistas en derecho y matemáticas de la Universidad de Valencia subrayó múltiples deficiencias en la herramienta, como una muestra de datos sumamente limitada, empleando solo 1.122 denuncias en comparación con los miles de casos registrados anualmente en España. Además, se indicó que el algoritmo no evaluaba las declaraciones íntegramente de los denunciantes, sino las transcripciones hechas por los mismos agentes de policía.

Uno de los aspectos más controvertidos resaltados por los críticos es la falta de claridad sobre el funcionamiento interno de Veripol. Aunque el sistema se desplegó en múltiples comisarías, no se ha divulgado información oficial sobre la cantidad de casos analizados ni sobre el proceso de entrenamiento de la IA. Asimismo, los informes indican que los agentes que manejaban la herramienta no siempre contaban con la capacitación adecuada para su correcta utilización.

Este caso resalta las tensiones presentes en la utilización de tecnologías avanzadas dentro del ámbito legal. Aunque las IA como Veripol tienen el potencial de aumentar la eficacia en la detección de fraudes, su aplicación debe estar regida por normas estrictas y ser transparente, para garantizar que los derechos fundamentales de las personas no se vean comprometidos.

El debate sobre la aplicación de inteligencia artificial en el sistema judicial se intensificó en 2024 con la implementación del Reglamento Europeo sobre Inteligencia Artificial. Este reglamento clasifica a las tecnologías de IA como de «alto riesgo» y establece demandas más rigurosas en términos de fiabilidad y transparencia. Los inconvenientes encontrados con Veripol ilustran cómo estas herramientas, en su desarrollo y uso, deben ser objeto de un riguroso escrutinio. Esto es esencial no solo para garantizar su efectividad, sino también para prevenir violaciones de derechos y errores en el ámbito judicial.

El debate sobre el uso de la inteligencia artificial en el ámbito judicial se intensificó en 2024 con la entrada en vigor del Reglamento Europeo sobre Inteligencia Artificial, que clasifica las tecnologías de IA como de «alto riesgo» y establece exigencias más estrictas en cuanto a su fiabilidad y transparencia. Los problemas de Veripol son un claro ejemplo de cómo, en su desarrollo y aplicación, estas herramientas deben ser sometidas a un escrutinio riguroso, no solo para asegurar su efectividad, sino también para evitar vulneraciones de derechos o errores judiciales.

Por lo tanto, la decisión de la Policía Nacional de dejar de utilizar Veripol refleja un reconocimiento de la necesidad de mejorar los métodos y protocolos de investigación en el ámbito de las denuncias falsas. A medida que la tecnología continúa avanzando, será esencial que las autoridades encuentren un equilibrio entre la innovación tecnológica y la protección de los derechos de los ciudadanos, garantizando que herramientas como Veripol sean utilizadas de manera ética y con una base de datos robusta y representativa.

Por Otilia Adame Luevano

You May Also Like

  • Usos de la química orgánica

  • Cómo funciona el electromagnetismo

  • Contribuciones de Microsoft al ámbito de la nube

  • Ventajas de Tesla sobre otras marcas de coches