La Comunidad crea técnicas de verificación para la seguridad en el uso de la IA

Privacidad y ciberseguidad en la IA - Arthur Bowers
photo_camera Privacidad y ciberseguidad en la IA - Arthur Bowers

La Comunidad de Madrid señaló este miércoles que desarrolla técnicas de verificación para aumentar la seguridad en el uso de Inteligencia Artificial (IA) y el procesamiento de imágenes.

Según informó el Ejecutivo madrileño, el estudio, liderado por el Instituto Madrileño de Estudios Avanzados (Imdea) Software, junto a la Universidad Carlos III de Madrid y NEC Laboratories Europe, ha creado una herramienta que mejora la computación verificable para detectar contenidos editados.

Este sistema comprende una familia de técnicas criptográficas que “permiten obtener una garantía infalsificable de que algún tercero, como una empresa o un servidor en la nube, ha realizado un procesamiento correcto de los datos de un usuario”.

Así, puede demostrar si una imagen o un vídeo han sido editados, confirmar que una predicción realizada por IA proviene de un modelo auditado, o que en una decisión sobre solvencia crediticia solo se ha utilizado información proporcionados por el cliente. Todo ello, aseguraron desde la Comunidad, "de manera compatible con la privacidad para garantizar su confidencialidad".

Los investigadores han introducido un protocolo que puede integrarse fácilmente en una cadena de procesamiento de datos para permitir la verificación completa de, por ejemplo, las predicciones realizadas por redes neuronales, que son la base de la mayoría de modelos de IA.

El equipo ha realizado un prototipo de aplicación de sus sistemas de comprobación que supone una notable mejoría a las técnicas existentes, especialmente por su rapidez.

Estos resultados han sido generados en el marco del proyecto Picocrypt con una beca del Consejo Europeo de Investigación.