Inteligencia artificial (IA) se está convirtiendo en una nueva normalidad en la vida diaria. Todavía no nos hemos acercado a una autoconciencia al estilo de Sky-net con el propósito de dominar el mundo; cada vez se integran más herramientas y sistemas basados en la IA, desde bolígrafos de tinta hasta refrigeradores.
En la industria de la biometría, mientras que ISO, IEC, NIST, STQC u otras organizaciones están publicando nuevos estándares con más seguridad y enfoque más basado en IA, hay muchos investigadores que prueban diferentes técnicas de IA con métodos de identificación biométrica.
Aquí intentamos dar un vistazo a cómo se usa la IA en los populares métodos biométricos.
Falsa aceptación, Rechazo falso es un problema de larga data con diferentes tonos de piel y diferentes características faciales. El aprendizaje profundo y el aprendizaje automático son ahora muy populares entre los fabricantes para el análisis facial, lo que facilita y hace que la identificación sea más precisa y sencilla. El aprendizaje automático y el aprendizaje automático han demostrado que pueden resolver complicados problemas de seguridad y ayudan a mejorar la tasa de aceptación falsa en diferentes grupos demográficos. Gracias a una mayor formación, hemos obtenido resultados muy satisfactorios en varios atributos faciales. Estos características biológicas faciales representa las características faciales (tono de piel, vello facial, etc.) de la persona.
Se sabe que algunos huellas dactilares son difíciles de escanear o reconocer debido a afecciones de la piel, huellas dactilares dañadas, cicatrices o una pequeña superficie de huellas dactilares. Las imágenes de huellas dactilares de baja calidad, antiguas, recortadas y dañadas son otros desafíos.
Técnicas de aprendizaje automático como las redes neuronales artificiales (ANN), las redes neuronales profundas (DNN), las máquinas vectoriales de soporte (SVM) y los algoritmos genéticos (GA) desempeñan un papel importante a la hora de ofrecer soluciones poco comunes para los problemas de identificación de huellas dactilares.
Según un informe de investigación, aprendizaje profundo, especialmente Red neuronal convolucional (CNN), ha tenido un gran éxito en los campos de la visión artificial y el reconocimiento de patrones, ya que no requiere la extracción de características especiales. El aprendizaje profundo aprende automáticamente las características y estructuras con una cantidad suficiente de datos de entrenamiento. Estas ventajas de la CNN la hacen perfecta para varios trabajos de forma automática reconocimiento/identificación de huellas dactilares sistemas: incluida la segmentación, la clasificación, la extracción de características (puntos minuciosos y puntos singulares), la estimación de la orientación de las crestas, etc.
En un caso, un equipo de investigación utilizó el aprendizaje automático para enseñar al sistema a distinguir entre personas vivas y fallecidas lirios, mediante la creación de un algoritmo y el uso de la base de datos oftalmológica de personas vivas y fallecidas para la formación. Alcanzan una precisión del 99% con un solo detalle: la persona debe haber fallecido hace al menos 16 horas.
La inteligencia artificial realmente demuestra que está en el reconocimiento de comportamiento campo, donde tradicionalmente se necesitaba más contacto humano para la identificación. Con el uso de DL y ML, es posible crear un patrón de comportamiento humano que brinde oportunidades de identificación.
La IA realiza un seguimiento de cómo una persona individual pulsa las teclas, el intervalo de tiempo entre cada pulsación y crea un perfil para su identificación.
La IA observa el ritmo al caminar, la velocidad y la fuerza G de una persona y crea un perfil para su identificación.
Reconocimiento de voz con tecnología de inteligencia artificial los sistemas analizan e interpretan el habla humana para identificar patrones e inflexiones de voz individuales. Estos sistemas utilizan redes neuronales avanzadas para distinguir los matices del habla y admiten aplicaciones que van desde asistentes activados por voz hasta herramientas de accesibilidad para personas con problemas del habla. La capacidad de procesar el lenguaje hablado con precisión (adaptándose a varios acentos y ruidos) mejora la interacción y la seguridad del usuario, ampliando la aplicación de la IA en el reconocimiento del comportamiento.
La IA analiza constantemente las imitaciones faciales y los micromovimientos de los músculos faciales para captar ciertas emociones y crea un perfil. Este uso de la IA provocó los debates y preocupaciones más acalorados sobre la privacidad y el futuro de la IA, por lo que Microsoft y Google decidieron limitar su desarrollo e implementación. Sin embargo, la falta de estándares y regulaciones conduce a un esquema de desarrollo paralelo.
En su forma actual, estos métodos de identificación biométrica pueden ser pirateados o engañados por diferentes métodos. Si bien la IA ayuda a mejorar el rendimiento de la identificación biométrica, las personas malintencionadas también pueden usar herramientas de inteligencia artificial para hackear los sistemas biométricos. En un ejemplo, hemos visto demostraciones de que la IA creó huellas dactilares falsas a las que se puede acceder fácilmente desde un escáner de huellas dactilares. Se trata de una carrera sin fin muy parecida a la de los programas antivirus contra los antivirus. Los piratas informáticos y los delincuentes pueden mostrar una motivación ilimitada para encontrar nuevos métodos y lagunas en los sistemas de seguridad. Por ejemplo, McAfee Labs predijo que los ciberdelincuentes utilizarán cada vez más técnicas de evasión basadas en la inteligencia artificial durante los ciberataques.
Científicos informáticos de la Universidad de Nueva York y la Universidad Estatal de Michigan han entrenado una red neuronal artificial para crear huellas digitales falsas que pueden eludir los bloqueos de los teléfonos móviles. Las falsificaciones se llaman»Impresiones DeepMaster», y presentan una falla de seguridad importante para cualquier dispositivo que dependa de este tipo de autenticación de datos biométricos. Tras aprovechar las debilidades inherentes a las necesidades ergonómicas de los dispositivos móviles, DeepMasterPrints pudo imitar más del 70% de las huellas dactilares de una base de datos de pruebas.
Los sistemas de reconocimiento facial pueden confundir a un delincuente con un usuario normal en caso de que un adversario utilice herramientas de inteligencia artificial para analizar el rostro original y crear máscaras impresas en 3D, etc. Estos son problemas bien conocidos en los sistemas de reconocimiento facial. Esta parcialidad puede dar lugar a fraudes, procesamientos incorrectos u otros hechos notorios.
La llegada de la IA generativa profundiza estos desafíos, ya que estos sistemas ahora también pueden generar imágenes y audio falsos hiperrealistas. Con herramientas como Sora de OpenAI, la posibilidad de crear vídeos falsos convincentes es inminente. Este avance podría mejorar significativamente la difusión de información errónea, especialmente en contextos delicados como las elecciones, donde la autenticidad de la información visual y auditiva es crucial. Abordar estas vulnerabilidades requiere no solo salvaguardas tecnológicas, sino también intervenciones políticas sólidas para mitigar los riesgos que plantea la manipulación de los medios de comunicación impulsada por la inteligencia artificial.
El mal uso de la biometría de voz aumenta con su popularidad. Los ataques contra el reconocimiento de voz pueden lanzarse mediante modificaciones maliciosas de la voz, como la inserción de patrones de ruido blanco en el audio. Pueden llevar a la suplantación de identidad de la voz, al fraude o a la publicación falsa de contenido basado en la voz.
Si bien los métodos biométricos tienen vulnerabilidades, las herramientas de IA, que en su mayoría son software, también tienen fallas de seguridad.
Estos bloques de software se integran en los sistemas principales y pueden ser víctimas de ataques dirigidos a componentes de IA. Los atacantes también pueden utilizar el aprendizaje automático y la inteligencia artificial para comprometer los entornos al envenenar los modelos de IA con datos inexactos. Los modelos de aprendizaje automático e inteligencia artificial se basan en muestras de datos correctamente etiquetadas para crear perfiles de detección precisos y repetibles. Al introducir archivos de hackeo que tengan un aspecto similar al de un archivo de datos o al crear patrones de comportamiento que resulten ser falsos positivos, los atacantes pueden engañar a los modelos de IA haciéndoles creer que los comportamientos de ataque no representan una amenaza. Los atacantes también pueden contaminar los modelos de IA introduciendo archivos maliciosos que los cursos de formación en IA han clasificado como seguros.
Detección de vitalidad: su guía para proteger los sistemas biométricos
El futuro parece definitivamente muy emocionante con la IA y el aprendizaje automático. Las nuevas herramientas y técnicas de inteligencia artificial van a tener un gran impacto en todos los aspectos de nuestras vidas. En la industria de la biometría, los investigadores utilizan la IA para mejorar la precisión y el rendimiento; al mismo tiempo, desarrollan diferentes métodos biométricos, como el reconocimiento del comportamiento. Los gobiernos y las organizaciones deben actuar con rapidez para ponerse al día con los nuevos avances e introducir reglamentos y normas éticas que alivien las preocupaciones del público. Mientras tanto, la seguridad del software y el hardware de inteligencia artificial frente a los piratas informáticos suele pasarse por alto y depende de las defensas del sistema central incorporado o implementado.