Una decisión adoptada por el Comité Europeo de Protección de Datos ha determinado que los datos obtenidos por sistemas de registro biométrico, como las huellas dactilares que en algunos establecimiento se usan para contabilizar las horas de trabajo de un empleado, entrarán en la categoría de “información personal de categoría especial” dentro de un “Reglamento General de Protección de Datos (RGPD)”.
De esta forma, a partir del año 2023 cualquier uso de este tipo de información, además de la lectura o escaneos faciales estará prohibido aún si el empleado ofrece su consentimiento para ello y las empresas que decidan incumplir con esto deberán enfrentar duras sanciones por parte de instituciones locales.
En particular, en territorios como España (e incluso en varios países de Latinoamérica como Colombia y Perú, entre otros) el uso de la huella dactilar es una forma en la que cada empleado puede acreditar su asistencia al centro de trabajo y el empleador puede verificar que este no ha sido suplantado por otra persona.
Debido a que estos datos son extremadamente sensibles, fueron categorizados como “especiales” pues permite la identificación de una persona y requieren de un tratamiento especial de protección de la información personal.
A partir de la decisión tomada en el Comité Europeo de Protección de Datos, todas las compañías que trabajen con un sistema de asistencia con base en la información biométrica de sus datos deberán cambiarlo por otro que se ajusten a las nuevas regulaciones de seguridad de la información.
Datos biométricos para la protección de datos
Si bien este tipo de gestión de la información biométrica estará prohibida para las compañías, el uso de características como la huella dactilar, el escaneo de retina o del rostro de las personas sigue siendo aplicado por empresas de tecnología pero con un enfoque diferente: en lugar de corroborar la identidad de los usuarios, esta sirve como una “llave única” que brinda acceso a datos que el propio usuario puede gestionar.
Por otro lado, este tipo de información también es útil para identificar casos como el uso de aplicaciones de redes sociales por parte menores de edad como es el caso de Facebook, Instagram, entre otras, que recurren a esta información para asegurarse de que se le da el acceso a personas que tienen permitido este acceso, pero no es utilizado para otros fines.
Según Robert Prigge, CEO de Jumio, empresa dedicada a la verificación de identidad, durante el año 2023 los servicios digitales y portales bancarios presentarán con mayor frecuencia opciones de verificación biométrica para aprobar transacciones, acceder a aplicaciones y brindar información bancaria a las personas.
Algunas entidades ya han empezado a aprovechar los lectores de huellas dactilares presentes en los celulares de sus clientes para actuar como contraseñas sin necesidad de ingresar una clave de acceso a diferentes aplicaciones relacionadas con sus servicios
Una de las amenazas emergentes considerada por el ejecutivo fue el phishing, una estafa online que consiste en robar la identidad de una persona o institución confiable con la intención de que los usuarios brinden información bancaria sensible a los cibercriminales.
Para Bala Kumar, Chief Product Officer de Jumio, también es posible que se utilicen estrategias que incluyan a inteligencias artificiales para crear campañas fraudulentas, por lo que las personas deberán mantenerse alertas ante posibles ataques.
La inteligencia artificial también tiene el potencial de jugar un rol importante en la protección de la información de las personas pues luego de su desarrollo y aplicación en diferentes plataformas y herramientas digitales, su regulación permitirá que estos software se utilicen de forma responsable y sin buscar el perjuicio de los usuarios.
Fuente: Infobae