|

La AFIP quiere hacer reconocimiento facial en Ezeiza

La Administración Federal de Ingresos Públicos (AFIP) lanzó una licitación pública para adquirir un software de reconocimiento facial en el Aeropuerto Internacional de Ezeiza. Según el pliego de la convocatoria, es un sistema que hará “reconocimiento de emociones” y lanzará “alertas ante el reconocimiento de personas de interés”.

La llamada “Solución de reconocimiento facial” identificará al menos 75 rostros por segundo, recogerá las imágenes y estudiará datos de identidad de las personas que realicen el trámite de migraciones. Hará análisis termográficos y “de emociones”, además de cotejar con datos de redes sociales. Si se trata de individuos incluidos en una misteriosa “lista de interés” de “al menos cinco mil personas”, la Aduana recibirá una alerta inmediata.

“Deberá medir distintos tipos de emociones, de las cuales al menos una de ellas deberá responder a la emoción primaria denominada ‘temor’ (ansiedad, preocupación, aprehensión)”, pide la AFIP en el pliego de licitación. Además el sistema estudiará posturas y “comportamiento corporal”.

En cuanto a datos “externos”, el software almacenará y analizará “grandes volúmenes de datos” para “encontrar relaciones y patrones que permitan predecir comportamientos”. Esto incluye información proveniente de Facebook y Twitter y de medios de comunicación.

Los riesgos para la privacidad

“El nivel de invasión de la esfera de la vida privada de lo que está solicitando AFIP es tremendo”, cuestionó a través de su cuenta de Twitter Beatriz Busaniche, presidenta de la Fundación Vía Libre y especialista en temas de derechos humanos en entornos tecnológicos.

En un artículo publicado ayer, la revista MIT Technology Review , del Instituto de Tecnología de Massachusetts, afirmó que en Londres el sistema de reconocimiento facial usado por la policía falló en el 81 por ciento de los casos.

Según el artículo, la policía londinense realizó 10 pruebas de reconocimiento facial desde 2016 con tecnología de la compañía japonesa NEC’s Neoface. Luego encargó un estudio a la Universidad de Essex para evaluar el sistema . Ese análisis arrojó que es impreciso en un 81 por ciento de los casos. “En otras palabras, la gran mayoría de las personas señaladas no estaban en una lista de buscados”, dice el MIT.

Recientemente San Francisco prohibió los sistemas de reconocimiento facial en defensa de la privacidad y las libertades civiles. En paralelo, la Ciudad de Buenos Aires adquirió 300 cámaras rotativas dedicadas a grabar rostros. El sistema porteño ya produjo detenciones equivocadas.

Publicaciones Similares