Cámaras de vigilancia de la ciudad de Nueva York apuntadas en el proyecto de crowdsource de Amnistía Internacional | Intimidad


Por John P. Mello Jr.

27 de enero de 2021 11:35 a.m. PT

Se está trabajando en un mapa en línea de cámaras de vigilancia en la ciudad de Nueva York.

El proyecto del mapa es parte de una campaña más grande llamada “Prohibir el escaneo”, patrocinada por Amnistía Internacional, que se ha asociado en la iniciativa con varios otros grupos de defensa de la tecnología, privacidad y libertades civiles.

“Necesitamos un mapa para que los ciudadanos puedan tener una idea de dónde están siendo observados por la policía de Nueva York a medida que avanzan en su vida cotidiana”, explicó. Michael Kleinman, director de la Iniciativa Silicon Valley de Amnesty USA.

“También les da a los ciudadanos de Nueva York, y en general a las personas que están preocupadas por el tema del reconocimiento facial, una idea de cuán generalizado es este tipo de vigilancia”, dijo a TechNewsWorld.

Los datos para el mapa serán “crowdsourcing” por voluntarios. Esta primavera, los voluntarios podrán recorrer las calles de Gotham e identificar cámaras de vigilancia utilizando una herramienta de software que se ejecuta en un navegador web. Los datos recopilados por la herramienta se integran con Google Street View y Google Earth para crear el mapa.

“Para vigilar a la población en su conjunto, no se necesita una cámara de reconocimiento facial especial”, explicó Kleinman. “Siempre que la policía tenga las imágenes de esa cámara, pueden realizar el reconocimiento facial en la parte trasera”.

“Por eso decimos que en cualquier ciudad que se pueda imaginar, el reconocimiento facial está a solo una actualización de software”, continuó.

“No es una cuestión de que voy a desviar mi viaje diario lejos de las cámaras de reconocimiento facial”, agregó. “Podemos presionar al Ayuntamiento de la ciudad de Nueva York para que prohíba el uso policial de esta tecnología”.

Ya se han adoptado medidas que prohíben o restringen el uso del reconocimiento facial en Boston, San Francisco y Portland, Oregon.

Tecnología que cambia el juego

Yuanyuan Feng, investigador del Instituto de Investigación de Software de Universidad de Carnegie mellon en Pittsburgh explicó que existe un problema de transparencia con la forma en que se usa la tecnología ahora.

“No hay transparencia sobre el tiempo de retención de los datos, para qué se utilizan y cuáles son las prácticas para compartir”, dijo a TechNewsWorld.

La mayoría de los departamentos de policía guardan secreto sobre esto, no solo con el público, sino también con las personas que son arrestadas, agregó Jake Laperruque, abogado principal de la Proyecto de supervisión gubernamental, un grupo de vigilancia del gobierno en Washington, DC

“La mayoría de los departamentos adoptan la posición de que si no se presenta como evidencia en un caso judicial, no tienen que hablar en absoluto”, dijo a TechNewsWorld.

Esa postura parece desmentir la importancia de la tecnología para las fuerzas del orden.

“Este no es solo el último modelo de automóvil o walkie talkie”, dijo Laperruque. “Esta es una tecnología que cambia las reglas del juego sobre cómo funciona la policía”.

Tecnología politizada

Karen Gullo, analista del Fundación Frontera Electrónica, un grupo de defensa de los derechos en línea con sede en San Francisco, explicó que el reconocimiento facial es una de las tecnologías de vigilancia más generalizadas e intrusivas.

“Está siendo utilizado por las fuerzas del orden y las entidades gubernamentales con poca o ninguna supervisión y limitaciones”, dijo a TechNewsWorld.

“La vigilancia facial se está convirtiendo en una herramienta integral para que el gobierno rastree dónde estamos, qué estamos haciendo y con quién estamos, independientemente de si somos sospechosos de un delito o no”, continuó.

“Los programas que brindan al público información sobre cómo y dónde se utilizan las herramientas de vigilancia para espiar a las personas … son un control importante para la aplicación de la ley y brindan a los ciudadanos conocimientos para exigir responsabilidad y aportes públicos”, agregó.

El reconocimiento facial se ha convertido en una tecnología politizada, argumentó George Brostoff, director ejecutivo de Visión sensible, una empresa de autenticación facial en Cape Coral, Florida.

“Cuando algo se politiza, todo se vuelve blanco y negro”, dijo a TechNewsWorld. “Hay pocas cosas en este mundo que sean en blanco y negro”.

“La gente no quiere que la rastreen”, dijo. “Eso es lo que se debe discutir, no solo el reconocimiento facial. ¿Qué sabe el gobierno de mí? ¿Cómo usa el gobierno mi información, incluida mi cara? Esas son cosas que se deben discutir en general”.

Sesgo racial

Una de las principales críticas a los sistemas de reconocimiento facial es que no solo son inexactos, sino que también están sesgados.

Gullo señaló que existen estudios e investigaciones que muestran que el reconocimiento facial es propenso a errores, especialmente para los afroamericanos.

Un estudio de 2012 en coautoría del FBI, por ejemplo, mostró que las tasas de precisión para los afroamericanos eran más bajas que para otros grupos demográficos.

De hecho, continuó Gullo, el FBI admitió en su evaluación del impacto de la privacidad que su sistema “puede no ser lo suficientemente confiable para ubicar con precisión otras fotos de la misma identidad, lo que resulta en un mayor porcentaje de identificaciones erróneas”.

En otro estudio del MIT, agregó, hubo tasas de error del 34 por ciento para las mujeres oscuras en comparación con los hombres de piel clara en los sistemas de reconocimiento facial disponibles comercialmente.

Estudio de Gender Shades: ¿Qué tan bien adivinan los servicios de IA de IBM, Microsoft y Face ++ el género de una cara?


“Esto significa que el reconocimiento facial tiene un impacto discriminatorio injusto”, dijo Gullo.

Añadió que las cámaras también están sobre-desplegadas en vecindarios con inmigrantes y personas de color, y las nuevas tecnologías de espionaje, como la vigilancia facial, amplifican las disparidades existentes en el sistema de justicia penal.

¿Obstaculizando la aplicación de la ley?

Desde que se llevaron a cabo esos estudios, la tecnología de reconocimiento facial ha mejorado, respondió Brostoff, pero agregó que se puede hacer un mal uso de una tecnología aún mejor. “La pregunta no es si el reconocimiento facial está sesgado, ¿está sesgada la implementación?” preguntó.

Añadió que no todos los algoritmos de reconocimiento facial están sesgados. “Los probados tenían un problema”, dijo.

“Incluso en los probados”, continuó, “no todos tenían inexactitudes debido únicamente a un sesgo. También se debieron a su configuración. El porcentaje de un partido se estableció demasiado bajo. Si un partido se establece demasiado bajo, el el software identificará a varias personas como potencialmente la misma persona “.

“Algo de eso fue la calidad de las imágenes en la base de datos”, agregó. “Si un algoritmo no tiene un filtro para decir que esta imagen es demasiado pobre para ser precisa, entonces se producirá una mala coincidencia. Ahora, las cámaras 3D pueden usarse para generar información de profundidad en una cara para producir más detalles y mejor precisión. “

Cuando se proponen prohibiciones de reconocimiento facial, la respuesta de las fuerzas del orden es que eliminar la tecnología de su caja de herramientas obstaculizará sus esfuerzos por mantener la seguridad del público. Los críticos de la tecnología no están de acuerdo.

“Pueden usar otras herramientas para rastrear a los sospechosos de delitos”, observó Mutale Nkonde, director ejecutivo de IA para la gente, una agencia de comunicaciones sin fines de lucro y parte de Ban the Scan Coalition.

“Por ejemplo, durante el motín en el Capitolio, el FBI usó datos de teléfonos celulares para averiguar quién estaba allí y crear una lista de personas prohibidas”, dijo a TechNewsWorld.

“La idea de que al no utilizar el reconocimiento facial, las fuerzas del orden público no podrán hacer su trabajo requiere un gran acto de fe cuando se considera todo el poder y todos los recursos que ya tienen las fuerzas del orden”, agregó Kleinman.

“Nuestra preocupación no debería ser que la aplicación de la ley tenga muy poco poder”, continuó. “Nuestra preocupación debería ser ¿qué significa la expansión del poder de la aplicación de la ley para todos nosotros?”

“El argumento de que si no podemos hacer X, entonces estaremos paralizados es un argumento que puede usarse para justificar una expansión interminable del poder de aplicación de la ley para vigilarnos”, agregó.


John P. Mello Jr. ha sido reportero de ECT News Network desde 2003. Sus áreas de enfoque incluyen ciberseguridad, problemas de TI, privacidad, comercio electrónico, redes sociales, inteligencia artificial, big data y electrónica de consumo. Ha escrito y editado numerosas publicaciones, incluida la Boston Business Journal, la
Boston Phoenix, Megapixel.Net y Noticias de seguridad del gobierno. Envíe un correo electrónico a John.

.



Source link