Facebook elimina el reconocimiento facial para etiquetar personas en fotos

FACEBOOK EL MARTESdijo que dejarÃa de usar la tecnologÃa de reconocimiento facial para identificar personas en fotos y videos y eliminarÃa los datos adjuntos sobre mÃĄs de mil millones de personas.
La noticia marca el final de uno de los mayores sistemas de reconocimiento facial conocidos. Fuera del desbloqueo facial para telÃĐfonos inteligentes y aplicaciones en aeropuertos, la etiqueta automÃĄtica de Facebook es quizÃĄs la forma mÃĄs comÚn de tecnologÃa de reconocimiento facial que la gente encuentra. En una publicaciÃģn de blog , el vicepresidente de inteligencia artificial de Facebook, Jerome Pesenti, dijo que la decisiÃģn reflejaba una “necesidad de sopesar los casos de uso positivos para el reconocimiento facial con las crecientes preocupaciones sociales”.
Facebook ha utilizado un sistema de reconocimiento facial para detectar automÃĄticamente a las personas en fotos, videos y Recuerdos desde 2010, lo que generÃģ crÃticas de los defensores de la privacidad e incurriÃģ en multas de cientos y millones de dÃģlares por parte de los reguladores gubernamentales. Un portavoz de Facebook le dijo a WIRED que miles de millones de fotos etiquetadas con la ayuda del reconocimiento facial durante la Última dÃĐcada conservarÃĄn esas etiquetas. Es de suponer que las seÃąales y seÃąales sobre el cÃrculo social de una persona que se han recopilado a partir de fotos y videos que utilizan el reconocimiento facial tambiÃĐn permanecerÃĄn intactas.
El reconocimiento facial ha llegado a incorporar preocupaciones sobre la privacidad y los derechos humanos que han llevado a mÃĄs de una docena de ciudades importantes de Estados Unidos a prohibir el uso de la tecnologÃa. Las aplicaciones de reconocimiento facial por parte de las fuerzas del orden han dado lugar a mÚltiples arrestos injustos en los EE. UU. Y han ayudado a la creaciÃģn de un estado de vigilancia para controlar los grupos minoritarios musulmanes en China .
La decisiÃģn se produce despuÃĐs de que Facebook se sometiera a semanas de intenso escrutinio tras la filtraciÃģn de miles de documentos internos que revelaron lagunas con moderaciÃģn . TambiÃĐn se produce inmediatamente despuÃĐs del movimiento de Facebook de la semana pasada para cambiar su nombre por el nombre de Meta .
El fin del reconocimiento facial para las etiquetas fotogrÃĄficas no significa que la compaÃąÃa estÃĐ terminando por completo con el uso del reconocimiento facial. Facebook seguirÃĄ utilizando la tecnologÃa para hacer cosas como ayudar a los usuarios a obtener acceso a una cuenta bloqueada o verificar su identidad para completar una transacciÃģn. Y aunque Facebook eliminarÃĄ datos de mÃĄs de mil millones de rostros, la compaÃąÃa conservarÃĄ DeepFace, el modelo de inteligencia artificial entrenado con esos datos. Aproximadamente uno de cada tres usuarios de Facebook hoy en dÃa utiliza su servicio que recomienda a las personas etiquetar en una foto.
AdemÃĄs de eliminar las etiquetas automÃĄticas de fotos, Facebook ya no utilizarÃĄ el reconocimiento facial para identificar a las personas por su nombre en un pequeÃąo porcentaje de fotos para personas ciegas o con discapacidad visual.
Facebook es la Última gran empresa tecnolÃģgica en dejar de lado el uso del reconocimiento facial. IBM dejÃģ de ofrecer reconocimiento facial a los clientes el aÃąo pasado. Citando la falta de acciÃģn de los reguladores, tras el asesinato de George Floyd, Amazon y Microsoft detuvieron sus ventas de servicios de reconocimiento facial.
nvestigadores como Joy Buolamwini, Deb Raji y Timnit Gebru documentaron por primera vez que los sistemas de reconocimiento facial funcionan con menos precisiÃģn en mujeres de piel oscura. Posteriormente, esos resultados fueron confirmados por un anÃĄlisis del Instituto Nacional de EstÃĄndares y TecnologÃa que tambiÃĐn encontrÃģ que la tecnologÃa a menudo identifica errÃģneamente a los asiÃĄticos, los jÃģvenes y otros.
Raji, quien ha trabajado en cuestiones de polÃtica y ÃĐtica para organizaciones como AI Now, Google y la Algorithmic Justice League, calificÃģ el movimiento de Facebook como significativo porque DeepFace jugÃģ un papel notable en la historia de la visiÃģn por computadora. El modelo de aprendizaje profundo se creÃģ en 2014 con 4 millones de imÃĄgenes de 4.000 personas, el mayor conjunto de datos de rostros de personas hasta la fecha. DeepFace fue el primer modelo de inteligencia artificial en lograr un rendimiento a nivel humano en el reconocimiento facial, y provocÃģ una tendencia a comercializar la tecnologÃa y acumular datos faciales para mejorar el rendimiento.
Raji dijo que siempre es bueno que las empresas tomen medidas pÚblicas para seÃąalar que la tecnologÃa es peligrosa, pero advirtiÃģ que las personas no deberÃan tener que depender de acciones corporativas voluntarias para su protecciÃģn. Si la decisiÃģn de Facebook de limitar el uso del reconocimiento facial marca una diferencia mayor dependerÃĄ de los responsables polÃticos.
“Si esto impulsa a un legislador a tomar la conversaciÃģn sobre el reconocimiento facial lo suficientemente en serio como para aprobar alguna legislaciÃģn en el Congreso y realmente abogar por ella y apoyarse en ella, entonces esto se convertirÃa en un punto de inflexiÃģn o un momento crÃtico”, dice.
A pesar de la retÃģrica ocasionalmente bipartidista sobre la amenaza que representa el reconocimiento facial para las libertades civiles y la falta de estÃĄndares en uso por parte de las fuerzas del orden, el Congreso no ha aprobado ninguna ley que regule el uso de la tecnologÃa o establezca estÃĄndares sobre cÃģmo las empresas o los gobiernos pueden usar el reconocimiento facial.
En una declaraciÃģn compartida con WIRED, el grupo Fight for the Future dijo que Facebook sabe que el reconocimiento facial es peligroso y renovÃģ las llamadas para prohibir el uso de la tecnologÃa.
âIncluso a medida que mejoren los algoritmos, el reconocimiento facial serÃĄ mÃĄs peligrosoâ, dice el grupo. âEsta tecnologÃa permitirÃĄ a los gobiernos autoritarios atacar y tomar medidas enÃĐrgicas contra las minorÃas religiosas y la disidencia polÃtica; automatizarÃĄ la canalizaciÃģn de personas a las cÃĄrceles sin hacernos mÃĄs seguros; crearÃĄ nuevas herramientas para el acoso, el abuso y el robo de identidad “.
Sneha Revanur, fundadora de Encode Justice, un grupo para jÃģvenes que buscan poner fin al uso de algoritmos que automatizan la opresiÃģn, dijo en un comunicado que la noticia representa una victoria duramente ganada para los defensores de la privacidad y la justicia racial y los organizadores juveniles. Dijo que es una de las muchas reformas necesarias para abordar el discurso de odio, la desinformaciÃģn y la vigilancia habilitada por las empresas de redes sociales.
Luke Stark es profesor asistente en la Universidad de Western Ontario y crÃtico desde hace mucho tiempo del reconocimiento facial. Se le llama pseudociencia de reconocimiento facial y visiÃģn por computadora con implicaciones para la privacidad de los datos biomÃĐtricos, la ley contra la discriminaciÃģn y las libertades civiles. En 2019, argumentÃģ que el reconocimiento facial es el plutonio de la IA .
Stark dijo que cree que la acciÃģn de Facebook equivale a una tÃĄctica de relaciones pÚblicas y una desviaciÃģn destinada a captar buenos titulares, no a un cambio fundamental en la filosofÃa. Pero dijo que la medida tambiÃĐn muestra a una empresa que no quiere estar asociada con tecnologÃa tÃģxica.
ConectÃģ la decisiÃģn con el enfoque reciente de Facebook en la realidad virtual y el metaverso. Impulsar avatares personalizados requerirÃĄ recopilar otros tipos de datos fisiolÃģgicos e invitarÃĄ a nuevas preocupaciones de privacidad, dijo. Stark tambiÃĐn cuestionÃģ el impacto de eliminar la base de datos de reconocimiento facial porque no conoce a nadie menor de 45 aÃąos que publique fotos en Facebook.
Facebook caracterizÃģ su decisiÃģn como “uno de los mayores cambios en el uso del reconocimiento facial en la historia de la tecnologÃa”. Pero Stark predice que “el impacto real serÃĄ bastante menor” porque Facebook no ha abandonado por completo el reconocimiento facial y otros todavÃa lo usan.
“Creo que puede ser un punto de inflexiÃģn si las personas que estÃĄn preocupadas por estas tecnologÃas continÚan presionando la conversaciÃģn”, dice.
InformaciÃģn extraÃda de WIRED, puedes ingresar en su sitio web https://www.wired.com/

