Microsoft da marcha atrás y cancela un sistema de reconocimiento facial que identifica emociones

La tecnología fue criticada por especialistas, que apuntaron a la no universalidad de las expresiones del rostro. 22 de junio 2022, 10:37hsEl cambio de rumbo es parte de una revisión de las políticas de ética en el desarrollo de inteligencia artificial al interior de Microsoft. (Foto: Adobe Stock)Microsoft decidió eliminar en forma gradual el acceso…

microsoft-da-marcha-atras-y-cancela-un-sistema-de-reconocimiento-facial-que-identifica-emociones

La tecnología fue criticada por especialistas, que apuntaron a la no universalidad de las expresiones del rostro.

El cambio de rumbo es parte de una revisión de las políticas de ética en el desarrollo de inteligencia artificial al interior de Microsoft. (Foto: Adobe Stock)

Microsoft decidió eliminar en forma gradual el acceso a una serie de herramientas basadas en inteligencia artificial que salieron de su riñón, diseñadas para identificar emociones gracias al reconocimiento facial. La medida de la compañía estadounidense responde a una serie de críticas que recibió su tecnología y a una revisión de sus políticas de ética en los desarrollos.

Microsoft elimina un sistema para identificar gestos y emociones

La tecnología que Microsoft retira prometía identificar las emociones de una persona en imágenes y videos. Por ejemplo, ojos muy abiertos y la boca dibujando una letra “O” se traducen en sorpresa.

El propuesto reconocimiento de emociones fue criticado por expertos, quienes coincidieron al señalar que las expresiones faciales no son de carácter universal. Además, notaron que la equiparación de las manifestaciones externas con los sentimientos carece de sustento científico.

Estos sistemas “pueden detectar cuando una persona frunce el ceño, pero eso no es lo mismo que detectar la ira”, dijo a The Verge Lisa Feldman Barret, profesora de psicología en la Universidad de Northeastern.

Leé también: La justicia porteña suspendió el sistema de reconocimiento facial en CABA

Tal como señalamos anteriormente, la decisión de Microsoft es parte de una revisión más amplia de sus políticas de ética en el desarrollo de sistemas basados en inteligencia artificial, que describieron por primera vez en 2019. Una de las variables que incluye esa suerte de código es que exista una mayor supervisión humana sobre el uso de las herramientas de IA.

A modo de paréntesis, no es casual que Brad Smith, abogado y presidente de Microsoft, haya mencionado hace un tiempo que el uso de tecnologías basadas en inteligencia artificial requiere revisiones y un equivalente a la Convención de Ginebra, un encuentro que se realizó por primera vez en 1864 para establecer límites éticos en los conflictos bélicos.

En la ocasión, Smith hizo referencia directa al avance de maquinarias armamentísticas automatizadas, un ámbito que, huelga decir, trasciende al sistema de detección de emociones aunque se vincula por el empleo de los avances en IA.

La decisión de Microsoft: cambios en Azure Face

Con esta medida, la cuna de Windows limitará el acceso a algunas funciones de reconocimiento facial, denominados Azure Face. Además, eliminará otras herramientas por completo.

Los usuarios que quieran usar identificación facial vía Azure Face deberán solicitar permiso a Microsoft indicando cómo y dónde implementarán el sistema.

Microsoft decidió limitar el acceso a algunas de sus herramientas de reconocimiento facial.

En este marco, la empresa también quitará a Azure Face la capacidad de identificar aspectos como el género, la edad, o las sonrisas.

Microsoft informó que ya dejó de ofrecer estas funciones a los nuevos clientes, mientras que a los existentes se les revocará el acceso el 30 de junio de 2023.

Leé también: Facebook deja de reconocer y etiquetar rostros en las fotos: tres claves de su nueva política

“Expertos dentro y fuera de la empresa han resaltado la falta de consenso científico sobre la definición de ‘emociones’, los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y datos demográficos, y la mayor preocupación por la privacidad en torno a este tipo de capacidad”, explicó la directora responsable de IA de Microsoft, Natasha Crampton.