/ lunes 16 de diciembre de 2019

Alertan por IA que predice las emociones

Expertos llaman a regular la inteligencia artificial para evitar desigualdades; empresas eliminan sesgo humano, critican

SAN FRANCISCO. Un grupo de investigadores alarmados por los efectos sociales nocivos de la inteligencia artificial pidió prohibir el análisis automatizado de expresiones faciales en la contratación y otras decisiones importantes.

El Instituto AI Now de la Universidad de Nueva York dijo que era su prioridad actuar contra tal "reconocimiento de afecto" impulsado por software porque la ciencia no justifica el uso de la tecnología y todavía hay tiempo para detener la adopción generalizada.

Los investigadores citaron como ejemplo problemático a la compañía HireVue, que vende sistemas para entrevistas de video remotas para empleadores como Hilton y Unilever. Ofrece inteligencia artificial para analizar movimientos faciales, tono de voz y patrones de habla, y no divulga los puntajes a los candidatos.

El Centro para la Privacidad de la Información Electrónica, organización sin fines de lucro, presentó una queja sobre HireVue ante la Comisión Federal de Comercio estadounidense y AI Now ha criticado a la compañía anteriormente.

"Muchos candidatos se han beneficiado de la tecnología de HireVue para eliminar el sesgo humano, que es tan significativo, en el proceso de contratación existente", dijo la portavoz Kim Paone.

AI Now, en su cuarto reporte anual sobre los efectos de las herramientas de inteligencia artificial, dijo que la evaluación del trabajo es una de las muchas formas en que dicho software se usa sin responsabilidad, y que generalmente favorece a grupos privilegiados.

"La forma en que las personas comunican enojo, disgusto, miedo, felicidad o tristeza varía sustancialmente entre culturas, situaciones e incluso entre personas dentro de una sola situación", escribió un equipo de la Universidad Northeastern y el Hospital General de Massachusetts.

AI Now también criticó a Amazon, que ofrece análisis sobre expresiones de emoción a través de su software Rekognition. Amazon dijo que su tecnología sólo determina la apariencia física de la cara de alguien y no pretende mostrar lo que una persona realmente siente.

La inteligencia artificial parece estar "ampliando las desigualdades" y su despliegue debería ser objeto de estrictas regulaciones y límites, especialmente para tecnologías sensibles como el reconocimiento facial, advierte el informe.

"Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no".

SAN FRANCISCO. Un grupo de investigadores alarmados por los efectos sociales nocivos de la inteligencia artificial pidió prohibir el análisis automatizado de expresiones faciales en la contratación y otras decisiones importantes.

El Instituto AI Now de la Universidad de Nueva York dijo que era su prioridad actuar contra tal "reconocimiento de afecto" impulsado por software porque la ciencia no justifica el uso de la tecnología y todavía hay tiempo para detener la adopción generalizada.

Los investigadores citaron como ejemplo problemático a la compañía HireVue, que vende sistemas para entrevistas de video remotas para empleadores como Hilton y Unilever. Ofrece inteligencia artificial para analizar movimientos faciales, tono de voz y patrones de habla, y no divulga los puntajes a los candidatos.

El Centro para la Privacidad de la Información Electrónica, organización sin fines de lucro, presentó una queja sobre HireVue ante la Comisión Federal de Comercio estadounidense y AI Now ha criticado a la compañía anteriormente.

"Muchos candidatos se han beneficiado de la tecnología de HireVue para eliminar el sesgo humano, que es tan significativo, en el proceso de contratación existente", dijo la portavoz Kim Paone.

AI Now, en su cuarto reporte anual sobre los efectos de las herramientas de inteligencia artificial, dijo que la evaluación del trabajo es una de las muchas formas en que dicho software se usa sin responsabilidad, y que generalmente favorece a grupos privilegiados.

"La forma en que las personas comunican enojo, disgusto, miedo, felicidad o tristeza varía sustancialmente entre culturas, situaciones e incluso entre personas dentro de una sola situación", escribió un equipo de la Universidad Northeastern y el Hospital General de Massachusetts.

AI Now también criticó a Amazon, que ofrece análisis sobre expresiones de emoción a través de su software Rekognition. Amazon dijo que su tecnología sólo determina la apariencia física de la cara de alguien y no pretende mostrar lo que una persona realmente siente.

La inteligencia artificial parece estar "ampliando las desigualdades" y su despliegue debería ser objeto de estrictas regulaciones y límites, especialmente para tecnologías sensibles como el reconocimiento facial, advierte el informe.

"Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no".

Policiaca

Colonos someten y golpean a presunto ladrón, la policía no intervino

La policía se limitó a responder que por las lesiones y al no haber quien levantara su denuncia ante el ministerio público no lo podían llevar

Policiaca

Dos personas electrocutadas al tocar un cable de alta tensión

Los trabajadores se encontraban pintando una estructura para la colocación de cámaras de seguridad del programa Escudo Urbano

Municipios

Ganadero recupera dos semovientes más de 12 que había perdido

El pasado 17 de agosto, Felipe "N" denunció a las autoridades que 12 de sus animales se habían perdido de su rancho

Policiaca

Colonos someten y golpean a presunto ladrón, la policía no intervino

La policía se limitó a responder que por las lesiones y al no haber quien levantara su denuncia ante el ministerio público no lo podían llevar

Policiaca

Automóvil cayó a río de Tila, dos maestros perdieron la vida

Dos persona del sexo masculino fueron localizados muertos la tarde del sábado en el interior de un vehículo que cayó a un río en el ejido Petalcilgo municipio de Tila

Policiaca

Dos personas electrocutadas al tocar un cable de alta tensión

Los trabajadores se encontraban pintando una estructura para la colocación de cámaras de seguridad del programa Escudo Urbano

Municipios

Ganadero recupera dos semovientes más de 12 que había perdido

El pasado 17 de agosto, Felipe "N" denunció a las autoridades que 12 de sus animales se habían perdido de su rancho

Municipios

Entrega de apoyos se hace sin intermediarios: alcalde de Chanal

Pérez Rodríguez, destacó que este gobierno está haciendo estas entregas sin distinción de partido político, y sobre todo de la mano a los beneficiarios

Policiaca

Conocidos de José Luis aseguran que no había consumido alcohol y fue tirado

Personas cercanas a José Luis “N”, encontrado tirado sin vida sobre la carretera San Cristóbal-Teopisca, han dicho no hay rastros de que estuviera en estado de ebriedad