Microsoft chiuderà un controverso strumento di riconoscimento facciale che afferma di identificare le emozioni

Microsoft sta gradualmente interrompendo l’accesso del pubblico a una gamma di strumenti di analisi facciale basati sull’intelligenza artificiale, incluso uno che afferma di identificare le emozioni dei soggetti da video e immagini.

Tali strumenti di “riconoscimento delle emozioni” sono stati criticati dagli esperti. Si dice che non solo le espressioni facciali considerate universali differiscono nelle diverse popolazioni, ma non è scientifico identificare le espressioni esterne delle emozioni con i sentimenti interni.

“Le aziende possono dire quello che vogliono, ma i dati sono chiari”, ha affermato Lisa Feldman Barrett, professoressa di psicologia alla Northeastern University che ha esaminato uno studio sul riconoscimento emotivo attraverso l’intelligenza artificiale. Egli ha detto Il confine nel 2019. “Riescono a rilevare il cipiglio, ma non è lo stesso che rilevare la rabbia”.

La decisione fa parte dell’a un’importante revisione della politica etica dell’intelligenza artificiale di Microsoft. Gli standard aggiornati di intelligenza artificiale responsabile dell’azienda (introdotti per la prima volta nel 2019) sottolineano la responsabilità di scoprire chi utilizza i suoi servizi e una maggiore supervisione umana su dove vengono utilizzati questi strumenti.

In pratica, questo significa che Microsoft lo fa limitare l’accesso ad alcune funzionalità rimuovere completamente i loro servizi di riconoscimento facciale (noti come Azure Face) e altri. Gli utenti dovranno richiedere l’uso di Azure Face per l’identificazione del volto, ad esempio Microsoft ti dirà esattamente come e dove distribuiranno i suoi sistemi. Alcuni casi d’uso con un potenziale meno dannoso (come la sfocatura automatica di immagini e video) rimarranno aperti.

Oltre a rimuovere l’accesso pubblico al suo strumento di riconoscimento delle emozioni, Microsoft sta ponendo fine alla capacità di Azure Face di identificare “attributi come sesso, età, sorriso, barba, capelli e trucco”.

“Esperti all’interno e all’esterno della società hanno evidenziato la mancanza di consenso scientifico sulla definizione di ’emozioni’, i problemi nel modo in cui le conclusioni sono generalizzate tra casi d’uso, regioni e dati demografici e le crescenti preoccupazioni per la privacy su questo tipo di abilità”, ha scritto . Natasha Crampton, Chief AI Officer di Microsoft, in un post sul blog che annuncia notizie.

Microsoft afferma che a partire dal 21 giugno smetterà di offrire queste funzionalità ai nuovi clienti, mentre ai clienti esistenti verrà negato l’accesso il 30 giugno 2023.

Tuttavia, mentre Microsoft va in pensione pubblico accesso a queste funzionalità, continuerà a utilizzarle in almeno uno dei propri prodotti: in un’applicazione denominata Vedi IA che utilizza la visione artificiale per descrivere il mondo ai non vedenti.

IN post sul blogSarah Bird, chief product manager di Microsoft per l’intelligenza artificiale di Azure, ha affermato che strumenti come il riconoscimento delle emozioni “possono essere preziosi se utilizzati per una serie di scenari di disponibilità gestita”. Non è chiaro se questi strumenti verranno utilizzati in altri prodotti Microsoft.

Microsoft sta anche introducendo restrizioni simili alla sua funzione Custom Neural Voice, che consente ai clienti di creare voci AI basate su registrazioni di vita reale (a volte note come deepfake audio).

Lo strumento “ha un potenziale entusiasmante in materia di istruzione, accessibilità e intrattenimento”, scrive Bird, ma osserva che “è anche facile immaginare come potrebbe essere utilizzato per impersonare gli oratori e ingannare gli ascoltatori”. Microsoft afferma che in futuro limiterà l’accesso a questa funzionalità ai “clienti e partner gestiti” e “garantirà la partecipazione attiva dell’oratore alla creazione di una voce sintetica”.

Leave a Comment