A new study of popular facial analysis services found they misidentified trans men as much as 38% of the time, mischaracterized non-binary individuals 100% of the time and appeared to be based on outdated gender stereotypes.
Con una breve occhiata a un singolo volto, i nuovi software di riconoscimento facciale sono ora in grado di classificare il genere di molti uomini e donne con notevole precisione.
Ma se quel volto appartiene a una persona transgender, questi sistemi sbagliano più di un terzo delle volte, secondo una nuova ricerca dell'Università del Colorado Boulder.
"Abbiamo scoperto che i servizi di analisi facciale hanno ottenuto risultati sempre peggiori con gli individui transgender e non sono stati in grado di classificare i generi non binari", ha dichiarato l'autore principale Morgan Klaus Scheuerman, dottorando presso il dipartimento di Scienze dell'Informazione. "Mentre ci sono molti tipi diversi di persone là fuori, questi sistemi hanno una visione estremamente limitata dell'aspetto del genere".*
Intendiamoci: che i dati usati per il machine learning siano abbiano un bias verso bianco/etero/etc. è un fatto noto (e a quanto gravemente discriminatorio? personalmente sarei contento se la "IA" non fosse capace di identificarmi), ed è noto (e, questo sì, indiscutibilmente grave) che persone LGBTetc siano ingiustamente discriminate... ora però mettere assieme le due cose mi pare un po' forzato...
Come si può pretendere che una "AI" sia in grado di classificare le preferenze sessuali in base all'aspetto di una persona? Capisco che potrebbe riconoscere la stereotipica checca (come posso riconoscerla io), ma... non è che le persone LGBTetc siano in generale diverse dalle altre.
E poi... anche fosse possibile/sensato, per quale fine non discriminatorio potrebbe essere utile una "AI" del genere?
Non so se prendersela con il software sia la cosa giusta onestamente, spero che questo lavoro sia uno spunto per il dottorando per migliorare le performance della rete neurale anziché fare polemica del tipo "gli algoritmi sono transfobici!1!"
@QuantumMischief@Mariolink "Gli algoritmi sono transfobici" sarebbe una sciocchezza...
"Gli algoritmi sono conservatori" a me sembra calzante.
Assistiamo in continuazione a scivoloni su algoritmi addestrati con dati troppo parziali; con dati zeppi di idee vetuste...
Ma se non sono gli algoritmi ad essere transfobici, è l'idea di poter distinguere il genere (binario uomo/donna?) di una persona dall'immagine del suo viso ad essere ideologica, basata su un idea di genere esteriore e non interiore.