Mentre assegnano 4,5 milioni di euro del programma di ricerca Horizon 2020 a iBorderCTRL, una sorta di macchina della verità da usare alle frontiere, gli esperti della Commissione europea sanno già che questa tecnologia di analisi dei micro-movimenti del volto e di identificazione delle bugie, potrà porre dei grossi problemi.

In un’analisi dedicata proprio ai profili etici del progetto, la commissione di valutazione osserva che “il focus sulla profilazione e sulla standardizzazione di comportamenti o di altri caratteristiche da usare per misurare e identificare attività o comportamenti illegali può contribuire allo stigma di individui e gruppi. Non solo, può portare a falsi positivi”. Tuttavia, si legge, i proponenti hanno “affrontato il tema in modo rapido e non sono state presentate adeguate misure di mitigazione”.

  • ailiphilia@feddit.itOP
    link
    fedilink
    Italiano
    arrow-up
    1
    ·
    1 year ago

    È triste che cose del genere accadano nel XXI secolo. Come questi algoritmi funzionino -compresi i loro dilemmi etici- è ben noto, anche se li abbiamo lentamente introdotti nella nostra vita quotidiana. Non lo capisco.