(ANSA) - ROMA, 11 MAG - I modelli di Intelligenza Artificiale
sono più severi degli umani quando si tratta di esprimere
giudizi relativi a violazioni delle regole. All'origine di
questa discrepanza, come indica una ricerca coordinata da
Marzyeh Ghassemi dell'Istituto di Tecnologia del Massachusetts
(Mit) pubblicata su Science Advances, non ci sarebbe un problema
di giudizio delle macchine ma errori nel modo in cui vengono
addestrate.
L'obiettivo degli sviluppatori che si occupano di IA è quello
di riuscire a replicare alcune delle capacità umane tra cui
quella di saper giudicare e valutare le violazioni delle regole,
una capacità che può avere applicazioni in vari contesti come in
ambito bancario nella determinazione di fornire un prestito o
giudiziario nel determinare il rischio che un imputato possa
ripetere un crimine. Già da tempo in alcuni paesi queste
valutazioni vengono usate a supporto dei decisori umani ma quel
che lo studio osserva è che generalmente le valutazioni delle
macchine sono piuttosto severe e secondo i ricercatori ciò
sarebbe dovuto a errori nell'addestramento dei modelli. (ANSA).