L’intelligence artificielle (IA) à préjugé racial n’est pas seulement trompeuse, elle peut aussi être nuisible, détruisant la vie des gens. C’est l’avertissement que le professeur adjoint à la Faculté de droit de l’Université de l’Alberta, le Dr Gideon Christian, a lancé dans un communiqué de l’institution.
Christian a reçu une subvention de 50 000 $ du Programme de contributions du Commissariat à la protection de la vie privée pour un projet de recherche intitulé Atténuer les impacts sur la race, le genre et la vie privée de la technologie de reconnaissance faciale par l’IA.
L’initiative vise à étudier les questions raciales liées à la technologie de reconnaissance faciale basée sur l’IA au Canada. Christian est considéré comme un expert en IA et en droit.
Il existe une idée fausse selon laquelle la technologie, contrairement aux humains, n’est pas biaisée. Ce n’est pas exact.
Il a été démontré que la technologie a la capacité de reproduire les préjugés humains. Dans certaines technologies de reconnaissance faciale, le taux de précision de reconnaissance des visages masculins blancs est supérieur à 99 %.
Mais malheureusement, lorsqu’il s’agit de reconnaître les visages de couleur, notamment ceux des femmes noires, la technologie semble manifester son taux d’erreur le plus élevé, qui se situe autour de 35 %.
Christian a expliqué dans le communiqué de presse de l’institution, ajoutant que la technologie de reconnaissance faciale peut faire correspondre de manière incorrecte un visage à celui d’une autre personne susceptible d’avoir commis un crime.
Est-ce la faute uniquement des algorithmes d’apprentissage automatique ?
Ce que nous avons vu au Canada, ce sont des cas de femmes noires, des immigrantes qui ont déposé avec succès une demande d’asile et qui se sont vu retirer leur statut de réfugié parce que la technologie de reconnaissance faciale fait correspondre leur visage à celui de quelqu’un d’autre.
Ainsi, le gouvernement affirme qu’ils ont soumis des candidatures en utilisant de fausses identités. Mais attention, ce sont des femmes noires – le même groupe démographique où l’IA a son pire taux d’erreur.
Dit le professeur.
Christian a expliqué que l’IA n’est jamais intrinsèquement biaisée, mais que les données utilisées pour entraîner les algorithmes d’apprentissage automatique en sont la cause. La technologie produira des résultats en fonction des données qui lui seront fournies.
Exempt de préjugés et de discrimination raciale dans l’IA
La plupart d’entre nous souhaitent vivre dans une société exempte de préjugés raciaux et de discrimination.
C’est l’essence de mes recherches, notamment dans le domaine de l’IA. Je ne pense pas que nous souhaitions une situation dans laquelle les préjugés raciaux pour lesquels nous avons travaillé si dur à résoudre soient désormais subtilement perpétués par la technologie de l’IA.
Christian a déclaré.
Le professeur a déclaré qu’à bien des égards, il s’agit d’un vieux problème qui se fait passer pour un nouveau problème. Le professeur a averti que si rien n’était fait, cela pourrait détruire des années de progrès.
Lisez aussi…
Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :
