L’IA ne nous affranchira pas de nos préjugés

Article Article

Très tôt dans l’histoire moderne de la médecine, les scientifiques ont rêvé de créer un « cerveau électronique ». La création d’une intelligence artificielle (IA) est la plus ambitieuse des recherches biotechnologiques qui n’échappent pas pour autant… aux préjugés.

L’IA ne nous affranchira pas de nos préjugés

L’IA fonctionne avec des algorithmes basés inexorablement sur la quantité et la qualité des données collectées auprès de millions de personnes. L’un des freins à l’utilisation naïve de cette technologie est ce que les Anglo-Saxons appellent la « race-based medicine ». Même si le terme « race » est faux aujourd’hui1, techniquement les différences ethniques soulèvent toujours plusieurs questions2.

Il a été prouvé à plusieurs reprises qu’il existe bien une association entre pathologies et populations, ce que nous appelons communément le « terrain » dans notre jargon médical. Par exemple, l’hémochromatose est plus fréquente parmi les Scandinaves3 et le lupus parmi les Afro-Américains. En 2001 déjà, Le Dr Robert Schwartz écrivait un éditorial dans le New England Journal of Medicine, titré « Racial Profiling in Medical Research ». Il livrait un exemple de recherche clinique sur la prescription d’antihypertenseurs en fonction de données statistiques, et notamment de l’ethnie.

« La science est toujours le produit d'une culture »

L’usage de l’origine ethnique comme terrain dans l’analyse diagnostique se complique lorsqu’il existe une association double entre pathologie et origine ethnique, elle-même en lien de fréquence avec le statut social4. En effet, les derniers algorithmes d’intelligence artificielle, le machine learning, sont majoritairement des outils sophistiqués de classification5 qui mettent les personnes dans des cases dont il peut être difficile de sortir. Aussi, si des facteurs de risque avec un lien de causalité direct se confondent avec des caractéristiques sociodémographiques associées indirectement, l’algorithme devient discriminant.

 

Si le problème est connu, alors nous pourrions défendre que de futures avancées dans l’exploitation des données pourront améliorer ces biais. Peut-être. Mais pas sûr… Reanne Frank, une sociologue de Harvard, explique6 que « la science est toujours le produit d’une culture », et que les scientifiques qui pensent le contraire sont « dangereux ». Cela implique d’avoir une pensée critique quelle que soit la complexité de nos outils, sans se bercer de l’illusion d’une objectivité scientifique pure.

La race-based medicine, étape vers la médecine personnalisée ?

Cela ne fait que commencer. Google a annoncé cette année un programme permettant de s’auto-diagnostiquer une pathologie en se basant sur une très large base de données récupérée auprès de la faculté de médecine de Harvard et de la Mayo Clinic (1 % des recherches sur Google concerne des symptômes). Mais des spécialistes estiment que la race-based medicine n’est qu’une étape supplémentaire vers le but ultime de la médecine : la médecine personnalisée, en voie de démocratisation du fait de la chute de son coût (séquençage à 1000 $). Autrement dit, l’origine ethnique ne resterait pas un biais de l’IA puisque notre génome prendrait le pas sur notre simple origine ethnique affichée. À suivre…

Ainsi l’IA risque de relayer directement nos préjugés. Plus nous les connaîtrons, plus nous affinerons l’usage des données et multiplierons les sources d’informations, plus nous limiterons leur impact. Mais pour aujourd’hui, l’IA est encore un enfant qui doit être guidé…

------------------------------------------------------------------------------------------

1 https://jda.revues.org/2619?

2 http://qz.com/765879/23andme-has-a-race-problem-when-it-comes-to-ancestry-reports-for-non-whites/

3 http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3142605/?

4 http://www.apa.org/pi/ses/resources/publications/minorities.aspx?

5 http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/?

6 http://www.wired.co.uk/article/hard-to-swallow-race-based-medicine

 

Les gros dossiers

+ De gros dossiers