
© Synapse
What’s up Doc : Qu’est-ce qui vous a poussé à créer MedGPT ?
Louis Létinier : Cela fait déjà pas mal de temps que nous pensions à créer un assistant qui permette aux soignants de poser des questions à un outil pour obtenir des réponses fiables. À partir du moment où les médecins ont commencé à utiliser de l'IA dans leur pratique, on a su que qu’ils seraient prêt à accepter aussi l'IA générative en santé.
Aujourd’hui, plus personne ne va sur Google pour rechercher des informations, tout le monde utilse ChatGPT. C’est aussi valable pour les médecins. Nous voulions donc répondre à deux problématiques : une IA médicale de confiance et une IA médicale souveraine.
« Les retours des médecins utilisateurs sont extrêmement importants. Nous les encourageons à nous rapporter s’il y a des réponses incomplètes ou si des sources manquent »
Comment garantissez-vous la fiabilité de l’outil ?
L.L. : Sur l'aspect médical, il y a des IA généralistes qui sont très fortes mais elles puisent et nourrisent leur savoir sur le web. Elles sont extrêmement sensibles aux tendances et aux fake news. Imaginez Chat GPT à l'époque du Covid. Il aurait pu sortir et répandre les fausses informations de Didier Raoult sur la chloroquine parce que c’était une « idée » présente sur internet.
Nous, on ne veut évidemment pas de ça. On veut une IA de confiance. Notre IA sélectionne ses sources et ne se base que sur des recommandations de sociétés savantes, des administrations, de la HAS, de l’ANSM etc. MedGPT se base également sur notre propre base de données médicale agréée par la HAS. En complément, une quinzaine de médecins et pharmaciens travaillent pour nous et valident à la main les informations.
Enfin, les retours des médecins utilisateurs sont extrêmement importants. Nous les encourageons à nous rapporter s’il y a des réponses incomplètes ou si des sources manquent. Le but c'est vraiment de construire conjointement l’outil avec les médecins.
Pourquoi le développement d’une IA médicale française était-il nécessaire ?
L.L. : Quant à la question de la souveraineté, c’est un enjeu énorme. L’IA en santé va devenir prépondérante dans les années à venir. A-t-on envie de dépendre de Microsoft, Amazon ou Google ? Que des entreprises étrangères disent aux médecins quoi prescrire avec des données et des sources non-vérifiées ? Ou est-ce qu'on veut dépendre d’acteurs français ou au moins européens cadrés par nos réglementations ? Nous avons choisi la deuxième option parce qu’on veut agir vite afin que la France et l’Europe ne soient pas à la traine dans ce domaine. Et notre IA générative a des résultats excellents.

Vous affirmez que MedGPT est plus performant que ChatGPT. Vous pouvez développer ?
L.L. : Nous avons demandé à ChatGPT et MedGPT de répondre à toutes les questions des derniers EDN (sauf imagerie). Pour la correction, nous avons été très sévère et très précis. Résultat des courses : 73% de bonnes réponses pour ChatGPT et 80% pour nous. Donc ChatGPT aussi a plutôt un très bon score pour une IA qui n’est pas spécialisée. Mais ce qui change vraiment avec MedGPT, c’est que toutes nos sources sont vérifiées par des médecins et validées dans l’UE.
La version beta de MedGPT est gratuite. Est-ce voué à la rester ?
L.L. : La question du business model se pose en effet. Nous devons trouver des financements. Notre souhait, c'est que l’outil soit utilisable par le plus grand nombre de professionnels de santé. Une des pistes serait d’intégrer MedGPT dans d'autres outils sous forme de partenariats.
Un autre système serait le « free number ». Le médecin pourrait poser 10 ou 20 questions par jour gratuitement. S’il veut plus, ce serait payant.
« Ce qui change vraiment avec MedGPT, c’est que toutes nos sources sont vérifiées par des médecins et validées dans l’UE »
Un dernier message ?
L.L. : Nous sommes là pour aider les professionnels de santé pas pour les remplacer. MedGPT a été créé au profit de la santé. La version définitive va arriver rapidement, mais en attendant, nous avons besoin des retours des médecins pour rendre l’outil encore meilleur.