• IDS302 - Intégration éthique de l'IA en radiologie en France : perceptions, pratiques et recommandations

    Avertissement

    Les projets ou stages publiés auxquels vous accédez sont des rapports d'étudiants et doivent être pris comme tels. Il peuvent donc comporter des imperfections ou des imprécisions que tout lecteur doit admettre et donc supporter. Il ont été réalisés pendant les périodes de formation et constituent avant-tout des travaux de compilation bibliographique, d'initiation et d'analyse sur des thématiques associées aux concepts, méthodes, outils et expériences sur les démarches qualité dans les organisations ou sur les technologies en santé.

    Si, malgré nos précautions, vous avez des raisons de contester ce droit de diffusion libre, merci de nous en faire part (master@utc.fr), nous nous efforcerons d'y apporter une réponse rapide. L'objectif de la présentation des travaux sur le web est de permettre l'accès à l'information et d'augmenter ainsi la qualité des échanges professionnels.

    Nous ne faisons aucun usage commercial des travaux de projet ou de stage publiés, par conséquent les citations des informations et l'emploi des outils mis à disposition sont totalement libres. Dans ce cas, nous vous demandons de respecter les règles d'éthique en citant explicitement et complètement vos sources bibliographiques.

    Bonne lecture...

    Auteurs

    Contacts

    Citation

    A rap­pe­ler pour tout usage : H.GUIHA, S.NOHRA, S. NZENGUI, O.OUHASSOU, "Inté­gra­tion éthique de l'IA en radio­lo­gie en France : per­cep­tion, pra­tiques et recom­man­da­tions ", Uni­ver­si­té de Tech­no­lo­gie de Com­piègne (France), Mas­ter Ingé­nie­rie de la San­té, Par­cours Dis­po­si­tif médi­cal et affaires régle­men­taires, Mémoire de Pro­jet, https://travaux.master.utc.fr/, réf n° IDS302, jan­vier 2026, https://travaux.master.utc.fr/formations-master/ingenierie-de-la-sante/ids302/, https://doi.org/10.34746/ids302

    Remerciements

    D’emblée, nous sou­hai­tons remer­cier l’Université de Tech­no­lo­gie de Com­piègne et l'ensemble des pro­fes­seurs pour l’accompagnement et la qua­li­té de leur ensei­gne­ment durant ce semestre. Leur exper­tise a lar­ge­ment contri­bué à notre déve­lop­pe­ment per­son­nel et professionnel.

    Nous remer­cions tout par­ti­cu­liè­re­ment Madame Julie Fol­let, enca­drante du pro­jet, pour sa dis­po­ni­bi­li­té, son accom­pa­gne­ment et ses pré­cieux conseils tout au long de ce tra­vail. Nous remer­cions éga­le­ment Madame Isa­belle Claude, res­pon­sable de l’UE, pour son sou­tien et l’encadrement péda­go­gique appor­té dans le cadre de cette uni­té d’enseignement.

    Nous adres­sons éga­le­ment nos remer­cie­ments à l’ensemble des experts et pro­fes­sion­nels qui ont accep­té de par­ta­ger leur expé­rience et leur exper­tise, appor­tant un éclai­rage essen­tiel à la réflexion menée dans le cadre de ce projet.

    Nous remer­cions nos familles et nos amis pour leur sou­tien constant, ain­si que les membres de notre groupe pour leur col­la­bo­ra­tion, leur enga­ge­ment et leur esprit d’équipe tout au long de ce projet.

    Enfin, nous sou­hai­tons expri­mer notre pro­fonde gra­ti­tude à toutes les per­sonnes qui ont, de près ou de loin, contri­bué à la réa­li­sa­tion de ce projet. 

    Résumé

    L’intelligence arti­fi­cielle est de plus en plus uti­li­sée en radio­lo­gie, notam­ment pour l’aide au diag­nos­tic. Si elle apporte des béné­fices cli­niques signi­fi­ca­tifs, son inté­gra­tion sou­lève tou­te­fois des enjeux éthiques et régle­men­taires majeurs. Ceux-ci concernent en par­ti­cu­lier la trans­pa­rence des algo­rithmes et des déci­sions pro­duites par les sys­tèmes d’IA, la super­vi­sion humaine des résul­tats géné­rés afin de garan­tir un contrôle médi­cal effec­tif, la res­pon­sa­bi­li­té en cas d’erreur diag­nos­tique impli­quant un sys­tème d’IA, la for­ma­tion des pro­fes­sion­nels de san­té à l’utilisation, aux limites et aux biais des outils d’IA, ain­si que l’information des patients sur l’usage de l’IA dans leur prise en charge, les fina­li­tés du trai­te­ment de leurs don­nées et leurs droits associés.

    Ce tra­vail repose sur une enquête ter­rain com­bi­nant des ques­tion­naires sou­mis à des radio­logues et des patients afin d’évaluer leur per­cep­tion, leur niveau de confiance et leur com­pré­hen­sion de l’usage de l’IA en radio­lo­gie, ain­si que des entre­tiens menés avec des ingé­nieurs d’application dans le but de com­prendre les contraintes tech­niques, orga­ni­sa­tion­nelles et régle­men­taires des sys­tèmes d’IA, ain­si que les pra­tiques actuelles d’accompagnement des uti­li­sa­teurs. Cette approche est com­plé­tée par l’analyse des prin­ci­paux cadres régle­men­taires et éthiques enca­drant l’IA en san­té (AI Act, recom­man­da­tions de la CNIL et lignes direc­trices de l’OMS).

    Les résul­tats mettent en évi­dence un écart entre les exi­gences éthiques et régle­men­taires for­ma­li­sées (trans­pa­rence, super­vi­sion humaine, infor­ma­tion du patient, res­pon­sa­bi­li­té et ges­tion des biais) et les pra­tiques réelles obser­vées sur le ter­rain, notam­ment en matière d’information des patients, de tra­ça­bi­li­té de l’usage de l’IA et de for­ma­tion des pro­fes­sion­nels. À par­tir de cette ana­lyse croi­sée des don­nées issues des ques­tion­naires, des entre­tiens et des textes régle­men­taires, des pro­po­si­tions opé­ra­tion­nelles concrètes ont été for­mu­lées, telles que la mise en place de pro­to­coles de super­vi­sion humaine, le ren­for­ce­ment de la for­ma­tion des uti­li­sa­teurs et l’amélioration de l’information des patients, afin de favo­ri­ser une inté­gra­tion éthique et res­pon­sable de l’IA en radiologie.

    Abstract

    Arti­fi­cial intel­li­gence is increa­sin­gly used in radio­lo­gy, par­ti­cu­lar­ly for diag­nos­tic sup­port. While it pro­vides signi­fi­cant cli­ni­cal bene­fits, its inte­gra­tion none­the­less raises major ethi­cal and regu­la­to­ry chal­lenges. These issues nota­bly concern the trans­pa­ren­cy of algo­rithms and of the deci­sions pro­du­ced by AI sys­tems, human over­sight of gene­ra­ted results in order to ensure effec­tive medi­cal control, lia­bi­li­ty in the event of diag­nos­tic errors invol­ving an AI sys­tem, the trai­ning of heal­th­care pro­fes­sio­nals in the use, limi­ta­tions, and biases of AI tools, as well as infor­ming patients about the use of AI in their care, the pur­poses of data pro­ces­sing, and their asso­cia­ted rights.

    This work is based on a field stu­dy com­bi­ning ques­tion­naires admi­nis­te­red to radio­lo­gists and patients in order to assess their per­cep­tions, levels of trust, and unders­tan­ding of the use of AI in radio­lo­gy, as well as inter­views conduc­ted with appli­ca­tion engi­neers to unders­tand the tech­ni­cal, orga­ni­za­tio­nal, and regu­la­to­ry constraints of AI sys­tems and cur­rent user sup­port prac­tices. This approach is com­ple­men­ted by an ana­ly­sis of the main regu­la­to­ry and ethi­cal fra­me­works gover­ning AI in heal­th­care (the AI Act, CNIL recom­men­da­tions, and WHO gui­de­lines). The results high­light a gap bet­ween for­ma­li­zed ethi­cal and regu­la­to­ry requi­re­ments (trans­pa­ren­cy, human over­sight, patient infor­ma­tion, accoun­ta­bi­li­ty, and bias mana­ge­ment) and real-world prac­tices obser­ved in the field, par­ti­cu­lar­ly with regard to patient infor­ma­tion, tra­cea­bi­li­ty of AI use, and pro­fes­sio­nal trai­ning. Based on this cross-ana­ly­sis of data from ques­tion­naires, inter­views, and regu­la­to­ry texts, concrete ope­ra­tio­nal pro­po­sals were for­mu­la­ted, such as the imple­men­ta­tion of human over­sight pro­to­cols, streng­the­ning user trai­ning, and impro­ving patient infor­ma­tion, in order to pro­mote an ethi­cal and res­pon­sible inte­gra­tion of AI in radiology.

    Téléchargements

    IDS302_Intégration éthique de l'IA en radiologie_Poster
    IDS302_Intégration éthique de l'IA en radiologie_Poster
    IDS302_Intégration éthique de l'IA en radiologie_Mémoire
    IDS302_Intégration éthique de l'IA en radiologie_Mémoire
    IDS302_Intégration éthique de l'IA en radiologie_Recommandations
    IDS302_Intégration éthique de l'IA en radiologie_Recommandations

    Intégration éthique de l'IA en radiologie en France : perceptions, pratiques et recommandations

    Introduction

    L’intelligence arti­fi­cielle (IA) consti­tue aujourd’hui une avan­cée tech­no­lo­gique majeure en san­té, et plus par­ti­cu­liè­re­ment en radio­lo­gie, où elle est prin­ci­pa­le­ment uti­li­sée comme outil d’aide au diag­nos­tic, notam­ment pour la détec­tion d’anomalies, la seg­men­ta­tion d’images ou la prio­ri­sa­tion des exa­mens. Depuis le début des années 2010, les pro­grès en appren­tis­sage auto­ma­tique ont conduit au déve­lop­pe­ment d’outils dont les per­for­mances peuvent se rap­pro­cher de celles des radio­logues dans cer­taines tâches spé­ci­fiques [1]. Cette évo­lu­tion s’accompagne d’une forte crois­sance éco­no­mique du sec­teur : selon l'agence Signi­fy Research, le mar­ché mon­dial de l’IA en ima­ge­rie médi­cale pour­rait atteindre 1,36 mil­liard de dol­lars d’ici 2026, avec un taux de crois­sance annuel moyen supé­rieur à 26 % [2].

    His­to­ri­que­ment, la radio­lo­gie a consti­tué un ter­rain pri­vi­lé­gié pour le déve­lop­pe­ment de l’informatique médi­cale, en rai­son du carac­tère numé­rique des images et des volumes impor­tants de don­nées à ana­ly­ser. Les appli­ca­tions d’IA se sont ain­si concen­trées sur des tâches telles que la détec­tion d’anomalies, la seg­men­ta­tion et l’aide à la prio­ri­sa­tion des exa­mens. Des entre­prises comme Incep­to Médi­cal, Aidoc ou Zebra Medi­cal Vision déve­loppent aujourd’hui des solu­tions d’aide à la déci­sion inté­grées aux sys­tèmes d’information hos­pi­ta­liers [3].

    Tou­te­fois, ces avan­cées tech­no­lo­giques ne peuvent être dis­so­ciées d’une réflexion éthique. Plu­sieurs tra­vaux sou­lignent que le pro­grès tech­nique, à lui seul, ne garan­tit ni la qua­li­té des soins ni le res­pect des valeurs humaines, et qu’il doit s’inscrire dans un cadre nor­ma­tif et res­pon­sable [4]. En radio­lo­gie, l’intégration de l’IA sou­lève ain­si des enjeux majeurs concer­nant la super­vi­sion humaine, la res­pon­sa­bi­li­té médi­cale, la pro­tec­tion des don­nées et la confiance des patients [5].

    Dans ce contexte, ce pro­jet vise à ana­ly­ser les prin­ci­pales appli­ca­tions de l’IA en radio­lo­gie, à en iden­ti­fier les apports et les limites, ain­si qu’à étu­dier les enjeux éthiques et régle­men­taires asso­ciés. Il s’attache éga­le­ment à for­mu­ler des recom­man­da­tions des­ti­nées à favo­ri­ser une inté­gra­tion res­pon­sable, jus­ti­fiable et cen­trée sur l’humain des outils d’IA en ima­ge­rie médicale.

    Chapitre 1 - Intelligence artificielle et santé : définitions, réglementation et considérations éthiques

    Ce cha­pitre pré­sente le contexte de l’IA en radio­lo­gie, en intro­dui­sant d’abord les fon­de­ments tech­no­lo­giques de l’IA, en par­ti­cu­lier le deep lear­ning, puis son adop­tion pro­gres­sive en France, avant d’aborder les enjeux éthiques et régle­men­taires asso­ciés à son uti­li­sa­tion cli­nique. Il car­to­gra­phie éga­le­ment les acteurs internes et externes impli­qués et ana­lyse les enjeux éthiques et pra­tiques de l’IA. Cette base théo­rique per­met de for­mu­ler la ques­tion de recherche qui gui­de­ra l’ensemble de l’étude.

    1.1. Définition et principes éthiques de l’intelligence artificielle en radiologie

    L’essor rapide de l’IA en radio­lo­gie, depuis les pre­miers sys­tèmes d’aide à la détec­tion jusqu’aux réseaux de neu­rones pro­fonds, montre que le pro­grès tech­no­lo­gique, aus­si impres­sion­nant soit-il, ne garan­tit pas un usage fiable et éthique. Pour exploi­ter ces outils de manière res­pon­sable, il est essen­tiel de défi­nir clai­re­ment ce que l’on entend par IA et par éthique, et de com­prendre les prin­cipes enca­drant leur utilisation.

    1.1.1 Intelligence artificielle

    L’article 3 du Règle­ment (UE) 2024/1689 (ou AI Act pour Arti­fi­cial Intel­li­gence Act) défi­nit un sys­tème d’IA comme « un sys­tème fon­dé sur une machine, conçu pour fonc­tion­ner avec dif­fé­rents degrés d’autonomie et pou­vant faire preuve d’adaptabilité après son déploie­ment. Pour des objec­tifs expli­cites ou impli­cites, il déter­mine, à par­tir des don­nées qu’il reçoit, la manière de pro­duire des résul­tats tels que des pré­dic­tions, du conte­nu, des recom­man­da­tions ou des déci­sions sus­cep­tibles d’influencer des envi­ron­ne­ments phy­siques ou vir­tuels" [5].

    De cette défi­ni­tion se dégagent trois carac­té­ris­tiques essen­tielles propres aux sys­tèmes d’IA :

    • Un cer­tain degré d’autonomie, signi­fiant qu’ils ne sont pas entiè­re­ment contrô­lés par l’humain à tout moment.
    • Une capa­ci­té d’apprentissage auto­ma­tique et d’auto-ajustement fon­dée sur l’analyse des don­nées, per­met­tant l’actualisation des modèles et des per­for­mances du sys­tème après sa mise en service.
    • Une action sur l’environnement, par la pro­duc­tion de résul­tats sus­cep­tibles d’influencer le monde réel ou virtuel.

    D’un point de vue scien­ti­fique, l’IA est  défi­nie comme « la science et l’ingénierie de la créa­tion de machines intel­li­gentes, fon­dées sur des algo­rithmes ou des règles, imi­tant les fonc­tions cog­ni­tives humaines telles que l’apprentissage et la réso­lu­tion de pro­blèmes » [6].

    À la lumière de ces approches, une défi­ni­tion adap­tée au contexte de l’imagerie médi­cale peut être proposée :

    L’IA désigne une enti­té logi­cielle et maté­rielle fonc­tion­nant avec un cer­tain degré d’autonomie, capable de s’adapter à par­tir des don­nées reçues et de géné­rer des résul­tats, pré­dic­tions, recom­man­da­tions, déci­sions ou conte­nus ayant un impact sur des envi­ron­ne­ments phy­siques ou vir­tuels. Concrè­te­ment, en ima­ge­rie médi­cale, l’IA exploite des don­nées d’imagerie et des infor­ma­tions cli­niques pour assis­ter le radio­logue dans diverses tâches. Elle peut ain­si auto­ma­ti­ser la seg­men­ta­tion des struc­tures ana­to­miques, détec­ter des ano­ma­lies, clas­ser les lésions et appor­ter une aide au diag­nos­tic, contri­buant à amé­lio­rer la pré­ci­sion et l’efficacité des exa­mens. Cette défi­ni­tion com­bine les cri­tères juri­diques issus du règle­ment euro­péen (auto­no­mie et adap­ta­bi­li­té) et les dimen­sions cog­ni­tives et fonc­tion­nelles mises en avant par la lit­té­ra­ture scien­ti­fique récente.

    1.1.2 Réseaux de neurones en radiologie

    Après avoir défi­ni l’IA ain­si que ses capa­ci­tés d’apprentissage, d’adaptation et d’analyse, il est impor­tant de com­prendre sa struc­ture interne et les tech­niques qui la com­posent. L’IA n’est pas  seule­ment une enti­té unique, mais un ensemble de méthodes et d’architectures per­met­tant aux machines de trai­ter des don­nées, d’apprendre et de pro­duire des résul­tats exploi­tables. Dans ce cadre, le machine lear­ning et le deep lear­ning occupent une place cen­trale [7].

    L’imagerie médi­cale s’appuie très lar­ge­ment sur ces tech­niques. Le machine lear­ning, sous-caté­go­rie de l’IA, per­met à un sys­tème d’apprendre à par­tir de don­nées plu­tôt que d’être pro­gram­mé expli­ci­te­ment pour chaque tâche. Cette approche a ensuite été com­plé­tée par le deep lear­ning, qui repose sur des réseaux de neu­rones arti­fi­ciels. Ces der­niers sont com­po­sés de neu­rones inter­con­nec­tés orga­ni­sés en couches : une couche d’entrée, plu­sieurs couches cachées et une couche de sor­tie. Chaque neu­rone reçoit des signaux pro­ve­nant des neu­rones de la couche pré­cé­dente, pon­dé­rés par des coef­fi­cients appe­lés poids, qui déter­minent l’importance de chaque infor­ma­tion. Ces signaux sont ensuite trans­for­més via une fonc­tion d’activation et trans­mis aux neu­rones sui­vants. L’apprentissage consiste à ajus­ter ces poids pro­gres­si­ve­ment grâce à la rétro­pro­pa­ga­tion (back­pro­pa­ga­tion), mini­mi­sant l’erreur entre les pré­dic­tions du réseau et les résul­tats atten­dus [8].

    Ces algo­rithmes sont capables d’extraire et de hié­rar­chi­ser auto­ma­ti­que­ment les carac­té­ris­tiques les plus per­ti­nentes dans des masses de don­nées com­plexes, typi­que­ment des images médicales.

    Dans le domaine de la radio­lo­gie, cette capa­ci­té a per­mis d’automatiser de nom­breuses étapes de l’analyse d’images. Par exemple, les réseaux de neu­rones convo­lu­tifs (CNN) sont lar­ge­ment uti­li­sés pour la détec­tion d’anomalies, la seg­men­ta­tion des tis­sus ou la clas­si­fi­ca­tion des lésions, avec une fia­bi­li­té sou­vent com­pa­rable à celle des experts humains. Ces sys­tèmes ne rem­placent pas les radio­logues, mais ren­forcent leur capa­ci­té d’interprétation, en aidant à prio­ri­ser les cas com­plexes et à iden­ti­fier des signes dis­crets de patho­lo­gie. Selon Signi­fy Research, près de 70 % des sys­tèmes d’IA en diag­nos­tic par ima­ge­rie reposent sur le deep lear­ning [2].

    1.2. Adoption de l'intelligence artificielle en radiologie en France

    En 2024, dans les centres hos­pi­ta­lo-uni­ver­si­taires fran­çais, près de la moi­tié des radio­logues inter­ro­gés (47,9 %)  (soit 8 radio­logues sur 17) ont décla­ré uti­li­ser déjà des outils d'IA dans leur pra­tique cli­nique, tan­dis qu’environ un quart d’entre eux (26,8 %) envi­sagent de le faire pro­chai­ne­ment. Dans cer­tains grou­pe­ments hos­pi­ta­liers, l’utilisation de ces outils d’aide à la déci­sion per­met de réduire de 18 % les exa­mens d’imagerie jugés non per­ti­nents. Bien que la France ne soit pas néces­sai­re­ment lea­der mon­dial dans ce domaine, elle figure par­mi les acteurs dyna­miques de l’innovation en IA appli­quée à la radio­lo­gie [9,10].

    L’ensemble de ces usages est enca­dré sur le plan régle­men­taire, à la fois au niveau euro­péen et natio­nal. Selon l'AI Act, les dis­po­si­tifs basés sur l’IA, consi­dé­rés comme des dis­po­si­tifs médi­caux à « haut risque », sont sou­mis à des obli­ga­tions strictes en matière de trans­pa­rence, de super­vi­sion humaine et de docu­men­ta­tion des biais. Par ailleurs, l’arrivée de l’Espace Euro­péen des Don­nées de San­té en mars 2025 régu­le­ra la réuti­li­sa­tion des don­nées de san­té pour la recherche et l’innovation, dans un cadre sécu­ri­sé et éthique [11,12].

    Ain­si, en France, l’IA en radio­lo­gie n’est plus seule­ment un outil expé­ri­men­tal : elle est de plus en plus inté­grée à la pra­tique cli­nique, contri­buant à une meilleure effi­ca­ci­té diag­nos­tique et à un usage plus ration­nel des res­sources hos­pi­ta­lières, tout en res­tant enca­drée par des régle­men­ta­tions strictes pour garan­tir sa sécu­ri­té et son éthique d’utilisation.

    1.3. Éthique et bonnes pratiques de l’intelligence artificielle en radiologie

    Dans le cadre de ce pro­jet, nous nous fon­dons sur l’éthique de la res­pon­sa­bi­li­té de Hans Jonas (1979) selon laquelle toute inno­va­tion tech­no­lo­gique ne peut être envi­sa­gée qu’au regard de ses consé­quences pour l'humanité [13]. Elle se conçoit dans le cadre des prin­cipes de bioé­thique défi­nis par Beau­champ et Chil­dress (2013) : bien­fai­sance, non-mal­fai­sance, auto­no­mie et jus­tice [14]. En l’occurrence, pour l’IA en radio­lo­gie, il s’agit de construire et d’utiliser les algo­rithmes de deep lear­ning de manière trans­pa­rente, sous contrôle et en res­pon­sa­bi­li­té. En d’autres termes, l’usage de l’IA doit contri­buer à l’amélioration de la qua­li­té du diag­nos­tic et de la san­té du patient, ne pas expo­ser les per­sonnes à des risques non maî­tri­sés, ne pas se pro­duire en dehors du consen­te­ment du patient. En par­ti­cu­lier, pour la radio­lo­gie, cela signi­fie que l’algorithme est fiable, expli­cable et équi­table, et que le res­pect des droits fon­da­men­taux des patients est garan­ti comme le recom­mande l’Organisation mon­diale de la san­té (OMS) [15].

    Le concept de l’IA de confiance (Trust­wor­thy AI) consti­tue pour la san­té la norme éthique inter­na­tio­nale, au nom de la robus­tesse tech­nique, de la trans­pa­rence algo­rith­mique et de la res­pon­sa­bi­li­té humaine. La per­ti­nence des sys­tèmes IA en radio­lo­gie dépend de la per­for­mance mais aus­si de l’explicabilité, du contrôle des biais et du feed­back des uti­li­sa­teurs sur l’appropriation des résul­tats [16]. Les FUTURE-AI Gui­de­lines pré­co­nisent l’audit des jeux de don­nées, la vali­da­tion mul­ti­cen­trique des résul­tats, la tra­ça­bi­li­té des déci­sions et la docu­men­ta­tion des modèles de deep lear­ning dans l’objectif de garan­tir la trans­pa­rence et la sécu­ri­té cli­nique [17].

    En juillet 2025, la Délé­ga­tion au Numé­rique en San­té (DNS) fran­çaise a éla­bo­ré un guide d’implémentation de l’éthique dans les sys­tèmes d’intelligence arti­fi­cielle (SIA) en san­té, qui pré­cise que la réflexion éthique doit être inté­grée dès la concep­tion et l’évaluation des sys­tèmes numé­riques, avec des dis­po­si­tifs d’audit, de contrôle et de sui­vi tout au long du cycle de vie des solu­tions [18]. Ce guide vise à accom­pa­gner les acteurs de la san­té dans le déploie­ment res­pon­sable des solu­tions d’IA, en met­tant l’accent sur des prin­cipes tels que la trans­pa­rence, la res­pon­sa­bi­li­té, la super­vi­sion humaine et la pro­tec­tion des don­nées personnelles. 

    En com­plé­ment de cette dimen­sion éthique, le cadre juri­dique appli­cable aux sys­tèmes d’IA en san­té s’appuie sur l'AI Act et sur le Règle­ment Géné­ral sur la Pro­tec­tion des Don­nées (RGPD), qui imposent des exi­gences strictes de sécu­ri­té, de trans­pa­rence, d’explicabilité et de pro­tec­tion des don­nées per­son­nelles. Ces règles garan­tissent que les sys­tèmes d’IA uti­li­sés dans le domaine médi­cal res­pectent les droits des patients et demeurent conformes aux normes légales tout au long de leur cycle de vie.

    Le guide d’implémentation de l'éthique dans les SIA en san­té pro­po­sé par la DNS iden­ti­fie cinq grands prin­cipes fon­da­men­taux : res­pon­sa­bi­li­té, trans­pa­rence, expli­ca­bi­li­té, équi­té et pro­por­tion­na­li­té. Ces prin­cipes consti­tuent le fil conduc­teur de notre réflexion sur l’utilisation du deep lear­ning à visée radio­lo­gique, afin de garan­tir l’explicabilité, la fia­bi­li­té et la confor­mi­té régle­men­taire de l’IA au ser­vice des patients [18].

    C’est ain­si que nous défi­nis­sons pour ce pro­jet l’éthique comme l’ensemble des prin­cipes et pra­tiques assu­rant que le numé­rique en san­té, et plus par­ti­cu­liè­re­ment le deep lear­ning en radio­lo­gie, est au ser­vice de l’humain, res­pec­tueux et gar­dien de la valeur fon­da­men­tale de la digni­té humaine sous la res­pon­sa­bi­li­té des humains (trans­pa­rence et expli­ca­bi­li­té des modèles, res­pon­sa­bi­li­té des concep­teurs et uti­li­sa­teurs, équi­té et absence de biais dans les jeux de don­nées, bien­fai­sance et non-mal­fai­sance du patient, pro­por­tion­na­li­té entre moyens tech­niques et béné­fice espé­ré, res­pect de la vie privée).

    1.4. Cartographie des acteurs impliqués dans l'intelligence artificielle utilisée en radiologie

    L’intégration de l’IA en radio­lo­gie mobi­lise une diver­si­té d’acteurs, cha­cun jouant un rôle essen­tiel dans la concep­tion, la régu­la­tion et l’utilisation éthique de ces tech­no­lo­gies. La car­to­gra­phie ci-des­sous illustre les dif­fé­rents acteurs  impliqués :

    Figure 1 : Cartographie des acteurs dans l'intégration de l'intelligence artificielle en radiologie en France [source : auteurs]

    Dans le cadre de l’utilisation de l’IA en san­té, plu­sieurs acteurs internes jouent un rôle essen­tiel. Les radio­logues sont des méde­cins spé­cia­li­sés dans l’interprétation des images médi­cales, tan­dis que les mani­pu­la­teurs radio réa­lisent les exa­mens d’imagerie. L’ingénieur bio­mé­di­cal est char­gé de gérer les équi­pe­ments médi­caux et d’assurer leur bon fonc­tion­ne­ment, y com­pris les solu­tions d’IA. Les labo­ra­toires de recherche déve­loppent et testent de nou­velles tech­no­lo­gies en ima­ge­rie et en IA. Enfin, les hôpi­taux publics consti­tuent les struc­tures de soins qui déploient l’IA afin d’améliorer la qua­li­té des diag­nos­tics et des prises en charge.

    Paral­lè­le­ment, de nom­breux acteurs externes inter­viennent dans le déve­lop­pe­ment, l’encadrement et la régu­la­tion des tech­no­lo­gies d’IA médi­cale. Les entre­prises et édi­teurs spé­cia­li­sés conçoivent et com­mer­cia­lisent les algo­rithmes uti­li­sés dans ces solu­tions, tan­dis que la Haute Auto­ri­té de San­té (HAS) éva­lue les tech­no­lo­gies médi­cales et émet des recom­man­da­tions pour leur usage opti­mal. La Com­mis­sion euro­péenne, à tra­vers l’AI Act, éta­blit le cadre régle­men­taire euro­péen pour l’IA, notam­ment en san­té, et le Par­le­ment par­ti­cipe à l’élaboration des lois enca­drant son usage en France. La Com­mis­sion Natio­nale de l'Informatique et des Liber­tés (CNIL) veille à la pro­tec­tion des don­nées per­son­nelles, par­ti­cu­liè­re­ment dans le contexte des outils d’IA médi­cale. Les comi­tés d’éthique inter­na­tio­naux réflé­chissent aux impli­ca­tions morales et éthiques liées à l’usage de l’IA en méde­cine et des logi­ciels médi­caux. Enfin, le Minis­tère de la San­té défi­nit les grandes orien­ta­tions natio­nales en matière de san­té et de technologies.

    1.5. L’IA en radiologie : enjeux et considérations éthiques 

    L’IA en radio­lo­gie apporte de nom­breux avan­tages, mais elle sou­lève aus­si plu­sieurs enjeux éthiques impor­tants pour les dif­fé­rents acteurs du domaine. Pour les radio­logues et autres pro­fes­sion­nels de san­té impli­qués dans l’interprétation des exa­mens, le prin­ci­pal risque est la perte de contrôle du juge­ment cli­nique : en s’appuyant trop sur les outils d’IA, ils peuvent deve­nir dépen­dants des résul­tats pro­po­sés par la machine. Cela pose aus­si la ques­tion de la res­pon­sa­bi­li­té médi­cale en cas d’erreur de diag­nos­tic. Les radio­logues doivent donc gar­der leur auto­no­mie pro­fes­sion­nelle, être cor­rec­te­ment for­més et capables d’utiliser l’IA comme un outil d’aide, et non comme un rem­pla­çant [19].

    Au CHU de Poi­tiers, un radio­logue indique qu’environ 75 % des radio­gra­phies réa­li­sées aux urgences ne font plus l’objet d’une relec­ture sys­té­ma­tique par un autre radio­logue. Les images sont néan­moins ana­ly­sées direc­te­ment par les radio­logues en charge, par­fois avec l’aide d’outils d’IA pour orien­ter le diag­nos­tic ou détec­ter des ano­ma­lies. Cepen­dant, la déci­sion finale doit tou­jours reve­nir au radio­logue afin de garan­tir la sécu­ri­té du patient et d’éviter les erreurs liées à une confiance exces­sive dans l’algorithme [19].

    Du point de vue du patient, plu­sieurs aspects éthiques sont à consi­dé­rer. Tout d’abord, la confiance et la fia­bi­li­té du diag­nos­tic sont essen­tielles : le patient sou­haite que les résul­tats four­nis par l’IA et le radio­logue soient cor­rects et conduisent à un trai­te­ment effi­cace. La sécu­ri­té des soins consti­tue éga­le­ment un enjeu majeur, car le patient doit être assu­ré que l’IA ne com­met­tra pas d’erreurs, même dans des cas rares. Par ailleurs, il est impor­tant de main­te­nir l’humanité de la rela­tion de soins, car le patient peut craindre d’être rem­pla­cé par une machine. Enfin, la ques­tion de la jus­tice et de l’égalité d’accès se pose : tous les patients, qu’ils vivent en ville ou à la cam­pagne, qu’ils soient riches ou pauvres, devraient béné­fi­cier du même niveau de diagnostic.

    Les ins­ti­tu­tions publiques, telles que la HAS ou le Minis­tère de la San­té, ont pour mis­sion d’assurer un cadre juri­dique et éthique pour le déve­lop­pe­ment de l’IA en san­té. Elles veillent à la sécu­ri­té des patients, à la trans­pa­rence des algo­rithmes et à la pro­tec­tion des don­nées de san­té, afin d’éviter que les IA uti­li­sées dans les hôpi­taux soient entraî­nées uni­que­ment sur des bases étrangères.

    Les édi­teurs d’IA, tels que Incep­to, Sie­mens ou GE Heal­th­care, ont éga­le­ment une grande res­pon­sa­bi­li­té. Ils doivent assu­rer une trans­pa­rence sur le fonc­tion­ne­ment de leurs algo­rithmes, garan­tir une vali­da­tion cli­nique rigou­reuse et véri­fier les per­for­mances réelles de leurs outils, afin de ne pas pri­vi­lé­gier les inté­rêts éco­no­miques au détri­ment de la sécu­ri­té des patients. La col­la­bo­ra­tion entre ces entre­prises et les pro­fes­sion­nels de san­té doit être concrète, basée sur la confiance et la res­pon­sa­bi­li­té partagée.

    1.6. Question de recherche

    L’IA trans­forme la radio­lo­gie en amé­lio­rant la rapi­di­té et la pré­ci­sion des diag­nos­tics, mais sou­lève des enjeux éthiques majeurs : pro­tec­tion des don­nées, trans­pa­rence des algo­rithmes, res­pon­sa­bi­li­té médi­cale et équi­té d’accès aux tech­no­lo­gies d’IA et aux soins qu’elles sou­tiennent. Il est donc essen­tiel que radio­logues, patients, entre­prises et régu­la­teurs col­la­borent pour garan­tir un usage sûr et éthique de l’IA. Cette réflexion conduit natu­rel­le­ment à la ques­tion suivante :

    Com­ment les acteurs du sec­teur de la radio­lo­gie peuvent-ils col­la­bo­rer pour garan­tir une appli­ca­tion concrète des recom­man­da­tions éthiques de l’IA ?

    Chapitre 2 - Analyse des référentiels éthiques et étude de terrain 

    Le pré­sent cha­pitre vise à ana­ly­ser les guides exis­tants rela­tifs à l’intégration éthique et pra­tique de l’IA en radio­lo­gie, ain­si qu’à confron­ter leurs prin­cipes aux pra­tiques réelles obser­vées sur le ter­rain. Il pré­sente la sélec­tion des guides étu­diés, leur éva­lua­tion métho­dique, la syn­thèse des failles iden­ti­fiées et la métho­do­lo­gie mise en œuvre pour l’élaboration des livrables du projet.

    Pour atteindre ces objec­tifs, une métho­do­lo­gie mixte a été adop­tée. Elle repose, d’une part, sur une ana­lyse docu­men­taire et régle­men­taire des cadres appli­cables à l’IA en radio­lo­gie, incluant les exi­gences juri­diques euro­péennes et leur décli­nai­son natio­nale, ain­si que les recom­man­da­tions ins­ti­tu­tion­nelles et pro­fes­sion­nelles. D’autre part, elle s’appuie sur une enquête de ter­rain, per­met­tant d’évaluer l’intégration concrète de l’IA dans la pra­tique clinique.

    Cette démarche per­met d’analyser :

    • Les écarts éven­tuels entre cadres nor­ma­tifs, recom­man­da­tions et usages.
    • La manière dont les prin­cipes éthiques sont for­ma­li­sés dans les guides étudiés.
    • Leur mise en œuvre effec­tive dans les pra­tiques professionnelles.

    2.1. Analyse des référentiels sélectionnés

    2.1.1 Rationnel de sélection des référentiels

    Pour répondre à la pro­blé­ma­tique de l’intégration éthique et opé­ra­tion­nelle de l’IA en radio­lo­gie, plu­sieurs guides et réfé­ren­tiels ont été éla­bo­rés afin d’accompagner les pro­fes­sion­nels dans l’adoption de ces tech­no­lo­gies. Il appa­raît tou­te­fois néces­saire d’en éva­luer l’efficacité réelle, d’analyser la cou­ver­ture des enjeux éthiques, tech­niques et orga­ni­sa­tion­nels, et d’identifier leurs éven­tuelles lacunes.

    Dans le cadre de cette étude, un pre­mier docu­ment, le "guide pour bien se repé­rer dans l’offre com­mer­ciale d’IA appli­quée à l’imagerie médi­cale" a été rete­nu [20]. Fon­dé sur les tra­vaux des ECLAIR gui­de­lines, ce guide s’adresse aux pro­fes­sion­nels de la radio­lo­gie impli­qués dans l’évaluation et le choix des solu­tions d’IA. Sa per­ti­nence repose sur son approche pra­tique, inté­grant des dimen­sions tech­niques, orga­ni­sa­tion­nelles et régle­men­taires, ain­si que sur son adé­qua­tion avec les évo­lu­tions récentes du cadre euro­péen, notam­ment le Règle­ment euro­péen rela­tif aux dis­po­si­tifs médicaux.

    Afin de com­plé­ter cette ana­lyse opé­ra­tion­nelle, un second guide, à por­tée euro­péenne, a été étu­dié : « Gui­ding AI in Radio­lo­gy : ESR’s Recom­men­da­tions for Effec­tive Imple­men­ta­tion of the Euro­pean AI Act », publié en 2025 par la Socié­té Euro­péenne de Radio­lo­gie (SER) [21]. Ce docu­ment pro­pose des recom­man­da­tions visant à enca­drer l’intégration de l’IA dans la pra­tique radio­lo­gique à l’échelle européenne.

    Enfin, l’analyse de ces guides spé­ci­fiques à la radio­lo­gie a été mise en pers­pec­tive avec plu­sieurs réfé­ren­tiels trans­ver­saux, à savoir l'AI Act [5], les recom­man­da­tions de la CNIL rela­tives au res­pect du RGPD [22], ain­si que les tra­vaux de l’OMS sur l’éthique et la gou­ver­nance de l’IA en san­té [15]. Dans la conti­nui­té de cette approche, le guide d’implémentation de l’éthique dans les SIA en san­té [18], éla­bo­ré par la DNS en col­la­bo­ra­tion avec l’Agence du Numé­rique en San­té (ANS), et évo­qué au Cha­pitre 1, est inté­gré à l'analyse. Cette approche com­pa­ra­tive per­met d’identifier les conver­gences et les limites des dif­fé­rents réfé­ren­tiels, et de déga­ger des pistes d’amélioration pour une inté­gra­tion éthique et opé­ra­tion­nelle de l’IA en radiologie.

    2.1.2 Critères d'évaluation des référentiels retenus

    Pour éva­luer de manière sys­té­ma­tique les guides sélec­tion­nés, nous avons éla­bo­ré une grille d’analyse basée sur les prin­ci­paux enjeux éthiques iden­ti­fiés dans le domaine de l’IA en radio­lo­gie. Cette grille est pré­sen­tée sous forme de tableau syn­thé­tique, chaque ligne cor­res­pon­dant à un guide ou réfé­ren­tiel ana­ly­sé, et chaque colonne à un cri­tère d'évaluation (cf. Tableau 1).

    Tableau 1 : Grille d'analyse des référentiels sélectionnés concernant l'éthique de l'utilisation de l'intelligence artificielle en radiologie

    Les cri­tères d'évaluation rete­nus reflètent les dimen­sions essen­tielles per­met­tant une uti­li­sa­tion res­pon­sable et sécu­ri­sée de l’IA : la pro­tec­tion des don­nées, la trans­pa­rence et expli­ca­bi­li­té des algo­rithmes, la res­pon­sa­bi­li­té médi­cale, l’équité d’accès aux solu­tions d’IA, le sui­vi post-déploie­ment, ain­si que l’implication des patients dans le pro­ces­sus décisionnel.

    Pour qua­li­fier le niveau de pré­ci­sion et d’opérationnalité des recom­man­da­tions pro­po­sées dans les réfé­ren­tiels sélec­tion­nés, est appli­qué à chaque cri­tère d'évaluation un poids, ou note, s'échelonnant de 0 à 3 :

    • La note 0 cor­res­pond à une situa­tion où aucun élé­ment du réfé­ren­tiel ne per­met d'évaluer le critère.
    • La note 1 est attri­buée lorsque le cri­tère est appré­ciable de manière très géné­rale, sans appui sur des recom­man­da­tions concrètes.
    • La note 2 est attri­buée lorsque des recom­man­da­tions géné­rales ou des prin­cipes direc­teurs propres au cri­tère d'évaluation sont pré­sents, mais sans moda­li­tés pré­cises de mise en œuvre, ni outils per­met­tant une appli­ca­tion directe en pratique.
    • La note 3 est attri­buée lorsque le cri­tère est trai­té de manière com­plète et opé­ra­tion­nelle, avec des élé­ments concrets tels que des pro­cé­dures, des étapes clai­re­ment défi­nies, des rôles iden­ti­fiés, des méca­nismes de sui­vi ou des recom­man­da­tions direc­te­ment appli­cables dans la pra­tique professionnelle.

    Bien que les docu­ments ana­ly­sés relèvent de natures dif­fé­rentes, allant du texte de loi aux recom­man­da­tions ins­ti­tu­tion­nelles ain­si qu'aux guides pro­fes­sion­nels, leur ana­lyse croi­sée est per­ti­nente dans la mesure où ils par­ti­cipent tous à l’encadrement de l’IA en radio­lo­gie. L'AI Act fixe les exi­gences juri­diques de réfé­rence, tan­dis que les recom­man­da­tions ins­ti­tu­tion­nelles et les guides pro­fes­sion­nels visent à en faci­li­ter l’appropriation et la mise en œuvre concrète par les acteurs de terrain.

    Cette approche mul­ti-niveaux per­met d’évaluer la cohé­rence glo­bale du cadre éthique et régle­men­taire, d’identifier les écarts entre exi­gences for­melles et pra­tiques pro­fes­sion­nelles, et de mettre en évi­dence les domaines insuf­fi­sam­ment cou­verts par les guides existants.

    2.1.3  Résultats de l'analyse croisée des référentiels éthiques retenus

    La base docu­men­taire de ce tra­vail repose prio­ri­tai­re­ment sur le cadre régle­men­taire euro­péen appli­cable à l’IA en san­té, en par­ti­cu­lier l'AI Act, qui consti­tue le socle juri­dique de réfé­rence pour les sys­tèmes d’IA à haut risque, caté­go­rie à laquelle appar­tiennent les appli­ca­tions uti­li­sées en radio­lo­gie [5]. Ce règle­ment fixe les exi­gences fon­da­men­tales en matière de gou­ver­nance, de sécu­ri­té, de trans­pa­rence, de super­vi­sion humaine et de responsabilité.

    Ce cadre légis­la­tif est com­plé­té par des recom­man­da­tions ins­ti­tu­tion­nelles inter­na­tio­nales (OMS) et natio­nales (CNIL, DNS, ANS). Bien que ces docu­ments n’aient pas de valeur contrai­gnante équi­va­lente à celle de la loi, ils jouent un rôle essen­tiel dans l’interprétation et l’opérationnalisation des exi­gences régle­men­taires, en pro­po­sant des prin­cipes éthiques et des orien­ta­tions adap­tées aux contextes cli­niques [23, 24].

    L’analyse intègre éga­le­ment cer­tains tra­vaux por­tant sur les modèles d’IA de grande taille, en par­ti­cu­lier les modèles mul­ti­mo­daux, non pas comme un objet d’étude auto­nome, mais comme des cas illus­tra­tifs des limites actuelles des prin­cipes de trans­pa­rence, d’explicabilité et de gou­ver­nance des sys­tèmes d’IA com­plexes [25]. Ces enjeux sont direc­te­ment per­ti­nents pour la radio­lo­gie, où les solu­tions d’IA com­binent de plus en plus des don­nées d’imagerie, des infor­ma­tions cli­niques et des inter­faces tex­tuelles, sou­le­vant des pro­blé­ma­tiques simi­laires à celles iden­ti­fiées pour ces modèles avancés.

    L’analyse com­pa­ra­tive des réfé­ren­tiels rela­tifs à l’intégration de l’IA en radio­lo­gie met en évi­dence des écarts signi­fi­ca­tifs dans la manière dont les prin­cipes éthiques fon­da­men­taux sont pris en compte et tra­duits en pra­tiques opérationnelles.

    Le guide de la DNS [18] se dis­tingue par une cou­ver­ture éten­due des dimen­sions éthiques et orga­ni­sa­tion­nelles. Il aborde de manière struc­tu­rée la pro­tec­tion des don­nées, la trans­pa­rence, la res­pon­sa­bi­li­té, la super­vi­sion humaine ain­si que le sui­vi post-déploie­ment des sys­tèmes d’IA. Tou­te­fois, l’implication des patients demeure limi­tée et repose prin­ci­pa­le­ment sur une logique d’information des­cen­dante, sans méca­nismes clai­re­ment défi­nis de par­ti­ci­pa­tion active dans la concep­tion ou l’évaluation des outils d’IA [5].

    Le guide de la Socié­té Euro­péenne de Radio­lo­gie [21] pré­sente éga­le­ment un haut niveau d’exigence, notam­ment en matière de trans­pa­rence, de super­vi­sion humaine et de sui­vi post-mar­ché, en cohé­rence avec les orien­ta­tions de l’AI Act [5]. Néan­moins, la res­pon­sa­bi­li­té y est prin­ci­pa­le­ment abor­dée sous un angle juri­dique géné­ral, sans décli­nai­son opé­ra­tion­nelle pré­cise pour les pro­fes­sion­nels de ter­rain. Par ailleurs, la prise en compte du patient reste limi­tée à des actions de sen­si­bi­li­sa­tion, sans dis­po­si­tifs struc­tu­rés de retour d’expérience.

    Le guide de The­ma Radio­lo­gie [20], bien qu'accessible et utile pour aider les pro­fes­sion­nels à se repé­rer dans l’offre com­mer­ciale d’IA en ima­ge­rie médi­cale, pré­sente des limites impor­tantes sur le plan éthique. Les aspects rela­tifs à la pro­tec­tion des don­nées, à la res­pon­sa­bi­li­té et au sui­vi post-déploie­ment y sont trai­tés de manière super­fi­cielle, tan­dis que l’implication des patients est absente. Ce guide consti­tue davan­tage un outil d’aide à la déci­sion com­mer­ciale qu’un réfé­ren­tiel per­met­tant d’évaluer la confor­mi­té éthique ou la fia­bi­li­té cli­nique des solu­tions proposées.

    L’analyse croi­sée des réfé­ren­tiels sec­to­riels avec les cadres régle­men­taires et ins­ti­tu­tion­nels met en lumière plu­sieurs limites trans­ver­sales. Les recom­man­da­tions de la CNIL sou­lignent notam­ment les dif­fi­cul­tés d’application effec­tive de cer­tains droits du RGPD, tels que l’accès, la rec­ti­fi­ca­tion ou l’effacement des don­nées, dans le cas de modèles d’IA dits "mémo­ri­sants", pour les­quels les don­nées d’entraînement ne sont pas tou­jours aisé­ment iso­lables [22]. Tan­dis que l’AI Act for­mule des exi­gences géné­rales appli­cables aux sys­tèmes d’IA à haut risque afin de cou­vrir une grande diver­si­té de cas d’usage, ce qui peut rendre leur mise en œuvre opé­ra­tion­nelle pro­gres­sive et par­fois com­plexe dans les contextes cli­niques réels [5].

    La trans­pa­rence, bien que cen­trale dans l’ensemble des réfé­ren­tiels ana­ly­sés, consti­tue éga­le­ment un point de fra­gi­li­té. Les recom­man­da­tions de la CNIL indiquent que l’information déli­vrée aux per­sonnes concer­nées peut res­ter rela­ti­ve­ment géné­rique lorsque les trai­te­ments reposent sur des modèles com­plexes dif­fi­ciles à expli­quer de manière acces­sible [22]. De même, l’OMS met en évi­dence la dif­fi­cul­té d’expliquer des sys­tèmes d’IA avan­cés, notam­ment les modèles mul­ti­mo­daux, à des publics non experts, mal­gré les exi­gences de trans­pa­rence affi­chées [25].

    Enfin, les enjeux liés aux biais algo­rith­miques, à la repré­sen­ta­ti­vi­té des don­nées et à la robus­tesse des modèles sont lar­ge­ment recon­nus par les dif­fé­rents réfé­ren­tiels ana­ly­sés. Les guides ins­ti­tu­tion­nels insistent sur la néces­si­té de dis­po­ser de don­nées de qua­li­té et de méca­nismes d’évaluation des per­for­mances [5, 15, 18, 22, 25]. Tou­te­fois, ces prin­cipes res­tent sou­vent for­mu­lés à un niveau géné­ral et ne sont pas sys­té­ma­ti­que­ment décli­nés en exi­gences opé­ra­tion­nelles adap­tées aux contextes cli­niques spé­ci­fiques, selon les moda­li­tés d’imagerie, les popu­la­tions de patients ou les condi­tions d’acquisition des images.

    Dans l’ensemble, cette ana­lyse met en évi­dence que, mal­gré leurs apports res­pec­tifs, les guides et cadres exis­tants pré­sentent encore des failles impor­tantes en matière d’opérationnalisation des prin­cipes éthiques, d’implication des patients et de sui­vi réel après le déploie­ment des sys­tèmes d’IA. Ces limites jus­ti­fient la néces­si­té de dépas­ser une approche exclu­si­ve­ment docu­men­taire pour s’appuyer sur une démarche empi­rique de ter­rain, per­met­tant de confron­ter les réfé­ren­tiels théo­riques aux réa­li­tés pro­fes­sion­nelles et d’élaborer des recom­man­da­tions éthiques plus ancrées, opé­ra­tion­nelles et adap­tées au contexte cli­nique de la radiologie.

    2.2. Étude de terrain

    2.2.1 Objectifs de l’étude

    L’analyse des guides ins­ti­tu­tion­nels et pro­fes­sion­nels rela­tifs à l’intégration éthique de l’IA en radio­lo­gie, fon­dée sur le cadre régle­men­taire euro­péen et les recom­man­da­tions natio­nales et inter­na­tio­nales, a per­mis d’identifier les prin­ci­paux prin­cipes enca­drant l’usage de l’IA. Tou­te­fois, cette approche demeure essen­tiel­le­ment nor­ma­tive et ne per­met pas, à elle seule, d’évaluer leur appli­ca­tion réelle dans la pra­tique clinique.

    Afin de com­plé­ter cette ana­lyse docu­men­taire et de répondre aux remarques for­mu­lées, il est appa­ru néces­saire de conduire une enquête de ter­rain, visant à confron­ter les exi­gences régle­men­taires et éthiques aux usages effec­tifs et aux per­cep­tions des acteurs concer­nés. La sec­tion sui­vante pré­sente ain­si la métho­do­lo­gie de l’étude ter­rain mise en œuvre, repo­sant sur des ques­tion­naires et des entre­tiens semi-directifs. 

    2.2.2 Méthodologie de l’étude

    Afin d’atteindre ces objec­tifs, une approche métho­do­lo­gique mixte a été adop­tée, com­bi­nant des outils quan­ti­ta­tifs et qua­li­ta­tifs. Cette approche per­met de croi­ser les don­nées issues de dif­fé­rents pro­fils d’acteurs et d’enrichir l’analyse.

    L’étude repose sur deux dis­po­si­tifs complémentaires :

    • Des ques­tion­naires des­ti­nés à recueillir des don­nées auprès des radio­logues d'une part, et des patients d'autre part.
    • Des entre­tiens semi-direc­tifs, menés auprès d’ingénieurs bio­mé­di­caux et d’ingénieurs d’application impli­qués dans l’intégration des solu­tions d’IA en radiologie.

    2.2.3 Questionnaires d’analyse des pratiques des radiologues et du ressenti des patients

    Deux ques­tion­naires ont été spé­ci­fi­que­ment conçus afin d’évaluer la matu­ri­té éthique de l’intégration de l’IA en radio­lo­gie, en cohé­rence avec les prin­cipes iden­ti­fiés lors de l’analyse des guides existants.

    Le pre­mier ques­tion­naire s’adresse aux radio­logues et vise à ana­ly­ser leurs usages réels de l’IA, leur com­pré­hen­sion du fonc­tion­ne­ment des outils, leur per­cep­tion des risques et des biais, ain­si que leur niveau de super­vi­sion humaine. Il per­met­tait éga­le­ment d’explorer leur per­cep­tion de la res­pon­sa­bi­li­té asso­ciée aux déci­sions assis­tées par IA et leurs attentes en matière d’explicabilité, de cer­ti­fi­ca­tion et de for­ma­tion. Ces dimen­sions ren­voient direc­te­ment aux grands prin­cipes éthiques iden­ti­fiés dans la lit­té­ra­ture et les réfé­ren­tiels exis­tants, notam­ment la trans­pa­rence, le contrôle humain, la fia­bi­li­té, la non-mal­fai­sance et la responsabilité.

    Le second ques­tion­naire est des­ti­né aux patients, dans une démarche com­plé­men­taire visant à inté­grer la pers­pec­tive des per­sonnes direc­te­ment concer­nées par l’usage cli­nique de ces tech­no­lo­gies. Il por­tait sur leur niveau d’information concer­nant l’IA, leur confiance envers les dis­po­si­tifs auto­ma­ti­sés, leur per­cep­tion du res­pect de leurs droits (consen­te­ment, pro­tec­tion des don­nées, trans­pa­rence) ain­si que l’impact poten­tiel de l’IA sur la rela­tion de soins. Ces élé­ments s’inscrivent dans les prin­cipes fon­da­men­taux de l’éthique bio­mé­di­cale, en par­ti­cu­lier l’autonomie, la pro­tec­tion des don­nées per­son­nelles, la bien­fai­sance et l’équité.

    Au total, 80 réponses ont été recueillies pour les deux ques­tion­naires, consti­tuant ain­si une base de don­nées suf­fi­sam­ment repré­sen­ta­tive pour ana­ly­ser les per­cep­tions et pré­oc­cu­pa­tions éthiques du ter­rain. Les ques­tion­naires étaient struc­tu­rés en sec­tions cor­res­pon­dant aux prin­ci­paux prin­cipes éthiques enca­drant l’IA en san­té, ce qui faci­lite leur inter­pré­ta­tion en lien avec les cadres nor­ma­tifs en vigueur et per­met une lec­ture cohé­rente des enjeux sou­le­vés par les dif­fé­rents acteurs.

    2.2.4 Entretiens semi-directifs

    Bien que les ques­tion­naires per­mettent de recueillir des don­nées sur les usages, les per­cep­tions et les attentes des acteurs inter­ro­gés, ils pré­sentent cer­taines limites. En par­ti­cu­lier, ce for­mat ne per­met pas d’explorer en pro­fon­deur les logiques sous-jacentes aux réponses, ni de com­prendre fine­ment les contraintes orga­ni­sa­tion­nelles, tech­niques et régle­men­taires ren­con­trées lors de l’intégration concrète des outils d’IA.

    Les ques­tion­naires ne per­mettent pas non plus de sai­sir la com­plexi­té des arbi­trages réa­li­sés par les pro­fes­sion­nels dans leur pra­tique quo­ti­dienne, notam­ment en matière de super­vi­sion humaine, de ges­tion des res­pon­sa­bi­li­tés ou de sui­vi post-déploie­ment des solu­tions d’IA. C’est pour­quoi des entre­tiens semi-direc­tifs ont été menés afin d’approfondir ces dimen­sions, en don­nant aux par­ti­ci­pants la pos­si­bi­li­té de contex­tua­li­ser leurs réponses, d’illustrer leurs pra­tiques par des exemples concrets et d’exprimer des dif­fi­cul­tés ou des besoins qui ne peuvent émer­ger à tra­vers des ques­tions fermées.

    Ces entre­tiens ont per­mis d’aborder plu­sieurs dimen­sions essentielles :

    • la manière dont les entre­prises conçoivent et intègrent les prin­cipes éthiques dans leurs outils ;
    • la per­cep­tion par ces entre­prises des pré­oc­cu­pa­tions expri­mées par les radio­logues, notam­ment en matière de trans­pa­rence, de super­vi­sion, de biais et de responsabilité ;
    • la prise en compte actuelle des exi­gences régle­men­taires, en par­ti­cu­lier celles de l'AI Act et des recom­man­da­tions nationales ;
    • les pistes de solu­tions envi­sa­geables pour ren­for­cer l’usage res­pon­sable de l’IA.

    Les infor­ma­tions recueillies en entre­tien ont éga­le­ment per­mis de confron­ter les don­nées issues des ques­tion­naires (radio­logues et patients), notam­ment en matière d'attente des usa­gers, avec la réa­li­té indus­trielle afin d’évaluer dans quelle mesure les fabri­cants peuvent y répondre, que ce soit en termes d’explicabilité, d’indicateurs de confiance, de tra­ça­bi­li­té des déci­sions IA, de pro­to­coles de super­vi­sion humaine ou encore de for­ma­tion des uti­li­sa­teurs. Ain­si, ces entre­tiens contri­buent à appré­cier la fai­sa­bi­li­té éthique des recom­man­da­tions, en met­tant en regard les besoins expri­més sur le ter­rain et les contraintes tech­niques, orga­ni­sa­tion­nelles et régle­men­taires propres aux indus­triels du secteur.

    2.2.5 Analyse des réponses fournies par les radiologues

    Nous avons recueilli 17 réponses de radio­logues, consti­tuant l’échantillon ana­ly­sé dans cette par­tie. Des extraits de ces retours sont dis­po­nibles en Annexe 1. Les résul­tats mettent en évi­dence à la fois une inté­gra­tion crois­sante de l’IA dans la pra­tique quo­ti­dienne et plu­sieurs fra­gi­li­tés en termes de trans­pa­rence, de for­ma­tion et de gouvernance.

    2.2.5.1 Adoption et usages de l’IA en radiologie

    Les résul­tats montrent que l’IA est déjà lar­ge­ment inté­grée dans la pra­tique radio­lo­gique. En effet, 57,1 % des radio­logues répon­dants déclarent uti­li­ser des outils inté­grant expli­ci­te­ment l’IA, tan­dis que 42,9 % estiment ne pas en uti­li­ser. Cette per­cep­tion doit tou­te­fois être nuan­cée, puisque 66,7 % des radio­logues se décla­rant non-uti­li­sa­teurs dis­posent en réa­li­té d’équipements pro­po­sant des réglages auto­ma­tiques repo­sant sur des algo­rithmes d’IA.

    Cette situa­tion met en évi­dence une uti­li­sa­tion par­fois incons­ciente de l’IA, liée à l’intégration pro­gres­sive de fonc­tion­na­li­tés auto­ma­ti­sées direc­te­ment au sein des équi­pe­ments d’imagerie (IRM, scan­ner, radio­gra­phie). Elle sou­lève un pre­mier enjeu éthique majeur : le manque de trans­pa­rence quant à la pré­sence et au rôle de l’IA dans les outils uti­li­sés, ce qui peut limi­ter la com­pré­hen­sion des sys­tèmes et fra­gi­li­ser la super­vi­sion humaine.

    2.2.5.2 Influence de l’IA sur l’image et la décision médicale

    Au-delà de son adop­tion, l’impact de l’IA sur le conte­nu des images et la prise de déci­sion appa­raît signi­fi­ca­tif. Ain­si, 50 % des radio­logues répon­dants déclarent avoir déjà obser­vé qu’un trai­te­ment auto­ma­tique pou­vait modi­fier for­te­ment une image ou mas­quer cer­tains détails, tan­dis que 33,3 % indiquent que cela se pro­duit parfois.

    Par ailleurs, l’IA influence direc­te­ment l’interprétation diag­nos­tique : 60 % des radio­logues estiment que les outils d’IA influencent par­fois leur inter­pré­ta­tion, et 16,7 % déclarent qu’ils l’influencent tou­jours. Ces résul­tats montrent que l’IA ne se limite pas à un rôle d’assistance tech­nique, mais qu’elle inter­vient de manière tan­gible dans le pro­ces­sus déci­sion­nel médical.

    Cette influence ren­force la néces­si­té d’un cadre rigou­reux de super­vi­sion humaine, confor­mé­ment aux recom­man­da­tions éthiques et régle­men­taires qui classent les sys­tèmes d’IA uti­li­sés en radio­lo­gie par­mi les dis­po­si­tifs à haut risque.

    2.2.5.3 Supervision humaine et responsabilité

    La majo­ri­té des radio­logues déclarent exer­cer une super­vi­sion sur les résul­tats pro­duits par l’IA : 85,7 % indiquent véri­fier sys­té­ma­ti­que­ment les résul­tats, tan­dis que 14,3 % déclarent ne pro­cé­der qu’à une véri­fi­ca­tion par­tielle. Cette véri­fi­ca­tion par­tielle cor­res­pond géné­ra­le­ment à une relec­ture non sys­té­ma­tique des résul­tats géné­rés par l’IA, limi­tée à cer­tains cas jugés com­plexes, aty­piques ou à risque, sans contrôle exhaus­tif de l’ensemble des exa­mens. Bien que cette vigi­lance soit glo­ba­le­ment pré­sente, l’absence de véri­fi­ca­tion sys­té­ma­tique chez cer­tains pro­fes­sion­nels consti­tue un point de fra­gi­li­té éthique, au regard des exi­gences de contrôle humain impo­sées par l’AI Act.

    En cas d’erreur liée à l’utilisation d’un outil d’IA, la res­pon­sa­bi­li­té est per­çue comme repo­sant prin­ci­pa­le­ment sur le radio­logue : 66,7 % des répon­dants estiment être les prin­ci­paux res­pon­sables, contre 16,7 % pour la struc­ture médi­cale et 16,7 % pour une res­pon­sa­bi­li­té par­ta­gée. Cette per­cep­tion sou­lève une dif­fi­cul­té majeure dans un contexte où les pro­fes­sion­nels dis­posent d’un accès limi­té aux infor­ma­tions sur le fonc­tion­ne­ment et les limites des outils d’IA qu’ils utilisent.

    2.2.5.4 Transparence, formation et dialogue

    Le manque de trans­pa­rence appa­raît comme l’un des constats les plus mar­quants de l’enquête. En effet, 87,5 % des radio­logues estiment que le fonc­tion­ne­ment des outils d’IA n’est pas clai­re­ment expli­qué, et 83,3 % expriment le besoin que les fabri­cants four­nissent davan­tage d’informations sur les prin­cipes, les limites et les risques asso­ciés aux systèmes.

    Paral­lè­le­ment, l’enquête met en évi­dence une insuf­fi­sance notable de for­ma­tion : 57,1 % des radio­logues déclarent ne pas avoir reçu de for­ma­tion spé­ci­fique à l’IA, tan­dis que 28,6 % n’ont béné­fi­cié que d’une for­ma­tion par­tielle. Cette situa­tion accen­tue le déca­lage entre l’usage crois­sant des outils d’IA et la capa­ci­té des pro­fes­sion­nels à en assu­rer une super­vi­sion éclairée.

    Enfin, 57,1 % des répon­dants jugent insuf­fi­sant le dia­logue entre les déve­lop­peurs d’IA, les auto­ri­tés et les pro­fes­sion­nels de san­té, sou­li­gnant l’absence d’un cadre struc­tu­ré de concer­ta­tion et de retour d’expérience, pour­tant essen­tiel pour une inté­gra­tion éthique et sécu­ri­sée de l’IA en radiologie.

    2.2.6  Analyse des réponses fournies par les patients

    Nous avons recueilli 63 réponses de patients, consti­tuant l’échantillon ana­ly­sé dans cette par­tie. Des extraits de ces retours sont dis­po­nibles en Annexe 2. Les résul­tats obte­nus contri­buent à éva­luer leur niveau d’information, leur confiance, leur accep­ta­bi­li­té de ces tech­no­lo­gies ain­si que leurs attentes.

    2.2.6.1 Profil et expérience des patients répondants

    Les résul­tats montrent que la popu­la­tion répon­dante est majo­ri­tai­re­ment jeune, avec 66,6 % des répon­dants âgés de moins de 25 ans. Cette répar­ti­tion ne reflète guère la popu­la­tion géné­rale des patients en ima­ge­rie médi­cale, mais cor­res­pond à la popu­la­tion répon­dante de l’enquête.

    Tou­te­fois, 56,3 % des patients répon­dants déclarent avoir déjà pas­sé plu­sieurs exa­mens d’imagerie médi­cale, ce qui indique une expé­rience concrète du par­cours de soins en radio­lo­gie. Les per­cep­tions recueillies reposent ain­si sur des situa­tions vécues, ren­for­çant la per­ti­nence des réponses obte­nues quant aux pra­tiques et à l’organisation des exa­mens d’imagerie.

    La sur­re­pré­sen­ta­tion des patients âgés de moins de 25 ans s’explique prin­ci­pa­le­ment par les moda­li­tés de dif­fu­sion du ques­tion­naire, qui a été réa­li­sé en ligne et relayé via des réseaux numé­riques. Ce mode de col­lecte favo­rise natu­rel­le­ment la par­ti­ci­pa­tion de popu­la­tions plus jeunes, géné­ra­le­ment plus fami­lières avec les outils numé­riques et plus enclines à répondre à ce type d’enquête.

    Ce dés­équi­libre consti­tue une limite métho­do­lo­gique de l’étude, dans la mesure où il peut influen­cer les résul­tats rela­tifs à l’acceptabilité et à la per­cep­tion de l’IA. Les patients plus jeunes tendent en effet à pré­sen­ter une plus grande fami­lia­ri­té avec les tech­no­lo­gies inno­vantes. Les résul­tats doivent donc être inter­pré­tés avec pru­dence et ne peuvent être consi­dé­rés comme plei­ne­ment repré­sen­ta­tifs de l’ensemble des patients en ima­ge­rie médi­cale, notam­ment des popu­la­tions plus âgées ou moins connec­tées numériquement.

    2.2.6.2  Information et transparence perçues

    En matière d’information, les résul­tats mettent en évi­dence un déca­lage entre la connais­sance géné­rale de l’IA et l’information effec­ti­ve­ment reçue par les patients. En effet, 62,5 % des répon­dants déclarent savoir que l’IA peut être uti­li­sée en ima­ge­rie médi­cale, tra­dui­sant une cer­taine sen­si­bi­li­sa­tion aux usages numé­riques en santé.

    Cepen­dant, cette connais­sance reste majo­ri­tai­re­ment théo­rique, puisque 81,3 % des patients déclarent ne pas avoir été infor­més de l’utilisation éven­tuelle de l’IA lors de leurs propres exa­mens. Ce résul­tat doit tou­te­fois être nuan­cé, dans la mesure où une par­tie des patients peut avoir été infor­mée de manière indi­recte ou impli­cite, sans iden­ti­fier clai­re­ment l’usage de l'IA comme tel, notam­ment lorsque celle-ci est inté­grée de façon trans­pa­rente aux équi­pe­ments ou aux logi­ciels d’imagerie.

    Ce constat met néan­moins en évi­dence une insuf­fi­sance de trans­pa­rence expli­cite vis-à-vis des patients, en par­ti­cu­lier concer­nant le rôle réel de l’IA dans le pro­ces­sus d’examen et d’interprétation. Cette situa­tion appa­raît en déca­lage avec les prin­cipes du consen­te­ment éclai­ré et les recom­man­da­tions éthiques et régle­men­taires actuelles, qui insistent sur la néces­si­té d’une infor­ma­tion com­pré­hen­sible et acces­sible pour les patients.

    2.2.6.3 Acceptabilité et bénéfices perçus

    Mal­gré le manque d’information expli­cite rap­por­té pré­cé­dem­ment, l’IA béné­fi­cie d’une per­cep­tion glo­ba­le­ment posi­tive auprès des patients. Ain­si, 68,8 % des répon­dants déclarent per­ce­voir l’IA de manière favo­rable, l’associant prin­ci­pa­le­ment à une amé­lio­ra­tion de la qua­li­té des soins.

    Les prin­ci­paux béné­fices atten­dus concernent :

    • une plus grande rapi­di­té dans l’obtention des résultats,
    • une amé­lio­ra­tion de la pré­ci­sion diagnostique,
    • une réduc­tion du risque d’erreur.

    Ces résul­tats tra­duisent une per­cep­tion de l’IA comme un outil de sou­tien au pro­ces­sus médi­cal, venant com­plé­ter l’action du pro­fes­sion­nel de san­té. Cette inter­pré­ta­tion repose sur les ten­dances obser­vées dans les réponses quan­ti­ta­tives et non sur des ver­ba­tims expli­cites, et doit donc être com­prise comme une lec­ture glo­bale des attentes expri­mées par les patients, plu­tôt que comme une affir­ma­tion for­mu­lée direc­te­ment par ces derniers.

    2.2.6.4 Risques et limites perçus

    Les patients expriment néan­moins des inquié­tudes signi­fi­ca­tives, prin­ci­pa­le­ment liées aux enjeux éthiques. Les risques les plus fré­quem­ment expri­més sont :

    • les erreurs liées à la machine et au logi­ciel d’analyse des images (67,2 %),
    • la perte du contact humain dans la rela­tion de soin (58,3 %),
    • les risques concer­nant la pro­tec­tion des don­nées per­son­nelles (45,3 %).

    Ces pré­oc­cu­pa­tions témoignent d’une conscience claire des limites poten­tielles de l’IA et rejoignent les débats éthiques actuels autour de la sécu­ri­té, de la confi­den­tia­li­té et de la place de l’humain dans les soins.

    2.3.6.5  Confiance, responsabilité et consentement

    La confiance accor­dée à l’IA dépend for­te­ment de la pré­sence d’un pro­fes­sion­nel de san­té. Une large majo­ri­té des patients (82,8 %) exprime une faible ou inexis­tante confiance envers un diag­nos­tic repo­sant uni­que­ment sur l’IA. À l’inverse, 78,7 % déclarent avoir davan­tage confiance dans une déci­sion conjointe asso­ciant l’IA et le radio­logue, confir­mant la néces­si­té d’un modèle de col­la­bo­ra­tion homme–machine. Concer­nant le consen­te­ment, 48,9 % des patients estiment qu’un accord expli­cite devrait être deman­dé avant l’utilisation de l’IA, sou­li­gnant l’importance accor­dée au res­pect de l’autonomie et au droit à l’information

    2.2.7 Enseignements tirés des entretiens semi-directifs

    Les entre­tiens menés auprès d'ingénieurs d’application d'entreprises com­mer­cia­li­sant des solu­tions d'IA pour la radio­lo­gie ont per­mis d’apporter un éclai­rage qua­li­ta­tif com­plé­men­taire aux résul­tats issus des ques­tion­naires. Contrai­re­ment aux don­nées quan­ti­ta­tives, ces entre­tiens ne visent pas à pro­duire des indi­ca­teurs chif­frés, mais à ana­ly­ser des ten­dances récur­rentes, des per­cep­tions par­ta­gées et des situa­tions concrètes rap­por­tées par les pro­fes­sion­nels interrogés.

    Ils per­mettent ain­si d’identifier plu­sieurs freins à l’intégration de l’IA en radio­lo­gie, rele­vant prin­ci­pa­le­ment de dimen­sions orga­ni­sa­tion­nelles, pro­fes­sion­nelles et sym­bo­liques, plu­tôt que de limites tech­niques strictes.

    2.2.7.1 Réticences de certains radiologues face à l’IA pour l’aide au diagnostic

    Les ingé­nieurs d’application rap­portent que cer­tains radio­logues expriment des réti­cences vis-à-vis de l’intégration de l’IA, en par­ti­cu­lier lorsqu’elle est pré­sen­tée comme une aide au diag­nos­tic. Ces réti­cences ne sont pas sys­té­ma­ti­que­ment liées aux per­for­mances tech­niques des outils, mais davan­tage à des repré­sen­ta­tions pro­fes­sion­nelles de l’acte médical.

    Le qua­li­fi­ca­tif de frein cultu­rel ren­voie ici à la per­cep­tion du rôle du radio­logue, à son iden­ti­té pro­fes­sion­nelle et à la place qu’il occupe dans la déci­sion médi­cale. Cer­tains radio­logues asso­cient l’IA à une remise en ques­tion de leur exper­tise ou de leur légi­ti­mi­té cli­nique, ce qui peut géné­rer des résis­tances indé­pen­dam­ment de l’efficacité réelle des sys­tèmes. Ce type de frein relève donc moins de la tech­no­lo­gie elle-même que de son impact sym­bo­lique sur les pra­tiques et les res­pon­sa­bi­li­tés professionnelles.

    2.2.7.2 Formation des radiologues : une approche clinique pertinente mais incomplète

    Les ingé­nieurs indiquent que la for­ma­tion pro­po­sée aux radio­logues est majo­ri­tai­re­ment cen­trée sur l’usage cli­nique des outils d’IA, notam­ment leur rôle d’aide à l’interprétation et de second lec­teur. Cette approche favo­rise une appro­pria­tion rapide des outils dans la pra­tique quotidienne.

    Cepen­dant, les entre­tiens mettent en évi­dence une attente plus large de la part de cer­tains radio­logues, qui sou­haitent mieux com­prendre les prin­cipes géné­raux de fonc­tion­ne­ment des algo­rithmes, leurs condi­tions d’entraînement, leurs limites et leurs risques. Cette demande tra­duit un besoin de maî­trise suf­fi­sant pour pou­voir exer­cer une super­vi­sion humaine éclai­rée, condi­tion essen­tielle à un usage éthique et res­pon­sable de l’IA.

    2.2.7.3 Place de l’IA dans la décision médicale : une position consensuelle

    Les entre­tiens révèlent un consen­sus clair concer­nant la place de l’IA dans la déci­sion médi­cale. L’IA est per­çue comme un outil d’assistance, des­ti­né à sou­te­nir le radio­logue dans son ana­lyse, sans jamais se sub­sti­tuer à son juge­ment clinique.

    Cette posi­tion syn­thé­tise les élé­ments évo­qués pré­cé­dem­ment : le radio­logue demeure l’acteur cen­tral de l’interprétation et de la vali­da­tion finale du diag­nos­tic, confor­mé­ment aux prin­cipes de super­vi­sion humaine et de res­pon­sa­bi­li­té médi­cale. L’IA est ain­si inté­grée comme un appui tech­nique, et non comme un déci­deur autonome.

    2.2.7.4 Responsabilité médicale et vérification des résultats

    Les ingé­nieurs d'application inter­ro­gés rap­pellent que la res­pon­sa­bi­li­té médi­cale incombe tou­jours au radio­logue, l’IA étant consi­dé­rée juri­di­que­ment comme un outil d’aide à la déci­sion. Cette res­pon­sa­bi­li­té implique une véri­fi­ca­tion sys­té­ma­tique des résul­tats pro­duits par les algo­rithmes, afin de limi­ter les risques d’erreur, de faux posi­tifs ou de faux négatifs.

    Les entre­tiens sou­lignent éga­le­ment le risque d’une confiance exces­sive accor­dée aux outils auto­ma­ti­sés. L’usage éthique de l’IA repose donc sur un équi­libre entre assis­tance tech­no­lo­gique et main­tien d’un regard cri­tique du professionnel.

    2.2.7.5 Information des patients et relation de confiance

    Concer­nant l’information des patients, les ingé­nieurs d'application inter­ro­gés rap­portent des pra­tiques hété­ro­gènes. Cer­taines ini­tia­tives locales existent, telles que l’affichage de sup­ports expli­ca­tifs ou des échanges ponc­tuels avec les patients, mais elles res­tent non systématisées.

    Les réti­cences à infor­mer expli­ci­te­ment les patients reposent prin­ci­pa­le­ment sur la crainte que l’IA soit mal com­prise, génère de l’anxiété ou altère la rela­tion de confiance. Cette pru­dence révèle une ten­sion entre le prin­cipe de trans­pa­rence et la volon­té de pré­ser­ver une rela­tion de soin apaisée.

    Tou­te­fois, cette approche peut être ques­tion­née. L’absence ou l’insuffisance d’information risque, à terme, d’affaiblir la confiance des patients si l’usage de l’IA est décou­vert a pos­te­rio­ri. Les entre­tiens sug­gèrent ain­si que la rela­tion de confiance ne dépend pas tant de la pré­sence de l’IA que de la qua­li­té de l’explication four­nie, de sa clar­té et de son adap­ta­tion au niveau de com­pré­hen­sion du patient. Une infor­ma­tion pro­gres­sive et contex­tua­li­sée appa­raît comme une condi­tion essen­tielle pour conci­lier trans­pa­rence, accep­ta­bi­li­té et confiance.

    2.2.8 Analyse croisée des données issues des questionnaires et des entretiens semi-directifs

    L’analyse croi­sée des ques­tion­naires adres­sés aux radio­logues et aux patients, com­plé­tée par les entre­tiens menés auprès des ingé­nieurs d’application, per­met de confron­ter trois points de vue com­plé­men­taires sur l’intégration de l’IA en radio­lo­gie. Cette approche met en évi­dence à la fois des conver­gences fortes dans les repré­sen­ta­tions et les attentes, ain­si que des diver­gences révé­la­trices d’enjeux éthiques persistants.

    2.2.8.1 Convergences majeures

    Une conver­gence essen­tielle concerne la place de l’IA dans la déci­sion médi­cale. Les trois caté­go­ries d’acteurs s’accordent sur le fait que l’IA ne doit pas être auto­nome, mais inté­grée comme un outil d’aide à la déci­sion. Les radio­logues reven­diquent une vali­da­tion humaine sys­té­ma­tique, les patients expriment une confiance accrue lorsque l’IA est uti­li­sée conjoin­te­ment avec le radio­logue, et les ingé­nieurs d'application conçoivent l’IA comme un second lec­teur. Ce consen­sus tra­duit l’importance accor­dée au prin­cipe de super­vi­sion humaine.

    Un second point de conver­gence porte sur le besoin de trans­pa­rence. Radio­logues et patients sou­lignent un manque d’information et d’explicabilité des outils d’IA, tan­dis que les ingé­nieurs d'application recon­naissent les dif­fi­cul­tés tech­niques et péda­go­giques asso­ciées à ces enjeux. Cette conver­gence met en évi­dence une attente par­ta­gée de com­pré­hen­sion du rôle, des limites et de l’impact de l’IA dans le par­cours de soins.

    Enfin, la sécu­ri­té et la fia­bi­li­té des sys­tèmes d’IA consti­tuent une pré­oc­cu­pa­tion trans­ver­sale. Les risques d’erreurs, de biais et d’atteinte aux don­nées per­son­nelles sont iden­ti­fiés par l’ensemble des acteurs, confir­mant l’alignement glo­bal des per­cep­tions avec les prin­cipes éthiques et régle­men­taires existants.

    2.2.8.2 Divergences et angles morts

    Mal­gré ces conver­gences, plu­sieurs diver­gences appa­raissent. Du côté des radio­logues, l’analyse révèle une uti­li­sa­tion par­fois peu consciente de cer­taines fonc­tion­na­li­tés inté­grant de l’IA, liée à leur inté­gra­tion pro­gres­sive dans les équi­pe­ments d’imagerie. Cette situa­tion est confir­mée par les ingé­nieurs d'application et peut limi­ter l’exercice d’une super­vi­sion plei­ne­ment éclairée.

    Du côté des patients, l’angle mort prin­ci­pal concerne l’information. Une majo­ri­té déclare ne pas avoir été infor­mée de l’usage de l’IA lors de ses exa­mens, tan­dis que cer­tains radio­logues hésitent à com­mu­ni­quer expli­ci­te­ment sur ce sujet. Cette situa­tion crée une asy­mé­trie infor­ma­tion­nelle sus­cep­tible d’affecter la confiance et le consentement.

    La res­pon­sa­bi­li­té consti­tue éga­le­ment un point de ten­sion. Les radio­logues se sentent majo­ri­tai­re­ment res­pon­sables en cas d’erreur liée à l’IA, alors que les patients pri­vi­lé­gient une res­pon­sa­bi­li­té plus par­ta­gée. Les ingé­nieurs d'application rap­pellent que, sur le plan juri­dique, la res­pon­sa­bi­li­té finale demeure celle du radio­logue, mal­gré une maî­trise par­fois limi­tée des sys­tèmes utilisés.

    2.2.8.3 Implications éthiques

    Ces constats sou­lignent plu­sieurs impli­ca­tions éthiques majeures. Le défi­cit d’information des patients remet en ques­tion le res­pect du prin­cipe d’autonomie et du consen­te­ment éclai­ré. Par ailleurs, l’opacité par­tielle des outils d’IA place les radio­logues dans une situa­tion déli­cate, où une res­pon­sa­bi­li­té éle­vée coexiste avec une capa­ci­té de maî­trise limi­tée, en ten­sion avec le prin­cipe de res­pon­sa­bi­li­té proportionnée.

    Enfin, l’analyse met en évi­dence l’importance d’un dia­logue ren­for­cé entre les dif­fé­rents acteurs pro­fes­sion­nels de san­té, indus­triels, ins­ti­tu­tions et patients  comme condi­tion essen­tielle à une inté­gra­tion éthique, trans­pa­rente et durable de l’IA en radiologie.

    Chapitre 3 - Recommandations pour une intégration éthique de l’intelligence artificielle en radiologie

    À l’issue de l’analyse des cadres régle­men­taires et éthiques exis­tants, de l’identification de leurs limites et de leur confron­ta­tion aux résul­tats de l’étude de ter­rain, un ensemble de recom­man­da­tions opé­ra­tion­nelles a été éla­bo­ré. Ce tra­vail consti­tue un livrable cen­tral du pro­jet, visant à accom­pa­gner les dif­fé­rents acteurs de la radio­lo­gie dans une inté­gra­tion concrète, res­pon­sable et éthi­que­ment enca­drée de l’IA.

    Les recom­man­da­tions pro­po­sées ont pour objec­tif de tra­duire les prin­cipes géné­raux por­tés par les réfé­ren­tiels ins­ti­tu­tion­nels et régle­men­taires en actions appli­cables au quo­ti­dien, en tenant compte des réa­li­tés et des contraintes du ter­rain. Elles reposent sur une approche prag­ma­tique, fon­dée à la fois sur les exi­gences nor­ma­tives et sur les retours d’expérience des pro­fes­sion­nels, des patients et des acteurs indus­triels interrogés.

    Plu­sieurs volets com­plé­men­taires, iden­ti­fiés comme prio­ri­taires tant par les textes de réfé­rence que par l’enquête de ter­rain, struc­turent ces recom­man­da­tions. Ils concernent notam­ment la trans­pa­rence et l’information des patients, la cla­ri­fi­ca­tion du rôle de l’IA et des res­pon­sa­bi­li­tés asso­ciées, la for­ma­tion et la mon­tée en com­pé­tences des pro­fes­sion­nels, la super­vi­sion humaine et la tra­ça­bi­li­té des usages, ain­si que la gou­ver­nance et le sui­vi post-déploie­ment des outils d’IA.

    L’objectif de cette démarche n’est pas de pro­po­ser un cadre sup­plé­men­taire, mais de faci­li­ter l’appropriation des exi­gences exis­tantes en les adap­tant aux pra­tiques réelles de la radio­lo­gie. Ces recom­man­da­tions s’inscrivent ain­si dans une logique de construc­tion entre pro­fes­sion­nels de san­té, indus­triels, ins­ti­tu­tions et patients, afin de ren­for­cer la confiance, la sécu­ri­té et l’acceptabilité de l’IA en radiologie.

    3.1. Recommandations à destination des radiologues

    Uti­li­ser l’IA exclu­si­ve­ment comme outil d’aide au diag­nos­tic, avec vali­da­tion humaine sys­té­ma­tique : l’enquête montre que l’IA influence déjà l’interprétation diag­nos­tique. Il est donc essen­tiel de rap­pe­ler que l’IA ne doit jamais être uti­li­sée comme un déci­deur auto­nome. La vali­da­tion humaine sys­té­ma­tique garan­tit la sécu­ri­té des soins et s’inscrit plei­ne­ment dans les exi­gences éthiques et régle­men­taires appli­cables aux sys­tèmes d’IA à haut risque.

    Véri­fier de manière cri­tique les résul­tats géné­rés par l’IA : les outils d’IA peuvent pro­duire des erreurs, des faux posi­tifs ou des faux néga­tifs. Une véri­fi­ca­tion cri­tique per­met de limi­ter le risque d’automatisation exces­sive et de main­te­nir un regard cli­nique actif. Cette vigi­lance est d’autant plus néces­saire que le fonc­tion­ne­ment interne des algo­rithmes reste sou­vent par­tiel­le­ment opaque.

    Infor­mer les patients lorsque cela est per­ti­nent : les résul­tats montrent un défi­cit impor­tant d’information des patients. Une infor­ma­tion claire, adap­tée au niveau de com­pré­hen­sion du patient, contri­bue à ren­for­cer la confiance et le res­pect de l’autonomie, sans néces­sai­re­ment géné­rer d’anxiété lorsqu’elle est bien expliquée.

    Par­ti­ci­per acti­ve­ment aux for­ma­tions liées à l’IA : le manque de for­ma­tion iden­ti­fié consti­tue un frein majeur à une super­vi­sion éclai­rée. Les radio­logues doivent pou­voir com­prendre non seule­ment l’usage cli­nique des outils, mais aus­si leurs limites, leurs biais poten­tiels et les enjeux éthiques associés.

    Contri­buer aux retours d’expérience et à l’amélioration conti­nue : le signa­le­ment des erreurs, des limites ou des situa­tions à risque per­met d’améliorer la qua­li­té et la sécu­ri­té des outils. Cette démarche col­lec­tive est essen­tielle pour faire évo­luer les sys­tèmes d’IA de manière responsable.

    3.2. Recommandations à destination des professionnels en établissements de santé

    Mettre en place une gou­ver­nance locale dédiée à l’IA : une gou­ver­nance struc­tu­rée per­met de défi­nir des res­pon­sa­bi­li­tés claires, d’encadrer les usages et d’assurer la confor­mi­té régle­men­taire. Elle favo­rise éga­le­ment la coor­di­na­tion entre pro­fes­sion­nels de san­té, ingé­nieurs et res­pon­sables qualité.

    Défi­nir des règles claires d’usage, de super­vi­sion et de tra­ça­bi­li­té : des règles for­ma­li­sées per­mettent d’éviter des usages non maî­tri­sés de l’IA et de garan­tir une super­vi­sion humaine effec­tive. La tra­ça­bi­li­té est essen­tielle en cas d’incident ou de ques­tion médico-légale.

    Garan­tir la confor­mi­té régle­men­taire et la pro­tec­tion des don­nées
    Les éta­blis­se­ments ont la res­pon­sa­bi­li­té de s’assurer que les outils uti­li­sés res­pectent les exi­gences régle­men­taires, notam­ment en matière de pro­tec­tion des don­nées per­son­nelles et de sécu­ri­té des systèmes.

    Orga­ni­ser le sui­vi post-déploie­ment et le trai­te­ment des inci­dents : l’IA ne peut être consi­dé­rée comme fiable de manière défi­ni­tive. Un sui­vi conti­nu per­met d’identifier les dérives, les erreurs et les évo­lu­tions néces­saires des outils après leur mise en service.

    Sou­te­nir la for­ma­tion et l’accompagnement des pro­fes­sion­nels : un accom­pa­gne­ment ins­ti­tu­tion­nel ren­force l’appropriation des outils et réduit les risques liés à une uti­li­sa­tion inadap­tée ou mal comprise.

    3.3. Recommandations à destination des éditeurs de solutions logicielles exploitant l'intelligence artificielle

    Four­nir des outils conformes aux exi­gences régle­men­taires : les indus­triels doivent inté­grer dès la concep­tion les exi­gences régle­men­taires appli­cables aux logi­ciels DM à haut risque, afin de garan­tir la sécu­ri­té et la fia­bi­li­té des solu­tions proposées.

    Docu­men­ter clai­re­ment les per­for­mances, limites et condi­tions d’utilisation : une docu­men­ta­tion claire per­met aux radio­logues de com­prendre dans quels contextes l’outil est per­ti­nent, mais aus­si dans quelles situa­tions ses per­for­mances peuvent être dégradées.

    Assu­rer une expli­ca­bi­li­té com­pré­hen­sible pour les radio­logues : l’explicabilité ne doit pas être uni­que­ment tech­nique. Elle doit être adap­tée aux besoins des radio­logues, afin de leur per­mettre d’interpréter les résul­tats de l’IA et d’exercer une super­vi­sion effective.

    Inté­grer la super­vi­sion humaine dès la concep­tion : la super­vi­sion humaine ne doit pas être ajou­tée a pos­te­rio­ri. Elle doit être pen­sée comme un élé­ment cen­tral du fonc­tion­ne­ment des outils d’IA.

    Par­ti­ci­per à un dia­logue conti­nu avec les uti­li­sa­teurs et les ins­ti­tu­tions : un échange régu­lier per­met d’adapter les outils aux besoins réels du ter­rain et d’anticiper les enjeux éthiques et organisationnels.

    3.4. Recommandations à destination des institutions et autorités

    Cla­ri­fier les cadres régle­men­taires et leurs moda­li­tés d’application : les acteurs de ter­rain expriment un besoin de lisi­bi­li­té des textes régle­men­taires. Une cla­ri­fi­ca­tion faci­lite leur appro­pria­tion et leur mise en œuvre concrète.

    Favo­ri­ser la coor­di­na­tion entre les acteurs du sys­tème de san­té : une coor­di­na­tion ren­for­cée per­met d’éviter les inco­hé­rences entre exi­gences régle­men­taires, pra­tiques pro­fes­sion­nelles et solu­tions industrielles.

    Encou­ra­ger la for­ma­tion et l’acculturation à l’IA en san­té : la for­ma­tion consti­tue un levier essen­tiel pour une inté­gra­tion éthique et sécu­ri­sée de l’IA.

    Suivre et éva­luer les usages réels des outils d’IA : l’évaluation conti­nue des usages per­met d’identifier les dérives poten­tielles et d’adapter les cadres existants.

    Garan­tir la pro­tec­tion des droits des patients : les auto­ri­tés doivent veiller au res­pect effec­tif des droits des patients, notam­ment en matière d’information, de consen­te­ment et de pro­tec­tion des données.

    3.5. Recommandations à destination des patients et usagers

    Être infor­més de manière claire et acces­sible : une infor­ma­tion com­pré­hen­sible per­met aux patients de mieux accep­ter l’usage de l’IA et de ren­for­cer leur confiance dans le sys­tème de soins.

    Conser­ver un rôle actif dans la rela­tion de soin : l’IA ne doit pas affai­blir la rela­tion médecin/patient, mais la sou­te­nir. Le patient doit res­ter un acteur des déci­sions qui le concernent.

    Être asso­ciés aux démarches d’acceptabilité et d’amélioration des pra­tiques : l’implication des patients per­met d’adapter les usages de l’IA à leurs attentes et à leurs pré­oc­cu­pa­tions éthiques.

    3.6. Proposition d’un outil pratique pour une intégration éthique opérationnelle de l’IA en radiologie

    Afin de faci­li­ter leur appro­pria­tion, ces recom­man­da­tions ont été syn­thé­ti­sées et regrou­pées au sein d’un livret dédié, conçu comme un outil pra­tique et acces­sible. Ce livret consti­tue un réca­pi­tu­la­tif struc­tu­ré des prin­ci­paux ensei­gne­ments du tra­vail et vise à accom­pa­gner les acteurs de la radio­lo­gie dans la mise en œuvre opé­ra­tion­nelle des exi­gences éthiques et régle­men­taires liées à l’IA.

    Il ne s’agit pas d’un cadre sup­plé­men­taire, mais d’un sup­port d’aide à la déci­sion et à la pra­tique, favo­ri­sant une com­pré­hen­sion par­ta­gée des res­pon­sa­bi­li­tés, des bonnes pra­tiques et des condi­tions néces­saires à une uti­li­sa­tion res­pon­sable de l’IA en radiologie.

    Le livret de recom­man­da­tions est dis­po­nible depuis la sec­tion "Télé­char­ge­ments" du som­maire, acces­sible en haut de la pré­sente page.

    Conclusion

    L’IA consti­tue une avan­cée majeure pour la radio­lo­gie, en contri­buant à l’amélioration de la qua­li­té et de l’efficacité du diag­nos­tic. Tou­te­fois, son inté­gra­tion ne peut être envi­sa­gée uni­que­ment sous l’angle de la per­for­mance tech­no­lo­gique. Elle sou­lève des enjeux éthiques et régle­men­taires étroi­te­ment liés, recon­nus au niveau inter­na­tio­nal [15].

    L’état de l’art a mon­tré que les prin­cipes éthiques fon­da­men­taux (super­vi­sion humaine, trans­pa­rence, res­pon­sa­bi­li­té et pro­tec­tion des droits des patients) sont aujourd’hui inté­grés aux cadres régle­men­taires exis­tants, en par­ti­cu­lier au niveau euro­péen. L’analyse s’est prin­ci­pa­le­ment appuyée sur l'AI Act, com­plé­té par des guides ins­ti­tu­tion­nels et pro­fes­sion­nels à por­tée natio­nale et inter­na­tio­nale, confir­mant que les sys­tèmes d’IA uti­li­sés en radio­lo­gie relèvent de la caté­go­rie des sys­tèmes à haut risque et néces­sitent des garan­ties ren­for­cées [5,18].

    La confron­ta­tion de ces cadres avec les résul­tats de l’étude de ter­rain met en évi­dence une accep­ta­bi­li­té glo­bale de l’IA, tant chez les radio­logues que chez les patients, à condi­tion de main­te­nir une super­vi­sion humaine sys­té­ma­tique et de consi­dé­rer l’IA comme un outil d’aide au diag­nos­tic, sous vali­da­tion du radio­logue, confor­mé­ment aux recom­man­da­tions de la Socié­té Euro­péenne de Radio­lo­gie [21]. Néan­moins, des écarts per­sistent entre les prin­cipes for­ma­li­sés et leur appli­ca­tion concrète, notam­ment en matière d’information des patients et de for­ma­tion des pro­fes­sion­nels, en contra­dic­tion avec les exi­gences du RGPD et les recom­man­da­tions de la CNIL [22].

    Face à ces constats, des recom­man­da­tions opé­ra­tion­nelles ont été pro­po­sées afin de faci­li­ter l’appropriation des exi­gences exis­tantes et de répondre aux besoins expri­més sur le ter­rain. En conclu­sion, le prin­ci­pal enjeu de l’IA en radio­lo­gie réside moins dans la per­for­mance des algo­rithmes que dans leur inté­gra­tion éthique et opé­ra­tion­nelle, condi­tion essen­tielle pour pré­ser­ver la confiance des patients et ren­for­cer le rôle cen­tral du radio­logue dans la déci­sion médicale.

    Références bibliographiques

    [1] A. Esteva et al., « A guide to deep learning in healthcare », Nat. Med., janv. 2019, Consulté le : 14 octobre 2025. [En ligne]. Disponible sur : https://www.nature.com/articles/s41591-018-0316-z 

    [2] S. Parekh, « AI in Medical Imaging Market to Reach $1.5B by 2024 », Signify Res., sept. 2020, [En ligne]. Disponible sur : https://www.signifyresearch.net/2020/09/10/ai-medical-imaging-market-reach-1-5b-2024/

    [3] H. Hamma et al., « Processus et impacts territoriaux de l’ingénierie biomédicale en France : usage et apports de la cartographie ANAP-AFIB », IRBM News, vol. 44, no 3, p. 100470, juin 2023, https://doi.org/10.1016/j.irbmnw.2023.100470

    [4] V. Nurock et F. Berger, « Quelle éthique pour les nouvelles technologies ? : épisode 2/3 du podcast La science et ses mauvaises consciences », France Culture, 24 juin 2025. [En ligne]. Disponible sur : https://www.radiofrance.fr/franceculture/podcasts/avec-philosophie/quelle-ethique-pour-les-nouvelles-technologies-9079324 

    [5] Journal officiel de l’Union européenne, « Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) (Texte présentant de l’intérêt pour l’EEE) », juin 2024. [En ligne]. Disponible sur : https://eur-lex.europa.eu/eli/reg/2024/1689/oj/fra

    [6] E. Alipour et al., « Current Status and Future of Artificial Intelligence in MM Imaging : A Systematic Review », Diagn. Basel Switz., nov. 2023, [En ligne]. Disponible sur : https://doi.org/10.3390/diagnostics13213372

    [7] I. Goodfellow et al., "Deep learning", Cambridge, Massachusetts : The MIT Press, 2016. [En ligne]. Disponible sur : https://archive.org/details/deeplearning0000good

    [8] Y. LeCun, et al., « Deep learning », Nature, vol. 521, no 7553, p. 436‑444, mai 2015, https://doi.org/10.1038/nature14539

    [9] L. Machado et al., « La radiologie entre deux vagues : Adoption de l’intelligence artificielle dans les hôpitaux universitaires français en 2025 », J. Imag. Diagn. Interv., déc. 2025, disponible sur : https://doi.org/10.1016/j.jidi.2025.07.003

    [10] I. Bloch, « Intelligence artificielle et diagnostic médical, quels enjeux éthiques ? Limites et fantasmes, le point de vue du chercheur », J. Imag. Diagn. Interv., févr. 2025, https://doi.org/10.1016/j.jidi.2024.09.004

    [11] Medtech France, « IA en santé : qui porte la responsabilité en cas d’erreur ? », Medtech Fr., juin 2025, [En ligne]. Disponible sur : https://www.medtechfrance.fr/reglementation-et-economie/cadre-legislatif-et-normes/entre-serment-dhippocrate-et-code-source-la-deontologie-medicale-a-lepreuve-de-lintelligence-artificielle/ 

    [12] Gouvernement (France), « Stratégie intelligence artificielle et données de santé - 2025-2028 », juil. 2025, [En ligne]. Disponible sur : https://sante.gouv.fr/IMG/pdf/strategie_donnees_et_intelligence_artificielle.pdf

    [13] G. Vahanian, "Revue des livres "Hans Jonas, Le principe responsabilité : une éthique pour la civilisation technologique"", Revue d'Histoire et de Philosophie religieuses, Année 1991, 71-4, p.499, [En ligne]. Disponible sur : https://www.persee.fr/doc/rhpr_0035-2403_1991_num_71_4_5158_t1_0499_0000_2

    [14] T. Beauchamp et J. Childress, "Principles of Biomedical Ethics", huitième édition, Oxford University Press, 2019, [En ligne]. Disponible sur : https://global.oup.com/ushe/product/principles-of-biomedical-ethics-9780190640873?cc=fr&lang=en& 

    [15] Health Ethics & Governance, « Ethics and governance of artificial intelligence for health », World Health Organization, Geneva, Guidance ISBN 978-92-4-002920-0, juin 2021. [En ligne]. Disponible sur : https://www.who.int/publications/i/item/9789240029200

    [16] M. Lorenzi et M. A. Zuluaga, "Trustworthy AI in medical imaging", Elsevier. in Eurecom, no. 7811, déc. 2024. [En ligne]. Disponible sur : https://www.eurecom.fr/en/publication/7811

    [17] H. Kondylakis et al., « A review of methods for trustworthy AI in medical imaging : The FUTURE-AI Guidelines », IEEE J. Biomed. Health Inform., sept. 2025, https://doi.org/10.1109/JBHI.2025.3614546

    [18] Cellule éthique du numérique en santé, Délégation au numérique en santé, « Guide d’implémentation de l’éthique dans les systèmes d’intelligence artificielle en santé », Ministère du travail, de la santé, des solidarités et des familles, Paris, Guide, juill. 2025. [En ligne]. Disponible sur : https://esante.gouv.fr/sites/default/files/media_entity/documents/guide-ia_vf.pdf

    [19] G. Herpe et M. Talabard, K. dont les propos ont été retranscrits par C. Thomas, « Interprétation des radios en urgences : l’IA peut-elle suffire ? Débat et controverse », Journées Françaises de Radiologie 2025, Société Française de Radiologie, Paris, 5 octobre 2025. [Report de la Séance controverse :  peut-on limiter l’interprétation des radiographies des urgences à celles jugées douteuses ou pathologiques par l’IA ?]. Disponible sur : https://www.radiologie.fr/pratiques-professionnelles/sfr-actu/interpretation-des-radios-en-urgences-lia-suffire-debat-et

    [20] B. Benque avec European Radiology, « Un guide pour bien se repérer dans l'offre commerciale d'IA appliquée à l'imagerie médicale », Thema Radiologie, 2021, [En         ligne]. Disponible      sur : https://www.thema-radiologie.fr/actualites/2920/un-guide-pour-bien-se-reperer-dans-loffre-commerciale-dia-appliquee-a-limagerie-medicale.html

    [21] E. Kooter et al., « Guiding AI in radiology : ESR’s recommendations for effective implementation of the European AI Act », Insights Imaging, vol. 16, no 33, p. 11, févr. 2025, https://doi.org/10.1186/s13244-025-01905-x

    [22] Commission Nationale de l’Informatique et des Libertés, « IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable », févr. 2025, [En ligne]. Disponible sur : https://www.cnil.fr/fr/ia-et-rgpd-la-cnil-publie-ses-nouvelles-recommandations-pour-accompagner-une-innovation-responsable

    [23] M. Kirkman et al., « AI regulations in healthcare : What EU AI Act 2024/1689 means »,TÜV SÜD, 2025, [En ligne]. Disponible sur : https://www.tuvsud.com/en/knowledge-hub/white-papers/ai-regulations-in-healthcare-what-the-eu-ai-act-2024-1689-means-for-medical-device-manufacturers

    [24] G_NIUS, Délégation au numérique en santé, Ministère du Travail, de la Santé, des Solidarités et des Familles, « Règlement IA (AI Act) », https://gnius.esante.gouv.fr/. Consulté le : 18 décembre 2025. [En ligne]. Disponible sur : https://gnius.esante.gouv.fr/fr/reglementation/fiches-reglementation/reglement-ia-ai-act

    [25] H. E. & G. Chief Scientist and Science Division, « Ethics and governance of artificial intelligence for health : Guidance on large multi-modal models », World Health Organization, Geneva, Guidance ISBN 978-92-4-008475-9, mars 2025. [En ligne]. Disponible sur : https://www.who.int/publications/i/item/9789240084759

    Annexes

    Annexe 1 : Questionnaire destiné aux patients

    Annexe 1.a : Quelques réponses au questionnaire destiné aux patients

    Annexe 1.b : Quelques réponses au questionnaire destiné aux patients 

     

    Annexe 1.c : Quelques réponses au questionnaire destiné aux patients 

    Annexe 2 : Questionnaire destiné aux radiologues

    Annexe 2.a : Quelques réponses au questionnaire destiné aux radiologues

    Annexe 2.b : Quelques réponses au questionnaire destiné aux radiologues

    Annexe 2.c : Quelques réponses au questionnaire destiné aux radiologues

    searchhomearrow-circle-left