• IDS122- Intelligence Artificielle et Imagerie Médicale

    Avertissement

    Les projets ou stages publiés auxquels vous accédez sont des rapports d'étudiants et doivent être pris comme tels. Il peuvent donc comporter des imperfections ou des imprécisions que tout lecteur doit admettre et donc supporter. Il ont été réalisés pendant les périodes de formation et constituent avant-tout des travaux de compilation bibliographique, d'initiation et d'analyse sur des thématiques associées aux concepts, méthodes, outils et expériences sur les démarches qualité dans les organisations ou sur les technologies en santé.

    Si, malgré nos précautions, vous avez des raisons de contester ce droit de diffusion libre, , nous nous efforcerons d'y apporter une réponse rapide. L'objectif de la présentation des travaux sur le web est de permettre l'accès à l'information et d'augmenter ainsi la qualité des échanges professionnels.

    Nous ne faisons aucun usage commercial des travaux de projet ou de stage publiés, par conséquent les citations des informations et l'emploi des outils mis à disposition sont totalement libres. Dans ce cas, nous vous demandons de respecter les règles d'éthique en citant explicitement et complètement vos sources bibliographiques.

    Bonne lecture...

    Auteurs

    Contacts


    Citation

    A rap­pe­ler pour tout usage : H. HAIDAR-AHMAD, M. A. HAMID SALIH, A. LUANGRATH, T. SEDE. L. ZUGAJ, "Intel­li­gence Arti­fi­cielle et Ima­ge­rie Médi­cale", Uni­ver­si­té de Tech­no­lo­gie de Com­piègne (France), Mas­ter Ingé­nie­rie de la San­té par­cours Tech­no­lo­gies Bio­mé­di­cales et Ter­ri­toires de San­té, Mémoire de Pro­jet, https://travaux.master.utc.fr/, réf n° IDS122, https://doi.org/10.34746/kbkc-cd39, jan­vier 2022, https://travaux.master.utc.fr/formations-master/ingenierie-de-la-sante/ids122/


    Remerciements

    L’ensemble de notre groupe tient par­ti­cu­liè­re­ment à remer­cier tous les contri­bu­teurs de ce travail. 

    Nous remer­cions l’Université de Tech­no­lo­gie de Com­piègne et l’ensemble de l’équipe péda­go­gique du Mas­ter Ingé­nie­rie de la San­té pour l’opportunité de par­ti­ci­per à ce pro­jet publié pour la com­mu­nau­té bio­mé­di­cale. Mer­ci à Isa­belle CLAUDE, Jean-Mat­thieu PROT et Gil­bert FARGES pour tous leurs pré­cieux conseils durant ces deux années d’études et tout au long du projet. 

    Nous adres­sons éga­le­ment notre gra­ti­tude à l’ensemble des inter­ve­nant et pro­fes­sion­nels de san­té qui ont accep­té de nous accor­der de leur temps pour répondre à nos ques­tions et nous aiguiller sur des pistes de réflexion. Nous avons déve­lop­pé des connais­sances solides dans le domaine de l’Intelligence Arti­fi­cielle en ima­ge­rie médi­cale grâce à vous. 

    Enfin, nous tenons à remer­cier tous nos cama­rades de pro­mo­tion pour leur aide et leurs retours sur nos tra­vaux qui nous ont per­mis d’améliorer en conti­nu notre tra­vail tout au long des jalons. 


    Résumé

    L'Intelligence Arti­fi­cielle (IA) se déve­loppe de plus en plus dans le domaine de la radio­lo­gie pour diverses appli­ca­tions et prend une place signi­fi­ca­tive dans la rou­tine de tra­vail des radio­logues. En effet, l’explosion des don­nées médi­cales a entrai­né un bou­le­ver­se­ment de la charge de tra­vail des radio­logues, limi­tant le temps pas­sé avec le patient et aug­men­tant le taux d’erreur d’interprétation. Les logi­ciels d’IA pro­posent, dans le domaine de l’Imagerie Médi­cale, une aide au diag­nos­tic en met­tant en évi­dence les élé­ments jugés patho­lo­giques ou en prio­ri­sant les exa­mens pour les radio­logues par exemple. Aujourd’hui, en plus de cela, l’IA per­met d’améliorer la qua­li­té des images radio­lo­giques et la pré­ci­sion de leur acqui­si­tion. Cepen­dant, ces logi­ciels, pou­vant repré­sen­ter de réels outils diag­nos­tic pour le radio­logues, sont très divers et pré­sentent des limites éthiques et tech­niques. Com­prendre le fonc­tion­ne­ment et faire le tri par­mi ces solu­tions pour les radio­logues peut s’avérer dif­fi­cile. Ce pro­jet tente d’apporter des élé­ments pour mieux com­prendre les solu­tions pro­po­sées par les déve­lop­peurs d'IA, et défi­nir les prin­ci­paux cri­tères d’évaluation dans le but de gui­der les radio­logues dans leur choix. 


    Abstract

    The arti­fi­cial Intel­li­gence (AI) deve­lop­ment increases for seve­ral pur­poses in radio­lo­gy and takes a signi­fi­cant place in radio­lo­gists wor­king rou­tine. Indeed, the expan­sion of medi­cal data has led to an increase of the radio­lo­gists' work­load, limi­ting the time spent by the radio­lo­gists with the patients and rai­sing the inter­pre­ta­tion error rate. The AI soft­ware in the medi­cal ima­ging field assists the radio­lo­gist in the diag­nos­tics by poin­ting out the patho­lo­gi­cal ele­ments or by prio­ri­ti­zing the urgent exams. In addi­tion, nowa­days,  AI allows impro­ving the qua­li­ty of radio­lo­gic images and the pre­ci­sion of its acqui­si­tion. Never­the­less, this kind of soft­ware could be a real tool for hel­ping radio­lo­gists to diag­nose the abnor­ma­li­ty, there are many kinds of soft­ware, and it is confi­ned by ethi­cal and tech­ni­cal limits. Unders­tan­ding the func­tions of these soft­ware pro­grams, and being able to choose bet­ween them, can be dif­fi­cult for radio­lo­gists. This pro­ject aims to allow unders­tan­ding of all these soft­ware pro­grams and to define the main requi­re­ment for the eva­lua­tion to guide the radio­lo­gists in their choices.


    Liste des abréviations

    IA : Intel­li­gence Arti­fi­cielle

    IM : Image­rie Médi­cale

    DM : Dispo­si­tif Médi­cal

    S/B : Signal/Bruit


    Téléchargements

    IDS122_Vidéo de présentation
    IDS122_Vidéo de présentation
    IDS122_Rapport
    IDS122_Rapport
    IDS122_Poster
    IDS122_Poster

    Mémoire Complet :

    « Apports et limites de l’Intelligence Artificielle pour l’Imagerie Médicale »

    Introduction

    Aujourd'hui, la pré­sence de l’Intelligence Arti­fi­cielle (IA) se fait de plus en plus forte au sein du quo­ti­dien de l’Homme : dans la navi­ga­tion avec les GPS, les emails, mais aus­si avec les assis­tants vocaux inté­grés dans les smart­phones par exemple. Le domaine de la san­té doit éga­le­ment suivre les avan­cées tech­no­lo­giques afin d’évoluer. Dans les ser­vices d’Imagerie Médi­cale (IM), l’IA est d’ores et déjà exis­tante mais est-elle vrai­ment bien implan­tée et quelles sont ses limites ? Afin de mieux cer­ner le sujet, il s’agit en pre­mier lieu de bien défi­nir les termes impliqués.

    L’IA défi­nie comme « l’ensemble de théo­ries et de tech­niques mises en œuvre en vue de réa­li­ser des machines capables de simu­ler l'intelligence humaine » [1] est en plein essor. Depuis les années 1950, elle ne cesse d’évoluer afin de peut-être atteindre un jour la par­faite alliance entre l’Homme et la machine. L’IM est, quant à elle, consi­dé­rée comme une « spé­cia­li­té médi­cale consis­tant à pro­duire des images du corps humain vivant et à les inter­pré­ter à des fins diag­nos­tiques, thé­ra­peu­tiques (ima­ge­rie inter­ven­tion­nelle) ou de sur­veillance de l’évolution des patho­lo­gies » [2]. Tout le monde, au cours de sa vie, peut être ame­né à réa­li­ser un exa­men d’IM. Il existe dif­fé­rentes moda­li­tés, cha­cune avec des carac­té­ris­tiques spécifiques.

    Dans notre cas, de nom­breux enjeux sont donc à prendre en compte lors de l’utilisation de l’IA dans l’IM. Tout d’abord d’un point de vue médi­cal, afin de pou­voir amé­lio­rer le diag­nos­tic et les trai­te­ments asso­ciés, ain­si que leur pré­ci­sion. Une ques­tion de renom­mée est éga­le­ment en jeu : une tech­no­lo­gie de pointe peut ren­for­cer la recon­nais­sance d’un éta­blis­se­ment. Il y a aus­si des enjeux éco­no­miques impor­tants qui sont à consi­dé­rer car l’intégration d’une IA demande à éva­luer divers para­mètres. L'IA peut être un gain de temps pour le per­son­nel soi­gnant, délé­guant cer­taines tâches à l’IA, mais cela pour­rait éga­le­ment impli­quer la modi­fi­ca­tion de l’organisation et des com­pé­tences requises dans cer­taines spé­cia­li­tés médi­cales. En 2015, un radio­logue inter­pré­tait en moyenne une image CT ou IRM toutes les 3 à 4 secondes au cours d’une jour­née de tra­vail de 8 heures. En effet, le nombre d’examens d’imagerie a explo­sé ces der­nières années sans pour autant qu’il y ait une aug­men­ta­tion pro­por­tion­nelle du nombre de radio­logues (voir Figure n°1). Cela implique un nombre de cli­chés à inter­pré­ter par radio­logue consi­dé­ra­ble­ment plus impor­tant, un temps de trai­te­ment par exa­men plus court et donc poten­tiel­le­ment un taux d‘erreur d‘interprétation plus grand [3].

    Figure n°1 : Graphique de l’évolution du nombre d’actes (Scanner/IRM) et du nombre de radiologues entre 2013 et 2016 (source : siemens-healthineers.com

    Aujourd’hui, l’IA pour­rait repré­sen­ter une aide consi­dé­rable aux radio­logues impli­quant donc une adap­ta­tion de leur méthode de tra­vail et de diagnostic.

    Ces points mènent fina­le­ment à se deman­der quelle est l’offre en IA pour l’IM en France et quelle éva­lua­tion en est pro­po­sée afin de faci­li­ter le choix des radio­logues. Pour répondre à cette pro­blé­ma­tique, il fau­dra dans un pre­mier temps défi­nir ce que sont l’IM et l’IA plus pré­ci­sé­ment ain­si que les acteurs concer­nés. Puis, une ana­lyse de l’association de ces deux domaines sera faite, avec les enjeux et risques que cela implique. Enfin, un bench­mark des dif­fé­rentes solu­tions exis­tantes et leurs éva­lua­tions sera pro­po­sé avant de conclure.


    I - Définition, historique et acteurs de l’Imagerie Médicale et de l’Intelligence Artificielle 

    Les défi­ni­tions des termes « Ima­ge­rie Médi­cale » et « Intel­li­gence Arti­fi­cielle » ont déjà été don­nées pré­cé­dem­ment, mais afin de mieux les com­prendre, il est néces­saire d’approfondir le sujet et de com­prendre leurs origines. 

    A) Imagerie Médicale

    • Evo­lu­tion de l'IM 

    Après la décou­verte des rayons X à la fin du XIXe siècle, l’IM de diag­nos­tic a rapi­de­ment évo­luée. Dif­fé­rentes moda­li­tés ont vu le jour, et à par­tir des années 70, l’IM en 3D est née avec l’apparition du scan­ner, de la Tomo­gra­phie par Émis­sion de Posi­tons (TEP) et de l’Imagerie par Réso­nance Magné­tique (IRM) (voir Figure n°2). De nos jours, l’IM ne cesse de s’améliorer afin de pro­po­ser au patient l’examen le plus rapide et com­plet pos­sible comme les images en 4D et le Real Time Imaging. 

    Figure n°2 : Evolution de l’IM (source : auteurs) 

    L’IM est prin­ci­pa­le­ment uti­li­sée dans le domaine du diag­nos­tic médi­cal, mais elle peut aus­si être uti­li­sée dans le domaine thérapeutique. 

    • Appli­ca­tions de l’IM dans le domaine thé­ra­peu­tique 

    L'IM, qui était spé­cia­li­sée dans le diag­nos­tic des frac­tures des os à ses débuts, a par la suite été déve­lop­pée dans des direc­tions plus dif­fé­rentes, notam­ment le domaine thé­ra­peu­tique qui regroupe deux domaines d’utilisation impor­tants de l’IM.

    La pre­mière est la pro­cé­dure gui­dée par ima­ge­rie :il s’agit d’une repré­sen­ta­tion dont le but est de diri­ger les pro­ces­sus thé­ra­peu­tiques et mini­mi­ser leurs dom­mages. Dans ce cas, il y a par exemple « la biop­sie pul­mo­naire gui­dée par TDM qui est une méthode effi­cace, com­plé­men­taire de la bron­cho­sco­pie souple, pour le diag­nos­tic du can­cer bron­cho-pul­mo­naire » [4]. L'imagerie avec la méthode sus­men­tion­née vise à diag­nos­ti­quer une tumeur, à sur­veiller les chan­ge­ments de trai­te­ments au fur et à mesure qu'ils sur­viennent et à sur­veiller l'échec ou le suc­cès du traitement.

    L’autre domaine d’application très connu est l’imagerie fonc­tion­nelle où « selon la nature des recherches, on dis­tingue celles qui four­nissent des pro­prié­tés struc­tu­relles de la zone étu­diée (IRM, Rayons X, ...), de celles qui res­ti­tuent des aspects fonc­tion­nels (TEP, IRM Fonc­tion­nelle...) » [3]. L’un des cas pos­sibles grâce à l’IM est la sur­veillance de l'activité céré­brale ain­si que le moment de sa réac­tion aux sti­mu­li moteurs, émo­tion­nels et men­taux. En effet, l'activité de dif­fé­rents centres céré­braux est carac­té­ri­sée par une consom­ma­tion accrue d'oxygène et, à l'aide de l'IRM, les chan­ge­ments cau­sés par l'augmentation de la consom­ma­tion peuvent être obser­vés, avec le moment de leur apparition.

    L’IM a donc beau­coup évo­lué en très peu de temps. Sou­vent essen­tielle lors de l’élaboration d’un diag­nos­tic, elle se démarque par sa poly­va­lence et la vaste éten­due de ses champs d’application.

    • Le Big Data en Ima­ge­rie Médi­cale  

    Les avan­cées tech­no­lo­giques ont per­mis aujourd’hui d’aller de l’avant dans de nom­breux domaines dont celui de la san­té, per­met­tant ain­si d’améliorer le diag­nos­tic et le trai­te­ment des patients. Ces avan­cées tech­no­lo­giques ont été aLes avan­cées tech­no­lo­giques ont per­mis aujourd’hui d’aller de l’avant dans de nom­breux domaines dont celui de la san­té, per­met­tant ain­si d’améliorer le diag­nos­tic et le trai­te­ment des patients. Ces avan­cées tech­no­lo­giques ont été accom­pa­gnées d’une explo­sion du volume de don­nées créées, mul­ti­pliées par 25 en l’espace de 10 ans (voir Figure n°3) [5]. Cet afflux de don­nées repré­sente aujourd’hui un enjeu majeur pour le sec­teur de la san­té. En effet, les don­nées pro­ve­nant des résul­tats et ana­lyses médi­cales des patients pour­raient aider à la per­son­na­li­sa­tion des trai­te­ments, au déve­lop­pe­ment de sys­tèmes d’aide au diag­nos­tic mais aus­si à la prise de déci­sion cli­nique et à l’identification des fac­teurs de risques et des menaces sani­taires [6], [7].

    Figure n°3 : L’évolution du volume de données numériques depuis 2010 (source : Idc seagate, Statista) 

    En France, le nombre d’actes d’IM a beau­coup aug­men­té au fil des der­nières années. Il y a eu une aug­men­ta­tion de l’utilisation de l’IM en diag­nos­tic et une crois­sance de la quan­ti­té de don­nées avec plus de 60 mil­lions d’actes en 2015 [4] (voir Figure n°4). Selon l’étude de la Cour des Comptes de 2015, les tech­niques de radio­gra­phie et d'échographie sont beau­coup plus uti­li­sées que les autres tech­niques grâce à la faci­li­té de leur mise en place et leur rapidité.

    Figure n°4 : Diagramme du nombre d’actes d’IM en France en 2015, selon le type d’imagerie (source : Cour des Comptes, publié en mai 2016) 

    Les appa­reils bio­mé­di­caux d’aujourd’hui sont plus per­for­mants et viennent à pro­duire jusqu’à 1000 à 1500 images par exa­men, soit plus de 40 fois plus qu’il y a 30 ans. L’IM repré­sente donc une part impor­tante des acti­vi­tés médi­cales en France, avec une quan­ti­té de don­nées aug­men­tant paral­lè­le­ment au nombre d’actes. Il paraît évident que ces don­nées deviennent impos­sibles à ana­ly­ser par un seul être humain et néces­sitent l’aide de machines. Aux Etats- Unis, 34% des radio­logues disent uti­li­ser l’IA dans leurs pra­tiques cli­niques [8] puisqu’elle pro­pose des méthodes de cal­culs éla­bo­rées et des algo­rithmes inno­vants tels que le Deep Lear­ning, trou­vant leur place dans des sec­teurs comme l’IM [5].

    B) Intelligence Artificielle

    L’IA est de plus en plus pré­sente au quo­ti­dien, elle existe dans nos sys­tèmes infor­ma­tiques, en navi­ga­tion, etc. L’IA est de plus en plus pré­sente au quo­ti­dien, elle existe dans nos sys­tèmes infor­ma­tiques, en navi­ga­tion, etc. Cepen­dant, défi­nir l’IA n’est pas si simple car pour cela il fau­drait déjà réus­sir à le faire pour l’intelligence : « Tout pro­blème pour lequel aucune solu­tion algo­rith­mique n’est connue, relève à prio­ri de l’IA » et de son sys­tème d’apprentissage [6]. L’IA est un ensemble d’algorithmes qui va per­mettre l’élaboration de solu­tions pour une pro­blé­ma­tique don­née [9].

    • Nais­sance et déve­lop­pe­ment 

    Comme le montre la Figure n°5, l’IA est appa­rue avec Alan Turing avec son idée qu’une machine puisse pen­ser. War­ren Wea­ver émet une idée simi­laire, il pen­sait que des tâches liées à l’intelligence humaine pou­vaient être exé­cu­tées par des machines. L’utilisation de l’IA ne fait que pro­gres­ser, notam­ment en IM. 

    Figure n°5 : Frise chronologique de l'IA (source : digitalcorner-wavestone.com) 

    En 1957, le plus ancien algo­rithme d’IA a été conçu pour la recon­nais­sance de pat­terns. Cepen­dant, ce n’est que vers les années 2010 que le plein poten­tiel de ces réseaux a com­men­cé à être exploi­té grâce au Big Data et aux trai­te­ment mas­si­ve­ment paral­lèles [10].

    L’IA est liée aux impor­tantes avan­cées tech­no­lo­giques de ces der­nières années. Les per­for­mances des ordi­na­teurs se sont consi­dé­ra­ble­ment amé­lio­rées (loi de Moore), ce qui a per­mis de déve­lop­per de nou­velles tech­niques [7]. Dans cette étude, seule l’IA dans le domaine de la san­té et dans l’IM sera prise en compte, mais en réa­li­té l’IA concerne de nom­breux autres domaines comme l’industrie ou l’agriculture par exemple. Elle per­met­trait donc d’orienter le tra­vail de cer­tains métiers : dans le cadre de l'imagerie, elle pour­rait aider à l’amélioration des images et au diag­nos­tic [11].

    L’IA a un aspect fon­da­men­tal qui repose sur l’apprentissage, per­met­tant d’améliorer les per­for­mances [12]. L’apprentissage est plus qu’essentiel pour l’IA car c’est ce qui va per­mettre au sys­tème d'évoluer avec les don­nées. C’est-à-dire qu’avec l'arrivée de requêtes et nou­velles don­nées (par exemple dire si une frac­ture est pré­sente sur une image), l’IA devra réus­sir à four­nir un résul­tat fiable. Si ce der­nier n’est pas conforme à celui atten­du, il faut pou­voir le noti­fier pour que l’IA apprenne de ses erreurs. Ain­si à la pro­chaine requête d’une pro­blé­ma­tique simi­laire, elle sera plus per­for­mante. L’IA peut être consi­dé­rée comme la ren­contre entre trois dis­ci­plines : les mathé­ma­tiques, l’informatique et les sciences cog­ni­tives. Bien que ce concept ait un aspect futu­riste, ces sys­tèmes sont déve­lop­pés depuis des dizaines d’années. Il existe déjà plu­sieurs méthodes comme l’IA par réseaux de neu­rones, d’apprentissage par ren­for­ce­ment, etc [13].

    • IA dans le domaine de la san­té 

    L’IA repré­sente un espoir dans le domaine de la san­té : elle pour­rait per­mettre d’améliorer la prise en charge des patients eL’IA repré­sente un espoir dans le domaine de la san­té : elle pour­rait per­mettre d’améliorer la prise en charge des patients et de réduire la charge de tra­vail des méde­cins sans affec­ter la qua­li­té des diag­nos­tics. La mul­ti­pli­ca­tion des don­nées de san­té donne de l’espoir quant aux appli­ca­tions de l’IA en san­té : le dépis­tage pré­coce de can­cer est un exemple d’application. Enfin, l’humain ne sera jamais fiable à 100% et exempt d’erreur, c’est pour­quoi le déve­lop­pe­ment d’outils d’aide per­met­trait de réduire les erreurs de diag­nos­tic et d’éviter de pas­ser à côté d’un poten­tiel indice en uti­li­sant le Big Data qui est une très grande quan­ti­té de don­nées - dans ce cas, il s’agit de don­nées médi­cales. Pour pou­voir réa­li­ser des cal­culs avec une grande masse de don­nées, l’IA peut uti­li­ser le Deep Lear­ning (appren­tis­sage pro­fond) ou le Machine Lear­ning (appren­tis­sage automatique).

    • Machine Lear­ning 

    Le Machine Lear­ning est l’un des sous-ensembles de l’IA qui est lui-même com­po­sé du Deep Lear­ning (voir Figure n°6). Le Machine Lear­ning se base sur l'expérience des machines qui peuvent l'utiliser pour amé­lio­rer leurs per­for­mances et l'exécution des tâches. L’apprentissage auto­ma­tique per­met l’ajout d’informations sup­plé­men­taires dans le modèle - comme le clus­te­ring (orga­ni­sa­tion des don­nées de façon homo­gène) - et leur uti­li­sa­tion dans le cadre des entraî­ne­ments. Il y a aus­si évi­dem­ment une phase de test du modèle, ce der­nier peut-être aus­si uti­li­sé pour des tâches de pré­dic­tion. Le Machine Lear­ning per­met à des machines d’effectuer des appren­tis­sages auto­ma­tiques même si elles n’ont pas été conçues et pro­gram­mées pour cela au départ.

    Figure n°6 : Diagramme des différents types d’IA (source : auteurs) 
    • Deep Lear­ning  

    Dans cette par­tie sera décrit les prin­cipes théo­riques du Deep Lear­ning et des réseaux de neurones.

    Le Deep Lear­ning fait donc par­tie du Machine Lear­ning et se base sur des réseaux de neu­rones arti­fi­ciels. Comme pour le cer­veau humain, ils sont com­po­sés de plu­sieurs couches. Il y a donc des don­nées d’entrée et de sor­tie et ces neu­rones arti­fi­ciels vont trans­for­mer les don­nées qui entrent au fur et à mesure de la tra­ver­sée des dif­fé­rentes couches. L’avantage de cette méthode est de pou­voir apprendre avec les don­nées trai­tées à tra­vers le sys­tème. Les sys­tèmes de Deep Lear­ning néces­sitent des quan­ti­tés impor­tantes de don­nées pour ses entraî­ne­ments, la puis­sance de l'algorithme en dépend for­te­ment. Il est donc néces­saire de dis­po­ser de machines suf­fi­sam­ment per­for­mantes pour réa­li­ser ce trai­te­ment [14]. Dans le cadre de l'imagerie, cela peut s’appliquer dans la recherche de tumeurs par exemple. L’IA pour­rait détec­ter d'éventuelles tumeurs en se basant sur une quan­ti­té de cli­chés impor­tants, aux­quels serait asso­ciée la pré­sence de tumeur ou non. En plus de ses expé­riences fon­dées sur la réus­site ou l’échec de cette détec­tion, le pro­gramme peut amé­lio­rer son pou­voir de recon­nais­sance et sera plus fin dans ses analyses.

    Dans le Deep Lear­ning, un but à accom­plir est don­né à l’IA. Tous les cas de figures d’une pro­blé­ma­tique don­née ne sont pas pro­gram­més car il y a une très grande quan­ti­té de cas pou­vant aller jusqu’à plu­sieurs mil­lions : de ce fait, elle appren­dra d’elle-même à y répondre. De ce fait, le sys­tème infor­ma­tique crée ses propres algo­rithmes, ce qui met en évi­dence des capa­ci­tés d’apprentissage de la machine. Durant cet appren­tis­sage, des taux de réus­site sont défi­nis. Ils cor­res­pondent au pour­cen­tage de bonnes réponses don­nées par le sys­tème pour une pro­blé­ma­tique. Pour des images radio­lo­giques, sont com­pa­rés les résul­tats réels (diag­nos­tic de radio­logues) et ceux four­nis par l’IA, et cela se fait sur des mil­liers d'images [14]. Il est dit que l'entraînement est sta­bi­li­sé si le pour­cen­tage de réus­site est jugé cor­rect par les éva­lua­teurs de la solu­tion d’IA.

    Pour résu­mer, un tableau com­pa­ra­tif pré­sente ci-des­sous les dif­fé­rences entre le Machine Lear­ning et le Deep Lear­ning, la prin­ci­pale rési­dant dans le fait que le Deep Lear­ning tra­vaille sur des don­nées non struc­tu­rées comme une image et uti­lise des réseaux de neu­rones convo­lu­tifs (voir Figure n°7).

    Figure n°7 : Différences entre Machine Learning et Deep Learning (source : ionos.fr) 

    Mal­gré son grand poten­tiel, un des incon­vé­nients du Deep Lear­ning est la dif­fi­cul­té à expli­quer les résul­tats obte­nus. Cela est dû à l'utilisation des réseaux de neu­rones qui peuvent être complexes. 

    • Réseaux de neu­rones 

    Le terme de réseau de neu­rones arti­fi­ciels a été créé en 1943 mais ce n’est que vers les années 2010 que le plein poten­tiel de ces réseaux a com­men­cé à être exploi­té grâce au Big Data et aux trai­te­ments mas­si­ve­ment paral­lèles [5].

    Les réseaux de neu­rones arti­fi­ciels per­mettent le Deep Lear­ning. Les bases de don­nées (images médi­cales) vont ali­men­ter ces réseaux et consti­tuer des don­nées d’entrées. Les neu­rones d’entrée vont ensuite trans­mettre ces don­nées aux couches inter­mé­diaires (couches cachées), puis à celles de sor­tie. Si un résul­tat dif­fé­rent de la réa­li­té est obte­nu, alors il y a une adap­ta­tion auto­ma­tique du réseau qui est obte­nu mathé­ma­ti­que­ment. Ces réseaux fonc­tionnent grâce à des algo­rithmes et des fonc­tions mathé­ma­tiques qui sont dites d'activation : elles prennent une valeur d’entrée et la ren­voie à un résul­tat. Dans le déve­lop­pe­ment d’IA, il est dif­fi­cile de déter­mi­ner les meilleures confi­gu­ra­tions, qui com­prennent prin­ci­pa­le­ment le nombre de couches cachées, pour avoir un appren­tis­sage plus efficace.Ce der­nier va donc être consti­tué de répé­ti­tions de ces pro­ces­sus : il est consi­dé­ré comme fai­sant effet lorsque le réseau inter­prète avec fia­bi­li­té de nou­velles don­nées qui sont ici des images. L'expérience est donc la clé de l’apprentissage auto­nome [3].

    Afin de mieux visua­li­ser le fonc­tion­ne­ment des réseaux de neu­rones, une modé­li­sa­tion est pré­sen­tée ci-des­sous (voir Figure n°8).

    Figure n°8 : Schéma simplifié d’un réseau de neurones (source : Siemens.com) 

    La créa­tion d’un réseau impor­tant est obte­nue car un neu­rone est relié à d’autres d’une couche cachée, avec des infor­ma­tions qui se recoupent. Il peut y avoir plus d’une cen­taine de couches cachées avec des mil­liers de neu­rones dont la quan­ti­té est variable. Des situa­tions com­plexes peuvent donc être modé­li­sées avec des mil­liers de connexions. Pour uti­li­ser des réseaux déve­lop­pés, il faut des modèles mathé­ma­tiques avan­cés com­bi­nés à une grande puis­sance de cal­cul. C’est pour cette rai­son que la com­po­sante hard­ware des équi­pe­ments d’imageries doit être per­for­mante. Il y a sou­vent beau­coup de pro­ces­seurs uti­li­sés paral­lè­le­ment pour faire fonc­tion­ner ce type de système.

    Les réseaux de neu­rones convo­lu­tifs sont uti­li­sés pour recon­naître les images en les rece­vant sous la forme d’une matrice et à laquelle sont appli­quées deux opé­ra­tions : du fil­trage pour détec­ter des formes et contours, et des sim­pli­fi­ca­tions pour en extraire les infor­ma­tions impor­tantes. Il est dit que cette approche est ins­pi­rée du fonc­tion­ne­ment de l'œil et du trai­te­ment des infor­ma­tions visuelles [15]. En effet, cer­tains neu­rones du cor­tex visuel vont réagir seule­ment aux bor­dures ver­ti­cales, et d’autres hori­zon­tales. La convo­lu­tion est à l’origine un outil en mathé­ma­tiques [16] : le pro­duit de convo­lu­tion de deux fonc­tions revient à réa­li­ser la moyenne pon­dé­rée de ces deux fonc­tions [17]. Les don­nées brutes sont reçues par la pre­mière couche, c’est une ana­lo­gie de la rétine de l'œil. Les récep­teurs visuels reçoivent les rayons lumi­neux comme des don­nées brutes qui seront ana­ly­sées dans les couches neu­ro­nales plus pro­fondes du cer­veau. C’est pour cela que cette tech­nique est très inté­res­sante pour l’IM. Lors d’une série d'instructions, chaque neu­rone a un poids, aus­si appe­lé connexion ou niveau d'activation, repré­sen­tant des valeurs qui servent à pro­pa­ger les infor­ma­tions et ser­vant d’intermédiaire pour conver­tir les don­nées d’entrées en don­nées de sor­ties. Ils ne sont pas défi­nis et sont ajus­tés pour dimi­nuer l’écart, nom­mé coût, entre la valeur obte­nue et celle atten­due (fixée par les déve­lop­peurs ou le pro­gram­meur de l’apprentissage) qui donne une indi­ca­tion sur les poids à modi­fier. Ces der­niers reflètent l’importance du neu­rone dans le trai­te­ment des don­nées pour un cas. Comme pour le cer­veau humain, les neu­rones du réseau peuvent être actifs ou non.

    Pour illus­trer ce fonc­tion­ne­ment dans le cas de l’IM, l’exemple d’une image en niveaux de gris où chaque pixel est repré­sen­té par une valeur avec 0 pour noir et 1 pour blanc sera pris. S’il y a 1000 pixels, il est pos­sible d’avoir 1000 neu­rones d’entrées, donc 1000 valeurs. Chaque neu­rone prend une valeur numé­rique qui dépend de toutes ses connexions entrantes en fonc­tion de leur poids asso­cié. L’information est pro­pa­gée d’une couche à l’autre, jusqu’à la der­nière. Chaque neu­rone de la couche de sor­tie aura un degré d'activation qui repré­sente le pour­cen­tage de chance que l’image médi­cale cor­res­ponde à un cas de figure. Au début de l'entraînement les résul­tats obte­nus seront très dif­fé­rents de ceux atten­dus, mais l'apprentissage per­met­tra de cor­ri­ger cela et le réseau sera capable d’interpréter une image sans se trom­per et pour­ra même ana­ly­ser des images qu’il ne connaît pas. Si l'entraînement a été effi­cace, les résul­tats don­nés seront ceux atten­dus. Par exemple, si l'image ana­ly­sée repré­sente une tumeur (résul­tat atten­du), et que le résul­tat don­né affirme avoir trou­vé une tumeur sur les pixels la repré­sen­tant, le résul­tat est alors posi­tif [10]. A savoir que l'IA est tou­jours en appren­tis­sage, même déployée dans un équi­pe­ment d’imagerie et lors d’une mau­vaise inter­pré­ta­tion, le radio­logue peut signa­ler l’erreur au système.

    Un élé­ment très impor­tant à prendre en compte est la stan­dar­di­sa­tion des don­nées d’imagerie au for­mat DICOM. C’est-à-dire que ces don­nées doivent, par exemple, être issues de la même moda­li­té d’imagerie et de faible varia­bi­li­té. Sans cela, la fia­bi­li­té des résul­tats serait for­te­ment impac­tée, et il en va de même pour la confiance que portent les radio­logues envers la solution.

    L’IA peut être uti­li­sée dans tous les domaines en san­té impli­quant un grand nombre de don­nées. L’IM met en jeu des don­nées diverses et nom­breuses avec de poten­tiels gains non négli­geables pour le patient jus­ti­fiant de l’apport de l’IA.


    II - Apports et limites de l’Intelligence Artificielle pour l’Imagerie Médicale 

    L’IA en IM peut repré­sen­ter une oppor­tu­ni­té et une véri­table aide au quo­ti­dien pour les radio­logues avec de réels apports qui vont être analysés. 

    A) Apports et intérêts de l'IA en IM

    Depuis de nom­breuses années, dif­fé­rents pro­ces­sus mathé­ma­tiques ont ten­té de faci­li­ter le tra­vail des méde­cins dans la clas­si­fi­ca­tion et le diag­nos­tic des patho­lo­gies. Plu­sieurs sys­tèmes de Détec­tion Assis­tée par Ordi­na­teur (DAO) ont été mis en place afin de per­mettre la détec­tion de divers can­cers en radio­lo­gie par exemple [14]. La DAO per­met de pro­po­ser des diag­nos­tics pour orien­ter le méde­cin, mais contrai­re­ment à l’IA, ses per­for­mances res­tent limi­tées et rigides puisqu’elles sont seule­ment basées sur les don­nées four­nies à l’algorithme [18]. De plus, des études cli­niques ont mon­tré que ces méthodes génèrent plus de faux posi­tifs que les méde­cins eux-mêmes [19], résul­tant donc en des exa­mens com­plé­men­taires et un temps d’évaluation plus long [14]. C’est pour­quoi aujourd’hui, grâce à la très grande quan­ti­té de don­nées médi­cales dis­po­nibles, la com­bi­nai­son de la DAO à du Deep ou Machine Lear­ning pour­rait per­mettre une meilleure effi­ca­ci­té de traitements.

    En effet, avec l’exemple de l’IA Bone­view pro­po­sée par Incep­to, cette der­nière per­met de dimi­nuer de 30% les frac­tures man­quées et aug­mente la spé­ci­fi­ci­té (de 5%) ain­si que la sen­si­bi­li­té (de 12%) chez l’ensemble du per­son­nel de san­té. De plus, de manière plus détaillée, Bone­view per­met non seule­ment d’améliorer les per­for­mances des radio­logues (dimi­nu­tion des frac­tures man­quées de 22% et aug­men­ta­tion de la spé­ci­fi­ci­té de 3%) mais éga­le­ment celles des urgen­tistes qui sol­li­citent sou­vent l’IM (dimi­nu­tion des frac­tures man­quées de 34% et aug­men­ta­tion de la spé­ci­fi­ci­té de 7%). Il y a une dif­fé­rence logique quant à l’impact de l’IA sur les dif­fé­rents pra­ti­ciens hos­pi­ta­liers avec une amé­lio­ra­tion plus légère pour les radio­logues, étant plus expé­ri­men­tés. Enfin, l’IA a per­mis de réduire la quan­ti­té de faux posi­tifs par patient sans frac­ture de 41,9% et le temps moyen de lec­ture de 15,0% [20].

    Basée sur les méthodes de Deep et Machine Lear­ning, l’IA peut aller jusqu’à la déter­mi­na­tion des limites d’un organe ou d’une lésion, l’interprétation de radio­gra­phies pul­mo­naires [21], la détec­tion de tumeurs céré­brales [22] ou de can­cers de la pros­tate par exemple. L’IA per­met­trait même d’aller plus loin en clas­si­fiant les mala­dies en risque faible/élevé avec un bon/mauvais pro­nos­tic [23].

    L’IA peut donc être un réel outil pour les radio­logues, leur per­met­tant non seule­ment de gagner du temps, mais aus­si d’avoir un dis­po­si­tif de véri­fi­ca­tion et d’analyse sur lequel se baser. Au lieu de rem­pla­cer les outils déjà uti­li­sés par les radio­logues, l’IA peut être inté­grée au PACS - sys­tème de ges­tion élec­tro­nique des images médi­cales - com­mu­né­ment uti­li­sé en radio­lo­gie via les logi­ciels Cares­tream (voir Figure n°9) ou AW Ser­ver de chez Gene­ral Elec­tric par exemple. Ces der­niers per­mettent entre autres de déter­mi­ner de manière auto­ma­ti­sée la den­si­té osseuse, détec­ter les foies gras, les emphy­sèmes pul­mo­naires et les frac­tures de com­pres­sion [24]. D’autres fonc­tion­na­li­tés de mesure sont pos­sibles telles que l’analyse du flux san­guin tis­su­laire, du volume et de la per­méa­bi­li­té capil­laire, avec détec­tion auto­ma­tique de la fonc­tion d'entrée arté­rielle et de la fonc­tion de sor­tie vei­neuse tout en favo­ri­sant un affi­chage auto­ma­tique des résul­tats sous forme de cartes et de tableaux [25]. Les logi­ciels basés sur l’IA pour­raient donc deve­nir, après maî­trise de ceux-ci par les radio­logues, leur prin­ci­pal moyen d’analyse des résul­tats des patients.

    Figure n°9 : Image de Carestream-PACS utilisé avec des outils d’IA (source : carestream.com) 

    De nom­breuses voies d’avenir s'ouvrent aujourd’hui grâce à l’IA. La radio­mique, méthode per­met­tant de trou­ver des bio­mar­queurs diag­nos­tiques, pro­nos­tiques ou pré­dic­tifs à par­tir d’extraits d’images radio­lo­giques, est encou­ra­geante [21]. Cette méthode per­met d’obtenir des bio­mar­queurs d'imagerie utiles pour l’administration des thé­ra­pies appro­priées. L'IA peut sou­te­nir l'analyse des carac­té­ris­tiques radio­miques et les cor­ré­ler à d'autres don­nées (pro­téo­mique, géno­mique etc...) [26].

    Par ailleurs l’IA peut appor­ter une aide admi­nis­tra­tive dans le sec­teur de la san­té à tra­vers une prise en charge des dif­fé­rentes don­nées du patient et de leurs for­mats. En effet, au vu de l’importante pro­duc­tion de don­nées dans le sec­teur médi­cal, l’IA pour­rait per­mettre une exploi­ta­tion effi­cace des infor­ma­tions du patient pro­ve­nant de don­nées de for­mats dif­fé­rents comme des comptes ren­dus, des ana­lyses bio­lo­giques ou encore des ima­ge­ries par exemple, pour accé­lé­rer la prise en charge du patient [27].

    Enfin, un exemple concret et por­teur d'espoir est celui de l’équipe du Pro­fes­seur de neu­ro-ima­ge­rie avan­cée, Roland Wiest, à l'Université de Berne, en Suisse. Ils ont réus­si à mettre en place une tech­nique entiè­re­ment auto­ma­tique basée sur l’IA afin de seg­men­ter les images de patients atteints de glio­blas­tomes. Cette tech­nique est basée sur le Machine Lear­ning et sur une nou­velle stra­té­gie de com­par­ti­men­ta­tion des tis­sus pour la seg­men­ta­tion des tis­sus. Ce sys­tème per­met une seg­men­ta­tion com­plète des com­par­ti­ments tumo­raux (régions nécro­tiques, actives et œdé­ma­teuses), des tis­sus sains, ain­si que des struc­tures sous-cor­ti­cales - utiles pour la neu­ro­chi­rur­gie et la radio­thé­ra­pie. En se basant sur cette tech­nique, ils ont déve­lop­pé un outil logi­ciel appe­lé Bra­Tu­mIA (Brain Tumor Image Ana­ly­sis), qui effec­tue une seg­men­ta­tion entiè­re­ment auto­ma­tique du tis­su tumo­ral céré­bral en cinq minutes envi­ron. Ils ont éga­le­ment uti­li­sé l’IA (Machine Lear­ning) pour carac­té­ri­ser des lésions céré­brales des acci­dents isché­miques céré­braux ain­si que pré­dire l'issue la plus pro­bable d'une inter­ven­tion de throm­bec­to­mie méca­nique réus­sie ou non [28].

    Mal­gré les nom­breux apports pos­sibles de l’IA à l’IM, cela engendre tout de même des enjeux et risques à considérer.

    B) Enjeux et risques liés à l’IA dans l’IM 

    Les termes d’IA et d’IM étant expli­ci­tés, il faut désor­mais se deman­der quels sont les enjeux et risques se trou­vant der­rière l’association de ces deux domaines. 

    • Enjeux 

    L’intégration de l’IA dans l’IM pré­sente de réels avan­tages, et ce dans plu­sieurs aspects grâce aux apports expli­qués pré­cé­dem­ment qui montrent la puis­sance tech­nique et tech­no­lo­gique de l’IA.

    D’un point de vue thé­ra­peu­tique, l’IA dans l’IM per­met d’améliorer le diag­nos­tic déli­vré par le radio­logue qui pour­ra adap­ter au mieux le trai­te­ment pres­crit au patient. De plus, les résul­tats sont déli­vrés bien plus rapi­de­ment car la machine peut prendre en compte les dif­fé­rentes moda­li­tés, ana­lyses labo­ra­toires et pos­sibles biop­sies du patient et le faire de manière plus rapide que l’Homme. Ain­si, cela réduit le temps d’attente du patient entre son exa­men et la déli­vrance des résul­tats après l’expertise du radio­logue - la recons­truc­tion de l’image, l’interprétation et la dic­tée pou­vant aller de 30 minutes à 90 minutes, voire une jour­née et plus dans cer­tains cas s’il y a beau­coup d’affluence. Grâce à cette accé­lé­ra­tion du pro­ces­sus, le patient pour­ra être mis plus rapi­de­ment sous trai­te­ment avec un sui­vi approprié.

    Il y a éga­le­ment des béné­fices stra­té­giques avec un gain de temps consi­dé­rable pour le radio­logue qui pour­ra délé­guer des tâches à l’IA et se concen­trer sur d’autres mis­sions. De plus, avoir à dis­po­si­tion une IA peut per­mettre de par­ti­ci­per à la recon­nais­sance d’un éta­blis­se­ment en favo­ri­sant sa renom­mée. Tout comme les hôpi­taux ayant des robots chi­rur­gi­caux, cela peut mon­trer la puis­sance éco­no­mique d’un éta­blis­se­ment. Cela pour­rait donc atti­rer davan­tage de patients à se faire soi­gner dans le centre de santé.

    Ce der­nier argu­ment rejoint les enjeux éco­no­miques dans le cas des éta­blis­se­ments à but non lucra­tif dont le but est de faire du pro­fit. En effet, si le prin­cipe du gain de temps est repris, alors le ser­vice d’IM peut faire pas­ser davan­tage d’examens médi­caux aux patients, il y a donc une pos­si­bi­li­té d’optimiser les coûts. En effet, un exa­men de scan­ner est coû­teux. Ain­si, il est bien plus ren­table de faire pas­ser un maxi­mum de patients. Cela est aus­si en accord avec le besoin d’augmenter la dis­po­ni­bi­li­té des équi­pe­ments d'imagerie pour les patients.

    Tous ces enjeux et la poly­va­lence de l’IA réunis per­met de faire de l’IA un outil de diag­nos­tic puis­sant et ayant un fort poten­tiel pour aider au mieux le radio­logue. Cepen­dant, cette solu­tion tech­nique engendre mal­gré tous des risques à ne pas négliger.

    • Risques 

    Lors de l’achat d’un nou­veau DM, il est impor­tant de se réfé­rer à « la matrice d’évaluation des risques et l’analyse des béné­fices-risques » [29] afin d’anticiper les dif­fi­cul­tés pou­vant sur­ve­nir et, dans le meilleur des cas, trou­ver des solu­tions à ces problèmes.

    L’inconvénient majeur de l’IA dans l’IM du côté diag­nos­tic est le manque de jus­ti­fi­ca­tion. En effet, l’attente prin­ci­pale du radio­logue est d’avoir un outil fiable. Or l’IA n’est pas dans la capa­ci­té de four­nir une jus­ti­fi­ca­tion quant aux diag­nos­tics éta­blis : il n’est pas pos­sible de remon­ter l’algorithme et savoir quels élé­ments ont été pris en compte pour par­ve­nir à cette déci­sion. Ce manque d’informations cru­ciales remet en ques­tion la légi­ti­mi­té de l’outil. De plus, il arrive que l’IA se trompe dans ses constats et fait des erreurs que même un jeune méde­cin n’aurait pas fait, ce qui décré­di­bi­lise la puis­sance de l’IA et pour­rait mettre des radio­logues dans une posi­tion juri­dique déli­cate en cas d’erreur médi­cale. En plus de cela, elle ne peut pas s’appuyer sur les anté­cé­dents du patient. Enfin, l’IA s’améliorant en se basant sur une base de don­nées com­po­sée de cli­chés d’une haute qua­li­té, il est dif­fi­cile pour elle de pro­gres­ser et donc tout à fait com­pré­hen­sible que le radio­logue se pose des ques­tions sur la manière dont elle compte se perfectionner.

    L'importation d’une IA engendre éga­le­ment des risques stra­té­giques avec la modi­fi­ca­tion des orga­ni­sa­tions ins­tau­rées au sein du ser­vice d’IM et des com­pé­tences du per­son­nel requises. Il peut donc y avoir des dif­fi­cul­tés d’adaptation, avec un rebut des équipes. De plus, cer­tains col­la­bo­ra­teurs peuvent craindre qu’il y ait une modi­fi­ca­tion des mis­sions atti­trées. Par ailleurs, il est aus­si pos­sible que cer­tains hôpi­taux soient davan­tage sol­li­ci­tés que d’autres, ce qui pour­rait créer un afflux dans un cas, et une déser­ti­fi­ca­tion dans d’autres. Enfin, une ques­tion se pose sur les don­nées des patients : com­ment sont-elles gérées et pro­té­gées ? Une étude est à faire sur l’implantation d’un tel sys­tème qui requiert cer­tai­ne­ment un sys­tème de sau­ve­garde de ces données.

    Les der­niers aspects non négli­geables à abor­der sont les risques éco­no­miques. Les ser­vices d’IM sont déjà consi­dé­rés comme les plus oné­reux en rai­son du prix des DM et des ins­tal­la­tions spé­ci­fiques requises pour bâtir les salles. En optant pour une IA, il faut aus­si bien com­prendre le coût réel qu’elle implique. Ces cri­tères éco­no­miques ont été vus aupa­ra­vant et après réflexion, la ren­ta­bi­li­té éco­no­mique de l’IA ne se fera pas avant des dizaines d’années [30].

    Il y a donc de nom­breux enjeux et risques à prendre en compte dans un domaine où tra­vaillent en coopé­ra­tion divers acteurs.

    C) Acteurs

    Cette par­tie vise à défi­nir les dif­fé­rents acteurs concer­nés par l’IA dans l’IM dans la sphère des fabri­cants, pro­ta­go­nistes du diag­nos­tic et per­sonnes indi­rec­te­ment concernées. 

    Diagnostics et soins 

    • Patients : Les patients sont concer­nés par l’IA car leurs images sont ana­ly­sées par des radio­logues qui uti­lisent sou­vent des aides au diag­nos­tic. L’enjeu pour le patient est direc­te­ment lié à sa san­té et par­ti­cu­liè­re­ment aux urgences ou pour la détec­tion de can­cers. La qua­li­té des diag­nos­tics est liée à la manière de trai­ter leurs images, et pour la prise en charge médi­cale qui sui­vra s’il est néces­saire. De plus, en cas d’urgence le délai de prise en charge ou la pose de diag­nos­tic peuvent être raccourcis.
    • Radio­logues : L’IA est employée dans l’étude d’IM dans des stades d’étude pré-cli­niques et cli­niques, et les radio­logues sont les prin­ci­paux concer­nés par cette avan­cée. Elle assiste le radio­logue et lui per­met de sim­pli­fier et accé­lé­rer la lec­ture d’IM. L’arrivée de l’IA a fait subir lors des quatre der­nières années une réelle muta­tion aux radio­logues et devient aujourd’hui inévi­table pour ce métier d’après une inter­view avec un spé­cia­liste de l’IA. L’apport de l’IA dans le métier de radio­logue se carac­té­rise en un gain de temps sur l’analyse de images, et en un gain en confiance des diag­nos­tics car ils ont le contrôle d’un logi­ciel en plus. L’IA dimi­nue le stress qui pèse sur eux en limi­tant les erreurs qui sont humaines mais lourdes en res­pon­sa­bi­li­té et qui peuvent mener à des burn-out. Dans une enquête de la socié­té fran­çaise de la radio­lo­gie avec le sou­tien de GE Heal­th­care à l’occasion des jour­nées fran­co­phones de la radio­lo­gie de 2017, 82% des radio­logues pensent que l’IA peut amé­lio­rer la per­ti­nence des déci­sions cli­niques [31]. Ce chiffre montre que des outils d’IA sont bien reçus par la pro­fes­sion. D’après un entre­tien réa­li­sé auprès d’un interne en radio­lo­gie, les logi­ciels d’IA sont uti­li­sés assez régu­liè­re­ment (notam­ment Bone­View de Glea­mer pour la détec­tion des frac­tures) et sont vus comme une sécu­ri­té sup­plé­men­taire per­met­tant d’augmenter la sen­si­bi­li­té. Les IA qui leur sont par­ti­cu­liè­re­ment utiles sont celles per­met­tant de clas­ser les exa­mens prio­ri­taires (une image radio­gra­phique affi­chée comme patho­lo­gique par exemple). De plus, il a pré­ci­sé que les logi­ciels d’IA sont uti­li­sés sys­té­ma­ti­que­ment dans cer­taines situa­tions (en plus des ana­lyses réa­li­sées par les radio­logues) telles que pour la recherche de nodules pul­mo­naires afin de limi­ter les erreurs. Le retour réa­li­sé par cet interne a été très posi­tif par rap­port aux futures uti­li­sa­tions de l’IA en IM. Cepen­dant, il est impor­tant de prendre en compte la diver­si­té des avis des radio­logues aujourd’hui et notam­ment les réti­cences de cer­tains vis-à-vis des logi­ciels d’IA.
    • Cher­cheurs : Les cher­cheurs sont concer­nés par les avan­cées en termes d’innovations tech­no­lo­giques et l’IA est une avan­cée signi­fi­ca­tive dans le domaine de l’IM. Ils ont un rôle dans le déve­lop­pe­ment des nou­veaux outils et leurs uti­li­sa­tions ain­si que le croi­se­ment entre le domaine tech­nique qui concerne les DM et les outils d’aide au diagnostic.
    • Équipes médi­cales : Le corps médi­cal tra­vaille en lien avec le ser­vice d’IM et délivre des soins qui dépendent direc­te­ment du diag­nos­tic des radiologues.

    Fabricants 

    • Construc­teurs de dis­po­si­tifs d'IM : Dans un milieu aus­si concur­ren­tiel que celui des DM, celui des dis­po­si­tifs d'IM a une place impor­tante et les options ven­dues avec un pro­duit peuvent faire pen­cher la balance et influen­cer le mar­ché. L’IA est un élé­ment impor­tant qui est inté­gré dans les logi­ciels de post-trai­te­ment des images avec plu­sieurs appli­ca­tions sou­vent opti­mi­sées pour leurs équipements.
    • Déve­lop­peurs de logi­ciels de post-trai­te­ment : Les déve­lop­peurs de logi­ciels sont des entre­prises à taille variable ou des start-ups et ils jouent un rôle essen­tiel dans l’innovation, qui repré­sente un mar­ché très concur­ren­tiel où la pro­duc­tion de nou­veau­tés peut créer la dif­fé­rence. Les IA sont beau­coup uti­li­sées dans le déve­lop­pe­ment de nou­veaux outils des­ti­nés aux radio­logues et leur concep­tion dépend de chaque moda­li­té et type d’anatomie qui est observée.

    Acteurs indirects 

    • Direc­tion des centres de san­té : La direc­tion a un rôle de vali­da­tion ou non des achats. Elle peut choi­sir de mettre en avant l’innovation en employant des tech­niques ou équi­pe­ments nova­teurs qui n’ont pas été adop­tés par l’ensemble des éta­blis­se­ments par exemple.
    • Ser­vice bio­mé­di­cal : Le ser­vice bio­mé­di­cal est le ser­vice char­gé des achats, puis de l’entretien des solu­tions tech­niques qu’ils four­nissent aux dif­fé­rents ser­vices de l’hôpital.
    • Orga­nismes légis­la­tifs : Les orga­nismes légis­la­tifs entrent en jeu lors de la créa­tion d’un DM. Si un logi­ciel uti­li­sant l’IA est un DM, il est sou­mis à la même régle­men­ta­tion que les autres DM avec les règles de clas­si­fi­ca­tions asso­ciées aux risques.
    • Admi­nis­tra­teurs des sys­tèmes d’information : Ils s'occupent des sys­tèmes infor­ma­tiques et doivent s’assurer que les infor­ma­tions entre les dif­fé­rents sys­tèmes infor­ma­tiques de l'hôpital peuvent être com­mu­ni­quées entre eux.

    L’IA concerne donc plu­sieurs acteurs de la san­té qui inter­viennent à dif­fé­rents moments dans l’offre de soins (voir Figure n°10).

     Figure n°10 : Diagramme des différents acteurs de l’IA en IM (source : auteurs) 

    III - L'offre en IA proposée aux radiologues

    Le bench­mark qui suit ne sera pas une liste exhaus­tive des IA dans l’IM car le nombre de logi­ciels déve­lop­pés ne cesse d’évoluer : les recen­ser sor­ti­rait du but de ce pro­jet. Une liste d’IA qui sont com­mer­cia­li­sées pour don­ner des exemples dans des appli­ca­tions variées en IM seront pré­sen­tées. Les inter­views qui ont été réa­li­sées sont éga­le­ment des sources d’informations impor­tantes pour ce benchmark.

    A) Méthodologie 

    Dans le cadre des recherches pour ce pro­jet, et dans le but de se l’approprier en pro­fon­deur et de réa­li­ser un bench­mark, six inter­views avec des acteurs du milieu de l’IA dans l’IM ont été réa­li­sées. Par­mi ces per­sonnes, des ven­deurs d’IA dans des star­tup, des déve­lop­peurs tra­vaillant chez des construc­teurs et des spé­cia­listes de dif­fé­rentes moda­li­tés uti­li­sant l’IA ont accep­té de répondre à des ques­tions en lien avec ce pro­jet. La diver­si­té des pro­fils inter­ro­gés étant très riche, voi­ci un résu­mé des infor­ma­tions acquises lors des inter­views réa­li­sées dans le cadre de ce rapport.

    Les élé­ments obte­nus lors des entre­vues concernent les types d’IA, en fonc­tion des appli­ca­tions de ces der­nières, et prin­ci­pa­le­ment l’amélioration de l’image et l’aide au diag­nos­tic lors du post-trai­te­ment. Il existe éga­le­ment plu­sieurs indi­ca­teurs de per­for­mance d’une IA, détaillés dans ce dos­sier dans la par­tie éva­lua­tion. Des docu­men­ta­tions trai­tant de l’IA d’un concep­teur d’IA en IM ont éga­le­ment été four­nies lors d’une inter­view, ain­si que des infor­ma­tions au sujet des bases de don­nées qui aident à entraî­ner une IA et l'importance des anno­ta­tions. En effet, un logi­ciel d’IA a besoin d’avoir des pré­ci­sions sur les images qui lui sont don­nées pour être effi­cace et la qua­li­té des anno­ta­tions sera direc­te­ment liée à celle des ana­lyses de l’IA.

    B) Acquisition de l'image et IA

    L’IA peut inter­ve­nir dès l’acquisition de l’image. Selon la moda­li­té, dif­fé­rentes appli­ca­tions sont pos­sibles : l’IA a pour but d’améliorer l’installation du patient, sim­pli­fier les actions des mani­pu­la­teurs en radio­lo­gie et réduire les doses de rayons X reçues par le patient.

    Par exemple en Scan­ner, le logi­ciel Pre­cise Posi­tion de Phi­lips (voir Figure n°11) per­met, à l’aide d’une camé­ra fixée au pla­fond au-des­sus de la table qui va détec­ter dif­fé­rents points d’anatomie en s’appuyant sur les pro­fon­deurs et cou­leurs, de posi­tion­ner auto­ma­ti­que­ment le patient de façon à pou­voir prendre des cli­chés dans les meilleures condi­tions pos­sibles. Cela évite ain­si d’obtenir des images non-inter­pré­tables et de recom­men­cer l’installation du patient, fai­sant gagner jusqu’à 23% du temps de l’acte médi­cal [32].

    Figure n°11 : Interface du logiciel Precise Position de Philips (source : Philips.fr) 

    De plus, il est pos­sible d’éviter d’irradier, pour les moda­li­tés employant les rayons X, une zone qui ne devrait pas être expo­sée aux rayons grâce à cette tech­no­lo­gie, d’après un spé­cia­liste de la moda­li­té de chez Phi­lips. En effet, en choi­sis­sant auto­ma­ti­que­ment le bon site à visua­li­ser dès la pre­mière séquence de l’examen, il ne sera pas néces­saire de refaire d’autres cli­chés. Ain­si, le temps durant lequel le patient est sou­mis aux rayons est réduit et leur dif­fu­sion dans la zone de l’endroit irra­dié sera mini­mi­sée. L’IA peut amé­lio­rer la qua­li­té d’une image pour la rendre plus lisible en atté­nuant le bruit. Sachant que la qua­li­té d’une image est liée à la durée d’un exa­men, il est pos­sible de limi­ter cette durée et la dose de radia­tions absor­bée par le patient. Pour les exa­mens d’IRM, cette amé­lio­ra­tion de la qua­li­té de l’image per­met­tra de dimi­nuer la durée des exa­mens qui est rela­ti­ve­ment longue (15 à 30 min).

    L’utilisation de l’IA ne s’arrête pas là, elle peut éga­le­ment être employée dans le reca­lage entre les images. Lorsqu’un même patient réa­lise plu­sieurs cli­chés de moda­li­tés dif­fé­rentes, le radio­logue doit toutes les inter­pré­ter et il peut être dif­fi­cile de se repé­rer. Chez GE, une IA peut lan­cer une ana­lyse auto­ma­tique entre deux moda­li­tés dif­fé­rentes : il est ain­si pos­sible de savoir quel pixel d’une image d’une IRM cor­res­pond à quel pixel de celle d’un scanner.

    Enfin, une autre appli­ca­tion est l’amélioration du workflow.Cela per­met d’accélérer la prise en charge du patient et la pose de son diag­nos­tic en favo­ri­sant l’échange de ses infor­ma­tions entre dif­fé­rents acteurs et sys­tèmes. Par exemple chez GE, l’Intel­li­gent Pro­to­co­ling Work­flow [33]  per­met au doc­teur géné­ra­liste rece­vant un patient ayant des dou­leurs au foie d’envoyer direc­te­ment son ordon­nance à un hôpi­tal pour lui faire pas­ser un scan­ner de l’abdomen. L’Intelligent Pro­to­co­ling va par la suite ana­ly­ser les don­nées reçues et, en fonc­tion des pro­cé­dures de l’établissement, choi­sir par­mi plu­sieurs pro­to­coles d’acquisition celui qui sera le plus adap­té. Ce pro­to­cole est ensuite envoyé au scan­ner et la par­tie à visua­li­ser sera sélec­tion­née auto­ma­ti­que­ment, qui, dans ce cas, sera l’abdomen. Les don­nées récol­tées seront ensuite trans­mises au radio­logue. Cette auto­ma­ti­sa­tion per­met de gagner du temps et d’améliorer la qua­li­té de l’examen global.

    C) Reconstruction de l’image et IA 

    L’IA peut éga­le­ment être uti­li­sée lors de la recons­truc­tion de l’image afin de réduire au maxi­mum le bruit et les arté­facts qui peuvent para­si­ter le signal : il est alors plus simple de tra­vailler dans le domaine spec­tral. Pour cela, des trans­for­ma­tions de Fou­rier sont réa­li­sées et des fré­quences sont ain­si obte­nues. L’IA s’appuie sur une base de don­nées rem­plies d’images brui­tées avec des arté­facts récur­rents et est entraî­née pour les recon­naître via leurs fré­quences : il s’agit dans ce cas du Deep Lear­ning. De cette manière, l’IA est capable d’éliminer auto­ma­ti­que­ment ces élé­ments indé­si­rables lors de la recons­truc­tion de l’image qui, une fois affi­chée au radio­logue, sera moins floue avec un rap­port signal sur bruit (S/B) aug­men­té, et donc avec moins de bruit et d’artéfacts. Par ailleurs, le temps d’acquisition peut être réduit, pas­sant de 1 minute et 55 secondes à 1 minute et 18 secondes grâce à la tech­no­lo­gie Air Recon DL de GE en IRM par exemple [34] (voir Figure n°12).

    Figure n°12 : Application de l’IA Air Recon DL de GE, permettant de réduire le bruit et le temps d’acquisition en scanner (source : gehealthcare.com) 

    Pour le moment, tous les logi­ciels d’IA de recons­truc­tion d’images déjà com­mer­cia­li­sés ne fonc­tionnent que sur celles qui sont en 2D, puis la recons­truc­tion en 3D est pos­sible. Phi­lips compte bou­le­ver­ser ce mar­ché dans les années à venir en pro­po­sant de tra­vailler direc­te­ment sur les images en 3D grâce à SmartS­peed. Concer­nant le prix des IA, il peut varier gran­de­ment selon les fonc­tion­na­li­tés : chez Phi­lips, il va de 50 000 € à 100 000 € pour les IRM d’après un spé­cia­liste de la moda­li­té de chez Phi­lips. L'IA en IRM est davan­tage uti­li­sée par rap­port aux autres moda­li­tés car l’acte médi­cal est celui qui est le plus coû­teux et il y a une mul­ti­tude d’images issues des dif­fé­rentes séquences. Cepen­dant, il y a de nom­breux logi­ciels pour chaque moda­li­té ayant tous la même fina­li­té : recons­truire l’image en aug­men­tant au maxi­mum le S/B. GE four­nit, entre autres, deux logi­ciels per­met­tant d’améliorer la qua­li­té de l'image : Air Recon DL en IRM et True Fide­li­ty en Scan­ner. Il existe éga­le­ment d’autres logi­ciels avec le même but en écho­gra­phie tel que Smart Face de Min­dray [35] ou Subt­le­Pet de Incep­to en TEP-Scan [36].

    L’IA uti­li­sée pour la recons­truc­tion de l’image s’avère donc utile et per­met de faci­li­ter la lec­ture pour le radio­logue en pro­po­sant un meilleur ren­du. D’autres types d’IA ont une toute autre uti­li­sa­tion et sont déjà uti­li­sés en cli­nique depuis un moment : il s’agit des IA d’analyse de l’image.

    D) Analyse de l’image et IA 

    Les IA d’analyse de l’image existent et sont uti­li­sées depuis long­temps com­pa­rées à celles de recons­truc­tion de l’image qui sont plu­tôt récentes, bien que toutes les deux ont recours au Deep Lear­ning. Dans un pre­mier temps, l’image va être clas­si­fiée en attri­buant un label à chaque image. Puis vient une par­tie bien plus inté­res­sante qui est la détec­tion d’une posi­tion d’intérêt : il est ain­si pos­sible de deman­der à un réseau de neu­rones de détec­ter une tumeur par exemple. Le champ d’application de l’IA s’agrandit consi­dé­ra­ble­ment dans ce domaine car il est pos­sible de réa­li­ser une mul­ti­tude d’actions. Chez GE (Gene­ral Elec­tric) par exemple, il existe un grand pôle de déve­lop­pe­ment autour de la seg­men­ta­tion qui per­met de sépa­rer dif­fé­rents organes dans une image tout en les clas­si­fiant, ces infor­ma­tions ont été acquises lors d’un entre­tien avec un déve­lop­peur d’IA de chez Gene­ral Elec­tric. Cela est ren­du pos­sible grâce au fait que l’IA “se demande” à quel organe appar­tient chaque pixel de l’image et va donc les clas­ser en fonc­tion de cela. Il est éga­le­ment pos­sible d’obtenir entre autres une label­li­sa­tion auto­ma­tique des élé­ments recher­chés, une détec­tion des tumeurs, etc. Par la suite, des exemples d’application de l’IA en ana­lyse de l’image par moda­li­té sera présentée.

    • IRM 

    Keros de Incep­to per­met de détec­ter et ana­ly­ser l'ampleur des lésions de liga­ments, de ménisques et de car­ti­lages en affi­chant un sys­tème de sco­ring en cou­leur (voir Figure n°13). Dans la par­tie à gauche, des indi­ca­tions cli­niques concer­nant la bles­sure du patient sont don­nées. Pour aider le radio­logue, une repré­sen­ta­tion en 2D de la zone obser­vée est repro­duite avec l’image de base sur la droite. Sur ce modèle, les zones nor­males sont en vert tan­dis que les zones qui ne le sont pas sont signa­lées en rouge. Cela per­met, en un coup d’œil rapide, d’identifier l’endroit à risque. De plus, ce logi­ciel est éga­le­ment com­pa­tible avec les PACS et consoles de revue, per­met­tant ain­si aux radio­logues d'obtenir un rap­port détaillé ou syn­thé­tique au choix [37].

    Figure n°13 : Keros, IA de détection des lésions du genou pour l’IRM (source : incepto-medical.com) 

    Pixyl.Neuro.MS (voir Figure n°14) est une autre IA d’Incepto per­met­tant cette fois-ci d’être une aide au diag­nos­tic et d’assurer le sui­vi de la sclé­rose en plaques d’un patient. Après une IRM du cer­veau, cha­cune de ses régions est ana­ly­sée : le nombre de lésions est comp­té et leur volume glo­bal est cal­cu­lé. En plus de cela, les contours de ces lésions sont mis en valeur sur les images au for­mat DICOM grâce à une légende en cou­leur qui per­met de dif­fé­ren­cier les nou­velles lésions, celles qui ont aug­men­té en taille et celles qui sont stables. Ces résul­tats sont visibles dans l’espace de lec­ture habi­tuel du radio­logue, ce qui per­met de ne pas le désta­bi­li­ser, et au contraire lui four­nir davan­tage d’informations. De la même manière que l’IA Keros, un rap­port détaillé ou syn­thé­tique au choix est auto­ma­ti­que­ment géné­ré [38].

    Figure n°14 : Pixyl.Neuro.MS, IA d’aide au diagnostic et du suivi de la sclérose en plaques (source : incepto-medical.com) 
    • Tomo­den­si­to­mé­trie - Scan­ner 

    L’IA CT Bone Rea­ding de Sie­mens per­met de géné­rer des images de déploie­ment des côtes et numé­rote auto­ma­ti­que­ment ces der­nières ain­si que les épines tho­ra­ciques ce qui faci­lite la tâche du radio­logue dans la détec­tion des méta­stases osseuses tho­ra­ciques du can­cer du sein [39]. Il est éga­le­ment pos­sible d’ajouter des notes direc­te­ment sur ces labels. Cette IA pro­pose dif­fé­rentes vues pos­sibles, ce qui offre une vision glo­bale au radio­logue. Sur la figure n°15 ci-des­sous, l’image a) repré­sente les côtes déployées. Ces der­nières peuvent être orien­tées dans plu­sieurs sens via la molette de la sou­ris ou en cli­quant sur les icônes en bas de l’écran. Si le radio­logue clique sur une zone par­ti­cu­lière de l’image a), alors des coupes sagit­tales coro­nales, trans­ver­sales et per­pen­di­cu­laires des côtes sont affi­chées en même temps (res­pec­ti­ve­ment : images b), c), d) et e)). Les coupes sagit­tales et coro­nales des ver­tèbres tho­ra­ciques sont éga­le­ment consul­tables sur les images f) et g). Enfin, l’image h) repré­sente une vue zoo­mée trans­verse des der­nières coupes.

    Figure n°15 : CT Bone Reading, IA de labellisation des côtes (source : siemens-healthineers.com) 

    En ima­ge­rie inter­ven­tion­nelle, le méde­cin peut injec­ter au patient des pro­duits qui ont pour voca­tion de tuer les cel­lules tumo­rales comme les chi­mioem­bo­li­sa­tions et les radioem­bo­li­sa­tions. Pour cela, un tube cathé­ter est insé­ré dans le patient au niveau fémo­ral et remonte jusqu’au foie. Pour voir où le méde­cin se situe et savoir s’il est au bon endroit, des rayons X sont envoyés et récu­pé­rés via des détec­teurs de l’autre côté. Le méde­cin peut ain­si voir les images en temps réel. De plus, il est pos­sible de tour­ner le tube autour du patient afin d’avoir des coupes en 3D. Désor­mais, GE pro­pose de seg­men­ter le foiea­vec son logi­ciel Liver ASSIST Vir­tual Paren­chy­ma [40] pour que le méde­cin puisse auto­ma­ti­que­ment voir le volume du foie du patient et com­prendre le rap­port entre les artères qu’il voit et le foie. Il est éga­le­ment pos­sible de savoir quel vais­seau est atta­qué grâce à une ana­lyse des vais­seaux et du bord du foie. Sur la figure n°16 ci-des­sous, quatre vues sont affi­chées simul­ta­né­ment : la pre­mière repré­sente une repré­sen­ta­tion en 3D du foie avec une mise en valeur des artères et de la zone tumo­rale entou­rée en bleu. Puis res­pec­ti­ve­ment, les coupes coro­nales, sagit­tales et axiales sont affichées.

    Figure n°16 : Liver ASSIST Virtual Parenchyma, IA de segmentation du foie (source : gehealthcare.com) 
    • Radio­gra­phie 

    Étant don­né le contexte actuel avec la crise sani­taire, la Covid-19 est une grande pré­oc­cu­pa­tion au sein des hôpi­taux. Encore une fois, l’IA a su se rendre utile en étant capable de détec­ter et clas­ser des cas de Covid-19 en uti­li­sant des images radio­gra­phiques cou­plées à des cartes ther­miques mon­trant une plus grande zone de cha­leur dans les pou­mons des cas de Covid (voir Figure n°17). Tout d’abord, le modèle d'apprentissage pro­fond Dark­Co­vid­Net [41] a été entraî­né pour clas­ser les images radio­gra­phiques en trois classes : Covid-19, No-Fin­dings, Pneu­mo­nia. Puis, il a fina­le­ment été entraî­né à ne détec­ter que deux classes : Covid-19 et No-Findings.

    Figure n°17 : DarkCovidNet, IA de détection et classification du Covid-19 (source : sciencedirect.com) 

    Quant à Smar­tUr­gences de Mil­vue, l’objectif est de prio­ri­ser et trier les radio­gra­phies d’urgences pour aider à la détec­tion d’anomalies tho­ra­ciques et en trau­ma­to­lo­gie. L’IA est donc capable de détec­ter des ano­ma­lies ana­to­miques afin de faire res­sor­tir au radio­logue les cli­chés qui devront néces­si­ter son atten­tion (voir Figure n°18) avec les zones anor­males enca­drées en vert. Cette IA per­met éga­le­ment d’établir des comptes ren­dus pré-docu­men­tés faciles et rapides. Mil­vue pro­pose aus­si Smar­tEx­pert, une IA qui per­met de mesu­rer auto­ma­ti­que­ment et ana­ly­ser en temps réel des dis­tances sur les radio­gra­phies [42].

    Figure n° 18 : SmartUrgences, IA de détection de pathologies thoraciques (source : challenges.fr/start-up/milvue.fr) 
    • Mam­mo­gra­phie 

    En mam­mo­gra­phie, le logi­ciel Mam­mos­creen de The­ra­pixel est uti­li­sé pour les can­cers du sein afin de détec­ter et qua­li­fier faci­le­ment, via un sys­tème de sco­ring, si un tis­su est can­cé­reux ou non (voir Figure n°19). Pour cela, l'IA a été entraî­née pour recon­naître des lésions can­cé­reuses. Sur la Figure n°19, quatre images repré­sen­tant les inci­dences crâ­nio-cau­dales et médio­la­té­rales obliques de chaque sein sont affi­chées. Les masses seront entou­rées et accom­pa­gnées d’un score et d’une légende en rouge en cas de sus­pi­cions de tumeurs, et en jaune si l’IA est incer­taine. Sur la par­tie haute de l’application se trouve une légende avec des recom­man­da­tions adres­sées au radio­logue, et en bas se trouve une échelle per­met­tant d’identifier faci­le­ment quels sont les seins atteints. Il est éga­le­ment pos­sible d’ajuster le fil­trage [43].

    Figure n°19 : Mammoscreen, IA de détection du cancer du sein (source : mammoscreen.com) 

    Dans la même optique, Breast-Slim­View de la Hera-Mi per­met d’homogénéiser tous les élé­ments phy­sio­lo­giques du sein (les vais­seaux, les tis­sus conjonc­tifs, la glande mam­maire, les muscles et la graisse) afin de faci­li­ter l’interprétation du radio­logue en lui per­met­tant de se foca­li­ser sur les zones sus­pectes (voir Figure n°20) [44].

    Figure n° 20 : Breast-SlimView, IA d’aide au diagnostic du cancer du sein (source : mammoscreen.com) 
    • Echo­gra­phie 

    En écho­gra­phie, le logi­ciel Smart Face CNS de Min­dray per­met de détec­ter auto­ma­ti­que­ment et avec pré­ci­sion les plans de coupes les plus impor­tants du Sys­tème Ner­veux Cen­tral fœtal (voir Figure n°21). Cela per­met ain­si de faci­li­ter le diag­nos­tic et d’obtenir un maxi­mum d’informations per­met­tant d’assurer la bonne san­té et le bon sui­vi du fœtus [35].

    Figure n°21 : Smart Face CNS, IA de détection des meilleurs plans de coupes du SNC fœtal (source : mindray.com) 

    Cap­tion AI per­met quant à lui de gui­der les pra­ti­ciens dans la réa­li­sa­tion d’examens écho­gra­phiques car­diaques. Il montre aux uti­li­sa­teurs en temps réel à quel point ils sont proches de cap­tu­rer une image écho­gra­phique de qua­li­té et four­nit une aide au posi­tion­ne­ment de la sonde pour chaque exa­men (voir Figure n°22) grâce à l’indicateur de la qua­li­té du signal de l’échographie en haut à gauche et les conseils des­ti­nés aux pra­ti­ciens en haut au centre. Sur la droite, il est éga­le­ment pos­sible de visua­li­ser une image de réfé­rence et une indi­ca­tion de la zone à visua­li­ser. De plus, pour les écho­gra­phies car­diaques, il per­met de cal­cu­ler la frac­tion d'éjection (pour­cen­tage de sang quit­tant le cœur chaque fois qu’il se contracte) [45].

    Figure n°22 : Caption AI, aide à la réalisation d’échographies de qualité (source : captionhealth.com) 
    • PET-Scan 

    Concer­nant le PET-Scan, le logi­ciel PET VCAR de GE per­met de com­pa­rer plu­sieurs moda­li­tés (PET-Scan, scan­ner et IRM) afin de s'assurer que le patient réponde bien au trai­te­ment qui lui a été admi­nis­tré (voir Figure n°23). Cela res­semble à la seg­men­ta­tion décrite pré­cé­dem­ment, avec la cor­res­pon­dance des pixels [46].

    Figure n°23 : PET VCAR, IA pour déterminer si le traitement du patient fonctionne (source : gehealthcare.com) 

    Il existe donc une mul­ti­tude d’IA en IM, cha­cune ayant une fina­li­té. Afin de mieux visua­li­ser celles pré­sen­tées pré­cé­dem­ment, des tableaux réca­pi­tu­la­tifs sont dis­po­nibles ci-dessous. 

    • Acqui­si­tion de l’image et IA 
    Tableau n° 1 : Exemples d’IA d’acquisition de l’image 

    D’autres appli­ca­tions existent en déve­lop­pe­ment et per­mettent de super­po­ser les pixels cor­res­pon­dant aux moda­li­tés d’IRM et de Scan­ner et aug­men­ter ain­si les capa­ci­tés de diag­nos­tic et de vitesse. 

    • Recons­truc­tion de l’image et IA 
    Tableau n° 2 : Exemples d’IA de reconstruction de l’image 
    • Ana­lyse de l’image et IA 
    Tableau n° 3 : Exemples d’IA pour l’analyse d’images médicales 

    Toutes ces solu­tions pré­sen­tées sont des outils d’aide au diag­nos­tic : l’IA en tant que telle ne per­met pas de déli­vrer un diag­nos­tic, seul le radio­logue est apte à le faire. L’IA peut néan­moins par­ti­ci­per à un diag­nos­tic dit pré­dic­tif en anti­ci­pant la pro­gres­sion d’une mala­die en ana­ly­sant la réponse au trai­te­ment du patient. Elle peut éga­le­ment per­mettre d’éviter des erreurs sur des cli­chés extrê­me­ment dif­fi­ciles ou au contraire très simples. En effet, l’erreur est humaine et peut sur­ve­nir à tout moment, sur­tout lorsque l’on connaît les horaires et condi­tions de tra­vail des radio­logues qui peuvent être difficiles.


    IV – Critères d’évaluation et limites de l’IA 

    A) Facteurs de décision pour l'achat d'une IA

    Les radio­logues peuvent se sen­tir sub­mer­gés par les offres d’IA. Il est donc néces­saire qu’ils puissent s’appuyer sur des cri­tères pré­cis afin d’être gui­dés lors du pro­ces­sus d’achat. Pour cela, un guide nom­mé ÉCLAIR gui­de­lines per­met de les aider à mieux choi­sir l’IA qui leur convien­drait [29].

    La pre­mière chose à faire avant d’acheter une IA est de défi­nir le besoin des radio­logues : il faut bien se deman­der dans quel cas ils sou­hai­te­raient uti­li­ser l’IA et ce qu’elle pour­rait leur appor­ter. Étant don­né que l’IA peut être uti­li­sée pour dif­fé­rentes indi­ca­tions cli­niques, il est donc aus­si néces­saire de se pen­cher sur cette ques­tion. Cette étude glo­bale per­met ain­si d’instaurer un cadre et savoir dans quelle direc­tion il faut aller. En effet, ache­ter une fonc­tion­na­li­té qui ne sera pas uti­li­sée serait une perte d’argent. Par la suite, il y a une ana­lyse béné­fices-risques à faire car l’IA peut être sujet à des erreurs et dan­gers pou­vant entraî­ner la res­pon­sa­bi­li­té des radio­logues. Pour cela, il est pos­sible de se réfé­rer à « la matrice d’évaluation des risques et l’analyse béné­fices-risques dans le dos­sier tech­nique régle­men­taire four­ni par le four­nis­seur » [29].

    Il y a éga­le­ment des contraintes maté­rielles qu’il faut prendre en compte. Tout d’abord, il est néces­saire d’avoir à dis­po­si­tion du maté­riel et des infra­struc­tures infor­ma­tiques com­pa­tibles et suf­fi­sam­ment per­for­mantes et puis­santes avec l’IA. Cela peut rapi­de­ment faire aug­men­ter les dépenses de l’hôpital. Il faut éga­le­ment prendre en compte les modules en option, l’installation logi­cielle et maté­rielle, la for­ma­tion du per­son­nel et les main­te­nances cura­tives et pré­ven­tives. Il y a donc une réelle étude des coûts des équi­pe­ments à réa­li­ser. Côté logi­ciel, il faut éga­le­ment pré­voir les futures mises à jour : seront-elles com­prises lors de l’achat de l’IA ou fau­dra-t-il encore débour­ser ? Il en est de même pour la licence qui peut être acquise selon dif­fé­rentes for­mules : men­suelle, annuelle, à vie ou bien à chaque uti­li­sa­tion - Soft­ware as a Ser­vice (SaaS) [47]. Cette der­nière et l’utilisation renou­ve­lable par mois sont pour le moment les plus appré­ciées car l’IA reste une option coû­teuse et elle n’est pas tout le temps uti­li­sée par les radiologues.

    Enfin, le côté évo­lu­tif de l’IA, s’appuyant sur des cli­chés de haute qua­li­té, peut poser pro­blème dans un éta­blis­se­ment de san­té où les images ne sont pas tou­jours par­faites. Afin de s’améliorer, l’IA doit res­pec­ter des cri­tères de répé­ta­bi­li­té et de repro­duc­ti­bi­li­té qu’il faut donc consi­dé­rer. De plus, il faut que l’IA soit com­pa­tible et inté­grée au sys­tème PACS et facile à uti­li­ser. En effet, si l’outil est dif­fi­cile à prendre en main ou ne fonc­tionne pas bien en fond mul­ti­tâche, cela peut créer des confu­sions pour l’équipe et donc retar­der le diag­nos­tic déli­vré suite à l’analyse des clichés.

    Il y a donc plu­sieurs fac­teurs de déci­sion à prendre en compte pour l’achat d’une IA en IM.

    B) Critères d’évaluation d’une IA 

    De par le manque d’outils concrets, il n’est pas facile pour tous les radio­logues d’évaluer les solu­tions d’IA qui leur sont pro­po­sées. Plu­sieurs points de réflexion sont pro­po­sés dans cette par­tie [48].

    Com­prendre les élé­ments clés de concep­tion d’un logi­ciel per­met de mieux défi­nir ses points d’évaluation. Les logi­ciels d’IA gagnent en qua­li­té et per­for­mance selon la taille de leur base de don­nées et les cri­tères d'entraînement. Il faut donc s’attarder sur ces points.

    Comme pré­sen­té dans l’article « Don­ner un sens à l’intelligence arti­fi­cielle : pour une stra­te­gie natio­nale et euro­péenne » de M. Gau­the­rot et al., il y a quatre cri­tères très impor­tants qui peuvent ser­vir de points d’appui pour les futurs acqué­reurs de solu­tions d’IA ou pour des édi­teurs de logi­ciels qui auront besoin de com­pa­rer les pro­duits de leur catalogue.

    • La qua­li­té de la base de don­nées 

    Pre­miè­re­ment, il y a la qua­li­té de l’apprentissage qui reflète celle de la base de don­nées. La taille de cette base est impor­tante car plus elle contient de don­nées, plus l’IA apprend à par­tir d’informations et de mises en forme dif­fé­rentes, et moins il y aura d’inconnues. Cela per­met de réduire le taux de faux positifs/faux néga­tifs ain­si que la pro­ba­bi­li­té que l’IA ren­contre une situa­tion qu’elle pour­rait mal inter­pré­ter. De ce fait, l’IA par­vien­dra plus faci­le­ment à ana­ly­ser un nou­veau cli­ché en s’appuyant de ce qu’elle aura déjà connu aupa­ra­vant. Ce méca­nisme est sem­blable à l’apprentissage humain : si un enfant apprend à recon­naître des images d’un ani­mal vu sous dif­fé­rents aspects, il sau­ra mieux le recon­naître la pro­chaine fois qu’il en ver­ra un. Un autre élé­ment essen­tiel est le fait que l’IA puisse s’entraîner sur des images de qua­li­té dif­fé­rentes (plus ou moins brui­tées) pro­ve­nant de patients dif­fé­rents car cela amé­liore la repré­sen­ta­ti­vi­té de l’IA et elle sera ain­si capable de tra­vailler sur des cli­chés de mau­vaise qua­li­té. Un uti­li­sa­teur d’imagerie plu­tôt novice pour­rait tout de même exploi­ter son image grâce à l’IA, même avec un cli­ché moins bien réus­si qu’un expert. 

    • La qua­li­té des anno­ta­tions 

    Le second grand axe d’évaluation est l’annotation des don­nées. Cette étape a lieu lors de la prise d’un cli­ché : les élé­ments d’intérêt comme la pré­sence d’une frac­ture ou d’une tumeur par exemple sont ren­sei­gnés, ce qui per­met d’aider et d'aiguiller le diag­nos­tic de l'IA. Des anno­ta­tions de bonnes qua­li­tés sont pré­cises spa­tia­le­ment et ne com­portent pas d’erreur. Elles sont faites par des radio­logues spé­cia­listes et experts dans leurs domaines, et auront donc plus de valeur que celles de néo­phytes. Si le pro­ces­sus d'annotation com­prend plu­sieurs radio­logues experts, l’utilisateur aura une plus grande confiance et la qua­li­té sera d’autant plus amé­lio­rée. C'est pour­quoi il est impor­tant de connaître les pro­fils des indi­vi­dus (métiers, expé­riences, com­pé­tences...) ayant anno­té les don­nées. Les don­nées sont véri­fiées plu­sieurs fois, ce qui fait que les défauts d’annotations sont moindres. Cela prend beau­coup de temps et repré­sente donc un point d’évaluation essen­tiel : la robus­tesse de la solu­tion en dépend.

    • Méthode d’entrainement 

    Le troi­sième point d’évaluation est l'entraînement qui condi­tionne l’apprentissage. Pour aug­men­ter les per­for­mances de l’IA, il est dif­fi­cile mais bon d’utiliser des images de mau­vaise qua­li­té pour élar­gir son champ d’action. Cela se fait sou­vent avec du Deep Lear­ning, il faut donc un volume de don­nées impor­tant et il peut être judi­cieux de se deman­der d'où viennent les don­nées. Dans le cas d’un construc­teur, l'entraînement se fait sou­vent sur des cli­chés de leurs machines d’imagerie alors que pour les IA déve­lop­pées par des petites entre­prises, il y a sou­vent des par­te­na­riats. La diver­si­té des ori­gines des don­nées per­met d’augmenter la qua­li­té de l’apprentissage. Si l'entraînement ne se fait qu’avec des don­nées simi­laires, l’IA pour­ra dif­fi­ci­le­ment four­nir des résul­tats cor­rects. Il faut donc véri­fier que lors du déve­lop­pe­ment du logi­ciel, des jeux de don­nées dif­fé­rents aient été uti­li­sés :  un jeu pour l'entraînement, un second pour per­fec­tion­ner les déci­sions de l’IA et un der­nier pour éva­luer l’exactitude des résul­tats. Dans le cadre de l’Imagerie Médi­cale, il faut que ces don­nées viennent de patients dif­fé­rents pour prendre en compte la varia­bi­li­té entre deux indi­vi­dus, sinon les résul­tats seront biai­sés. La dif­fi­cul­té est donc d’avoir une IA per­for­mante à la fois sur les don­nées qu’elle aura ren­con­trées lors de son appren­tis­sage et sur d’autres incon­nues car sans cela, elle n’a aucun inté­rêt médical. 

    • Uti­li­ser une méthode d'évaluation adap­tée 

    Pour éva­luer une solu­tion d’IA, il convient de pou­voir la com­pa­rer à une réfé­rence qui peut être des experts indé­pen­dants comme des radio­logues experts dans leurs domaines. Il faut pou­voir com­pa­rer sur de nom­breux cas avec plu­sieurs d’entre eux. Si l’IA donne des résul­tats sem­blables à ceux des réfé­rences, le modèle peut être validé. 

    Pour finir, pour éva­luer concrè­te­ment une IA, il faut connaître les taux de vrais posi­tifs, vrai néga­tifs, faux posi­tifs et faux néga­tifs (voir Tableau n°4).

    Tableau n°4 :  Méthode d’évaluation de l’IA selon les taux de vrai positifs/négatifs et faux positifs/négatifs 

    Avec une IA qui donne un grand nombre de faux posi­tifs, beau­coup de patients ne seront pas diag­nos­ti­qués cor­rec­te­ment. Cela sera ampli­fié si les radio­logues n’ont pas le réflexe de véri­fier les résul­tats don­nés par l’IA. Évi­dem­ment la confiance accor­dée à une solu­tion dépend de son taux de vrais posi­tifs et néga­tifs : ces pour­cen­tages doivent être très proches de 100%. Ce sont donc des points de com­pa­rai­son très inté­res­sants et com­pré­hen­sibles pour un praticien. 

    • Aspects régle­men­taires et aide à la déci­sion d’achat 

    Omou­mi et al. ont publié un article sur des ques­tions per­ti­nentes à poser aux four­nis­seurs [29].

    D’un point de vue régle­men­taire, il faut éga­le­ment s’assurer du mar­quage CE des logi­ciels. Des réflexions sont en cours sur des méthodes de cer­ti­fi­ca­tion des IA. Le prin­cipe serait sem­blable à des contrôles métro­lo­giques par des orga­nismes cer­ti­fiés. Le but serait d’élaborer des pro­to­coles de test d’IA. Cédric Vil­la­ni a d'ailleurs mon­tré ce besoin dans son rap­port sur l’IA en mars 2018 [49]. Concrè­te­ment, il sera pos­sible d’évaluer les IA uni­que­ment sur leur capa­ci­té à four­nir un bon résul­tat. Cepen­dant dans le cas de la san­té, il serait plus judi­cieux d'approfondir sans se baser seule­ment sur le taux d’erreur. En effet, il faut notam­ment prendre en compte la pré­ci­sion des IA de seg­men­ta­tion ou la perte de signal pour une IA qui modi­fie la qua­li­té d’une image par exemple.

    La robus­tesse de l’IA est impor­tante et peut être éva­luée en la confron­tant à un grand nombre de don­nées diverses et incon­nues. Si elle est robuste, l’IA conti­nue­ra de répondre posi­ti­ve­ment face aux pro­blèmes posés au fur et à mesure du défi­le­ment des données. 

    Pour objec­ti­ver sa méthode d’évaluation, poser des ques­tions sur le déve­lop­pe­ment des IA per­met de répondre aux points pré­sen­tés ci-des­sus. Cer­taines IA ne sont entraî­nées que par des images d’un même construc­teur, il est donc judi­cieux de savoir si cette tech­no­lo­gie est appli­cable avec d’autres machines d’imagerie. Cepen­dant, elles res­tent sou­vent opti­mi­sées que pour un four­nis­seur : les IA de fabri­cants géné­ra­listes ne seront dis­po­nibles que pour des machines défi­nies. Les IA déve­lop­pées par des start-ups sont sou­vent entraî­nées sur des don­nées issues de machines dif­fé­rentes grâce aux par­te­na­riats : elles ont donc accès à des qua­li­tés d’images dif­fé­rentes et plus de variabilités. 

    Il est pos­sible de s’appuyer sur des orga­nismes comme le Labo­ra­toire Natio­nal de métro­lo­gie et d’Essais (LNE) qui est un éta­blis­se­ment public à carac­tère indus­triel et com­mer­cial. En plus de tra­vailler sur la créa­tion d’une pla­te­forme d’évaluation de l’intelligence arti­fi­cielle (LEIA) [50] pour 2022, il orga­nise des éva­lua­tions de sys­tèmes uti­li­sant l’IA pour de la vidéo et de l’image, notam­ment avec de la recon­nais­sance de formes. Des envi­ron­ne­ments de test avec un afflux impor­tant de don­nées peuvent être aus­si repro­duit. Les logi­ciels d’IA pour­raient ain­si être ame­nés à néces­si­ter une cer­ti­fi­ca­tion après éva­lua­tion de leurs per­for­mances et carac­té­ris­tiques pour entrer sur le marché. 

    L’article d'Omoumi et al. « To buy or not to buy - eva­lua­ting com­mer­cial AI solu­tions in radio­lo­gy (the ECLAIR gui­de­lines) » [29] cité plus haut met en évi­dence dix points à contrô­ler pour éva­luer une IA en radio­lo­gie. Cela est divi­sé en cinq par­ties com­pre­nant la per­ti­nence de l’IA (réponse aux besoins et champ d’application, avan­tages et risques), la per­ti­nence et la vali­da­tion (algo­rithmes et leurs spé­ci­fi­ca­tions) et l’intégration de l’IA (com­ment l'intégrer dans des acti­vi­tés exis­tantes, ses exi­gences maté­rielles et l’interopérabilité avec les autres sys­tèmes d’imagerie comme le PACS). Vient ensuite l'aspect régle­men­taire où la solu­tion doit être conforme aux régle­men­ta­tions en vigueur sur les DM. Le der­nier point est l’aspect finan­cier et il peut être le point le plus impor­tant pour cer­tains. L’IA est cen­sée faire gagner du temps mais il faut prendre en compte les coûts d’installation, de for­ma­tions et de main­te­nance. Le temps d’analyse est aus­si à prendre en compte car il faut que le résul­tat ren­du par l’IA soit le plus court pos­sible, voire imper­fec­tible. Cepen­dant, le point le plus impor­tant est cer­tai­ne­ment la réponse aux besoins bien iden­ti­fiés. Si un ser­vice d’urgences est encom­bré par l’afflux de patients en attente de prise d’images médi­cales, il peut être inté­res­sant de choi­sir une IA qui per­met de gagner du temps. A l'inverse, une IA qui amé­liore la qua­li­té des images est inté­res­sante dans les centres qui font aus­si de la recherche et où il faut beau­coup de pré­ci­sion et de détails dans les images. 

    L’évaluation des solu­tions doit donc se faire en fonc­tion des besoins de toutes les par­ties pre­nantes avec la recherche du meilleur com­pro­mis. Il faut néan­moins gar­der à l’esprit que le patient est le réel béné­fi­ciaire du choix.

    Il reste mal­heu­reu­se­ment une com­pli­ca­tion avec l’IA : la dif­fi­cul­té d’accéder aux para­mètres de déci­sions et donc de jus­ti­fier le résul­tat, d’où la néces­si­té d’avoir une seconde vali­da­tion par un méde­cin. Pour les déci­sion­naires aver­tis, l‘article “Ache­ter ou ne pas ache­ter – éva­luer les solu­tions com­mer­ciales d’IA en radio­lo­gie (les lignes direc­trices d’ECLAIR)” per­met d’avoir accès à plus de détails sur le sujet. 

    • Indice de Jac­card 

    Aus­si appe­lé Coef­fi­cient (ou indice) de Jac­card, il est uti­li­sé pour com­pa­rer la simi­la­ri­té entre deux ensembles : ici, il s’agit d’images. Son écri­ture mathé­ma­tique est la suivante : 

    J(A,B) = (A ∩ B) / (A ∪ B) 

    L’indice de Jac­card per­met donc d’extraire le rap­port de la taille de l’intersection entre deux ensembles et il est uti­li­sé dans les outils de seg­men­ta­tion pour qua­li­fier chaque seg­men­ta­tion et rete­nir celles avec l’indice le plus élevé.

    Le plus gros incon­vé­nient de cet indice est qu’il demande beau­coup de res­sources pour être cal­cu­lé et peut prendre un temps impor­tant pour les gros ensembles comme une image recons­truite en 3D. Ces der­nières sont plus dif­fi­ciles à ana­ly­ser à cause d’une mul­ti­tude d’images super­po­sées. Par exemple, une zone qui sera iden­ti­fiée comme une frac­ture dans un os sera com­pa­rée aux appren­tis­sages du logi­ciel anno­tés comme une frac­ture et l’IA pour­ra déter­mi­ner avec l’indice de Jac­card le taux de la res­sem­blance à une frac­ture [51].

    • Indice de Søren­sen-Dice 

    Cet indice est un outil mathé­ma­tique qui mesure la simi­la­ri­té de deux échan­tillons, il est égal au double du nombre d'éléments com­muns aux deux ensembles divi­sés par la somme du nombre d'éléments de chaque ensemble. Il est uti­li­sé en com­plé­ment de l’indice de Jac­card et son uti­li­sa­tion en est proche 

    • Néces­si­té de sélec­tion­ner une IA aujourd’hui 

    Le nombre de logi­ciels employant une IA est gran­dis­sant, les uti­li­sa­teurs et les ache­teurs doivent être capables de les com­pa­rer et de déter­mi­ner laquelle convien­drait le plus à leurs besoins. Dans cette optique, de nom­breuses carac­té­ris­tiques peuvent per­mettre de com­pa­rer les IA. Les cri­tères tech­niques détaillés pré­cé­dem­ment ain­si que d'autres plus pra­tiques sont donc uti­li­sés en pra­tique pour sélec­tion­ner des IA. L’entreprise Incep­to inter­ro­gée a four­ni quelques carac­té­ris­tiques inté­res­santes pour sélec­tion­ner les logi­ciels simi­laires de concep­teurs dif­fé­rents afin de créer leur cata­logue des­ti­né à leurs clients.

    • Tableau de carac­té­ri­sa­tion d’une IA
    Tableau n°5 : Synthèse des éléments caractéristiques d’une IA en imagerie médicale 

    C) Limites techniques

    Les logi­ciels d’IA sont consti­tués de réseaux de neu­rones arti­fi­ciels sophis­ti­qués pour la construc­tion de machines intel­li­gentes. Bien qu’il y ait des simi­li­tudes entre le cer­veau et la machine (et ses réseaux), les tis­sus céré­braux humains sont beau­coup plus per­for­mants. L’IA est en effet tou­jours dans l’incapacité de repro­duire toutes les acti­vi­tés du cer­veau humain. Si le cer­veau bio­lo­gique est la struc­ture à tra­vers laquelle l'intelligence est défi­nie, alors l’IA en est encore à ses débuts. De plus, mal­gré son déve­lop­pe­ment rapide, les humains ont jusqu'à pré­sent sur­pas­sé ces appa­reils dans des tâches comme l'apprentissage des langues, la créa­ti­vi­té, l'intuition et l’analyse de situa­tions com­plexes. Cepen­dant, il y a des pro­ces­sus d'apprentissage assez simi­laires entre l’Homme et l’IA, notam­ment dans la com­pré­hen­sion de base des concepts géné­raux tels que l'espace, le temps, le nombre ou la dis­tinc­tion d’éléments de formes et d’apparences différentes.

    Mal­gré le nombre impor­tant de logi­ciels d’IA aujourd'hui, il existe de nom­breux obs­tacles et limites  au niveau tech­nique, comme :

    • La néces­si­té d’utiliser des sources d'énergies élec­triques et des outils de cli­ma­ti­sa­tion pour refroi­dir les machines uti­li­sant l’IA. La qua­li­té et la fonc­tion­na­li­té de cette der­nière est donc liée à ces deux exigences.
    • La dépen­dance des humains et des don­nées sai­sies par ces der­niers. Étant don­né que la pré­ci­sion de la don­née de sor­tie, ou de la déci­sion prise par l’IA dépend des don­nées d’entrée, il y a tou­jours un taux d’erreur. La déci­sion en sor­tie ne peut pas être d’une pré­ci­sion de 100%. Les pro­ces­seurs n'expérimentent pas réel­le­ment les choses, ce qui limite la com­pré­hen­sion réelle. En effet, les IA ont besoin de l’action humaine pour agran­dir les bases de don­nées et favo­ri­ser l’innovation de ces der­nières et sont donc dépen­dantes de l’erreur humaine.
    • De nom­breux algo­rithmes d'apprentissage ne sont pas flexibles dans leurs fonc­tions : les appli­ca­tions d'apprentissage auto­ma­tiques sont tou­jours limi­tées à rece­voir des entrées très spé­ci­fiques, et elles doivent atteindre des objec­tifs qui le sont éga­le­ment. Alors que les humains peuvent s'adapter avec sou­plesse aux dif­fé­rences ou inté­grer de nou­velles règles  dans un laps de temps très court, les ordi­na­teurs ont besoin de leurs propres phases de for­ma­tion, ce qui entraîne des dépenses de temps et de res­sources dif­fé­rentes [52].
    • Une des limites à noter est éga­le­ment le pour­cen­tage d'erreur fai­sant par­tie des cri­tères d’évaluation. Le pour­cen­tage de faux posi­tifs ou de faux néga­tifs ne pour­ra atteindre 0%. Qu’importe la quan­ti­té de base don­nés d'entraînement, il exis­te­ra tou­jours une part d’incertitude dans le juge­ment de l’IA.
    • Chaque jour, les tech­no­lo­gies d'IA sont de plus en plus déve­lop­pées et uti­li­sées pour pré­ve­nir et détec­ter les attaques infor­ma­tiques et prendre des mesures défen­sives pour les empê­cher. Cepen­dant, elles se retrouvent tout de même à être la cible d'attaques infor­ma­tiques diverses et de pira­tage visant la plu­part du temps à récu­pé­rer des don­nées [53].
    • La fuite de don­nées peut éga­le­ment être consi­dé­rée comme une limite, et ce, mal­gré la grande capa­ci­té de mémoire de sto­ckage des machines. Si un tel évè­ne­ment se pro­duit, il n’y aura pas de récu­pé­ra­tion pos­sible comme le font les humains s’il n’y a pas d’autres sau­ve­gardes sur un sys­tème de Cloud par exemple. De ce fait, il est pos­sible de perdre toutes les don­nées stockées.
    • Enfin, une des limites poten­tielles à consi­dé­rer est la confiance de l’Homme. En effet, la popu­la­tion peut être réti­cente à l’idée de nou­velles méthodes médi­cales basées sur l’IA, pou­vant limi­ter son déve­lop­pe­ment et son extension.

    D) Limites éthiques et réglementaires 

    Les logi­ciels d’IA servent aujourd’hui d’aide au diag­nos­tic et peuvent repré­sen­ter de réels outils pour les radio­logues. Cepen­dant, en plus des limites tech­niques, les logi­ciels d’IA ont des limi­ta­tions éthiques et réglementaires.

    Un des limi­ta­tions à consi­dé­rer est celle de la confiance de la popu­la­tion en l’utilisation de logi­ciels d’IA dans le domaine médi­cal. En effet, en France en 2018, plus de la moi­tié des per­sonnes inter­ro­gées étaient défa­vo­rables à l’utilisation de l’IA dès qu’il s’agit d’être opé­ré, diag­nos­ti­qué ou conseillé pour la prise de médi­ca­ments (voir Figure n°24). Ces réti­cences peuvent être un manque de confiance dans des tech­no­lo­gies nou­velles et peu connues aujourd’hui encore. Ces der­nières sou­lèvent cepen­dant plu­sieurs ques­tions éthiques concer­nant les don­nées des patients par exemple, mais aus­si la res­pon­sa­bi­li­té du radio­logue en cas d’erreur et les limites de l’IA [54].

    Figure n°24 : Sondage portant sur l’acceptation de utilisation de l’IA dans le domaine de la santé en France en 2018 (source : ipsos.com) 

    Aujourd’hui, l’explosion des don­nées dans le domaine médi­cal avec le Big Data a don­né la pos­si­bi­li­té de déve­lop­per et d’entraîner les logi­ciels d’IA néces­si­tant une très grande base de don­nées. Cette quan­ti­té de don­nées repré­sente désor­mais un enjeu impor­tant dans le déve­lop­pe­ment de l’IA en san­té. En effet, l'anonymisation et la sécu­ri­sa­tion de ces don­nées est essen­tielle et néces­site d’être enca­drée [55].

    Les limites rela­tives à l’exploitation des don­nées du patient sont non négli­geables tout comme les aspects éthiques de l'utilisation d’IA dans l’aide au diag­nos­tic. En France, un nou­vel article (L.4001-3) appar­te­nant à la loi n°2021-1017 du 2 août 2021 rela­tive à la bioé­thique a été créé dans le Code de la san­té publique : il traite de l’usage de l’IA en met­tant en avant la « garan­tie humaine ». Cet article impose l’information du patient par le pro­fes­sion­nel de san­té de l’utilisation de l’IA, son poten­tiel accès aux don­nées du patient et les résul­tats four­nis, et cela en amont comme en aval de l’utilisation de l’IA. Les infor­ma­tions pri­vées des patients doivent bien enten­du être res­pec­tées et pro­té­gées (Article L1110-4 du Code de la san­té publique). De plus, ce nou­vel article implique éga­le­ment la trans­pa­rence et la tra­ça­bi­li­té du concepteur.

    Les règles et sanc­tions sont adap­tées en fonc­tion du niveau de risques asso­ciés aux sys­tèmes d’IA. Il y a plu­sieurs risques d’IA à dis­tin­guer : minimes (I), limi­tés (II), à hauts risques (III) et inac­cep­tables (IV). Les logi­ciels jugés inac­cep­tables sont ceux mena­çant la sécu­ri­té et les droits des usa­gers, et por­tant atteinte aux règles éthiques défi­nies par le Par­le­ment euro­péen. Les IA jugées à hauts risques doivent garan­tir la véri­fi­ca­tion et la tra­ça­bi­li­té des résul­tats, adop­ter des garan­ties contre les biais des don­nées, et impliquent une sur­veillance humaine [56]. Enfin les IA à risques limi­tés et minimes impliquent tout de même la trans­pa­rence et l’information des utilisateurs.

    Le Règle­ment 2017/745 exige, de la part des four­nis­seurs, la mise à jour des don­nées cli­niques ain­si que la réa­li­sa­tion d’audits tous les cinq ans sur les pro­cé­dures de fabri­ca­tion et la confor­mi­té des pro­duits. Le fabri­cant, char­gé d’assurer le mar­quage CE, doit, entre autres, mettre à jour régu­liè­re­ment la docu­men­ta­tion tech­nique et l’évaluation cli­nique. Enfin, les per­sonnes fai­sant usage de l’IA doivent assu­rer la tra­ça­bi­li­té et la sécu­ri­té des don­nées (dos­sier patient) pen­dant dix ans, le sui­vi des main­te­nances et la sécu­ri­té d’utilisation. Le per­son­nel de san­té ame­né à uti­li­ser des logi­ciels d’IA doit être for­mé sur ces der­niers et sen­si­bi­li­sé à la cybersécurité.

    Dans le pre­mier rap­port mon­dial de l’Organisation Mon­diale de la San­té (OMS) sur l’IA appli­quée à la san­té [57], il est sou­li­gné que les logi­ciels d’IA doivent être conçus de manière à consi­dé­rer la diver­si­té des contextes socio-éco­no­miques de soins en san­té. En effet, un biais impor­tant à consi­dé­rer serait que les IA seraient entraî­nées prin­ci­pa­le­ment sur des don­nées recueillies chez des patients vivant dans des pays à reve­nu éle­vé et déve­lop­pés. Cela pour­rait biai­ser les résul­tats des algo­rithmes lors d’utilisation sur d’autres popu­la­tions. C’est pour­quoi une base de don­nées d'entraînement grande et hété­ro­gène est nécessaire.

    L’OMS donne 6 prin­cipes sur les­quels l’IA doit s’appuyer en santé :

    • Pro­tec­tion de l’autonomie de l’être humain : la maî­trise des sys­tèmes de soins et des déci­sions médi­cales revient aux acteurs de san­té. Les patients doivent don­ner un consen­te­ment éclai­ré, et leurs don­nées doivent être protégées ;
    • Bien-être, sécu­ri­té et inté­rêt public : la concep­tion des logi­ciels d’IA doit res­pec­ter la régle­men­ta­tion de la sécu­ri­té, la pré­ci­sion et l’efficacité pour chaque appli­ca­tion. Le contrôle et l’amélioration de la qua­li­té sont pri­mor­diaux dans l’utilisation de l’IA ;
    • Trans­pa­rence, clar­té et intel­li­gi­bi­li­té : les infor­ma­tions rela­tives à la concep­tion et l'utilisation de l’IA doivent être publiées, docu­men­tées et faci­le­ment accessibles ;
    • Res­pon­sa­bi­li­té : le per­son­nel ame­né à uti­li­ser les IA doit être dûment for­mé et doit avoir la pos­si­bi­li­té de contes­ter les déci­sions prises par l’IA et d'obtenir répa­ra­tion suite à un dom­mage encou­ru par des déci­sion fon­dées sur des algorithmes ;
    • Inclu­sion et équi­té : l’IA en san­té doit inclure et prendre en compte tout indi­vi­du indé­pen­dam­ment de son sexe, de son âge, de ses reve­nus, de son ethnie, …
    • Réac­ti­vi­té et dura­bi­li­té : les logi­ciels d’IA doivent être conçus en pre­nant en compte les impacts envi­ron­ne­men­taux, socié­taux et être régu­liè­re­ment éva­lués afin de s’assurer qu’ils répondent aux besoins de manière appro­priée [58].

    Les DM incluant des algo­rithmes d’IA seront peut-être ame­nés à révo­lu­tion­ner l’imagerie médi­cale, mais pour cela les pra­ti­ciens hos­pi­ta­liers et notam­ment les radio­logues doivent être capables de maî­tri­ser ces outils, les com­prendre et sur­tout por­ter un regard cri­tique à leur égard. En effet, le méde­cin sera ain­si capable de rem­plir ses obli­ga­tions déon­to­lo­giques, expli­quant au patient le diag­nos­tic et la stra­té­gie thé­ra­peu­tique choisie.


    Conclusion

    L’IA en IM est un outil pro­met­teur per­met­tant de faire gagner du temps aux radio­logues qui ont un nombre impor­tant de séquences d’images qui ne cessent d’augmenter. Elle per­met­trait de faci­li­ter leur tra­vail en amé­lio­rant la qua­li­té des images dans un pre­mier temps. Les dif­fé­rents logi­ciels d’IA pour­raient ensuite repré­sen­ter un réel outil d’aide au diag­nos­tic pour le radio­logue, lui per­met­tant de prio­ri­ser les exa­mens par exemple en fonc­tion des risques de ces der­niers, détec­ter des patho­lo­gies et même four­nir des scores de pré­dic­tion per­met­tant d’aiguiller l’analyse des méde­cins. L’IA va donc cer­tai­ne­ment avoir un rôle pri­mor­dial à jouer dans l’IM des années à venir. Quant au Big Data, il devient une par­tie inté­grante de la san­té. Son exploi­ta­tion est un enjeu majeur pour per­fec­tion­ner les outils d’imagerie. Le patient étant l’acteur au cœur du sys­tème de san­té, il est néces­saire de pen­ser et faire évo­luer les IA de demain dans son inté­rêt et dans le res­pect de ses données.

    Cepen­dant, l’IA n’est pas par­faite et peut engen­drer des erreurs médi­cales remet­tant en cause sa légi­ti­mi­té, elle n’est pas encore en capa­ci­té de four­nir un diag­nos­tic com­plet avec des jus­ti­fi­ca­tions. D’autres fac­teurs éco­no­miques et stra­té­giques sont éga­le­ment à prendre en compte et pour­raient rebu­ter cer­tains radio­logues. Il est donc pri­mor­dial d’analyser avec atten­tion toutes les carac­té­ris­tiques tech­niques de l’IA, et sur­tout le besoin des ser­vices afin de pou­voir répondre au mieux aux attentes des radiologues.

    Des inter­views avec divers acteurs tels que les fabri­cants de logi­ciels d’IA, mais éga­le­ment avec des radio­logues direc­te­ment concer­nés par ce sujet ont per­mis d’enrichir ce dossier.

    Eva­luer les solu­tions d’IA est une étape impor­tante dans la déci­sion d’un logi­ciel. En plus des affi­ni­tés avec cer­tains four­nis­seurs pri­vi­lé­giés, il est tout de même bon d’essayer d’évaluer objec­ti­ve­ment les solu­tions pro­po­sées. Le patient étant le pre­mier béné­fi­ciaire, il faut gar­der à l’esprit que ce choix l’impactera et qu’il est réflé­chi pour son bien. Les cri­tères d’évaluations pro­po­sés ici peuvent per­mettre de dif­fé­ren­cier deux solu­tions ayant la même application.

    Il fau­dra gar­der à l’esprit que l’IA n’est pas encore au stade de rem­pla­cer le radio­logue, mais bien de lui venir en aide. Le futur du métier de radio­logue pour­rait pas­ser par une coopé­ra­tion humaine et arti­fi­cielle afin de favo­ri­ser le meilleur diag­nos­tic et trai­te­ment pour le patient.


    Annexes

    • Des­crip­tion des inter­views et des per­sonnes inter­ro­gées 

    Spécialiste de modalité en IRM, Philips  

    Ce spé­cia­liste de moda­li­té en IRM a appor­té des élé­ments au sujet des types d’IA en fonc­tion des appli­ca­tions de ces der­nières qui portent prin­ci­pa­le­ment sur l’amélioration de l’image en rédui­sant le bruit sans dégra­der l’image et sur l’aide au diag­nos­tic lors du post-traitement. 

    « En quoi consiste votre acti­vi­té professionnelle ? 

    Je suis Moda­li­ty Spe­cia­list IRM chez Phi­lips : j’interviens en avant-vente du com­mer­cial avec la pré­sen­ta­tion des pro­duits, et aus­si en après-vente mais je n’ai pas de for­ma­tion à faire aux uti­li­sa­teurs contrai­re­ment aux ingé­nieurs d’application.  

    Com­ment défi­nis­sez-vous l’Intelligence Artificielle ? 

    C’est un défi dif­fi­cile que vous me posez-là. Cela peut concer­ner l’aide au diag­nos­tic avec le post-trai­te­ment : on uti­lise ici du Deep Lear­ning, il est par exemple pos­sible de trou­ver des lésions du patient. Il y a éga­le­ment de l’IA lors de l’acquisition : on a ici un algo­rithme entrai­né pour recon­naître une constante comme le bruit, ce qui aide à l’avancée dans les limites de l’IRM. 

    Dans quel cas (ex : can­cé­ro­lo­gie, car­dio­lo­gie…) uti­lise-t-on l'IA et sur quelles moda­li­tés (ex : IRM, scan­ner, mam­mo­graphe...) ? 

    Tout le monde peut l’utiliser ! Pour le moment, on l’utilise sur­tout en radio­lo­gie stan­dard : cela per­met de recon­naître des foyers dans les pou­mons, des frac­tures, des can­cers du sein, etc. En ima­ge­rie céré­brale, cela est uti­li­sé en onco­lo­gie. Pour ce type d’application, les start-ups le font très bien. Pour les scan­ners et les IRM, cela est plus dif­fi­cile car il y a dif­fé­rents contrastes. Dans tous les cas, il faut bien faire atten­tion car le but n’est pas que l’IA rem­place le radio­logue, mais qu’elle fasse un pré-tra­vail. Il s’agit donc d’une aide au diag­nos­tic.  

    Com­ment l’IA est-elle ins­tal­lée sur vos machines ? Existe-t-il une quel­conque main­te­nance pré­vue pour elle ? 

    Il s’agit d’un soft­ware, donc il y a un algo­rithme qui est inté­gré à l’intérieur de la chaîne d’acquisition de l’IRM. Côté hard­ware, on a besoin d’un GPU. Pour les main­te­nances, il y a juste des mises à jour à faire.  

    Quel est le prix d’une IA dans votre modalité ? 

    On a une four­chette qui varie gran­de­ment : les nou­velles tech­niques de recons­truc­tion de Phi­lips peuvent aller de 50 000 € à 100 000 €. 

    Quel(s) type(s) d'IA uti­li­sez-vous dans votre modalité ? 

    On uti­lise le Deep Lear­ning : on a des nœuds que l’on nour­rit avec des don­nées. Cela peut per­mettre de faire de la recons­truc­tion : à par­tir d’une image brui­tée, l’IA va venir la débrui­ter en recon­nais­sant le bruit. On va pour cela tra­vailler dans le domaine fré­quen­tiel car c’est plus facile avec les trans­for­mées de Fou­rier. Il est aus­si pos­sible d’utiliser du Machine Lear­ning dans le cas où d’un sys­tème de posi­tion­ne­ment auto­ma­tique des coupes : on apprend à la machine com­ment se posi­tion­ner en s’appuyant sur trois points ana­to­miques par exemple. Dans ce cas, les uti­li­sa­teurs peuvent aus­si apprendre au sys­tème à posi­tion­ner les coupes.  

    Sur quelle éva­lua­tion / quels cri­tères l'IA s'appuie-t-elle pour déli­vrer son diagnostic ? 

    Dans les espaces k, on s’appuie sur ce qui est du bruit et ce qui ne l’est pas. Cepen­dant, l’IA ne délivre pas de diag­nos­tic à pro­pre­ment par­ler. 

    De quelle manière est accueillie l’IA chez vos clients ? Les patients savent-ils qu’une IA pour­rait inter­ve­nir dans leur diagnostic ? 

    On uti­lise de l’IA à Lyon au stade pré-cli­nique : les patients sont au cou­rant et ils signent un consen­te­ment éclai­ré pour uti­li­ser leurs don­nées après. Mais dans une rou­tine cli­nique, je n’ai pas encore eu de retour de nos clients et de leurs patients.  

    En cas d’erreur médi­cale, savez-vous qui est res­pon­sable : le méde­cin ou l’IA (le four­nis­seur) ? Quels sont les risques encourus ? 

    En cli­nique, du moment que l’utilisateur est for­mé et qu’il y a la pré­sence d’un mar­quage CE, alors cela ne peut être que la faute de l’utilisateur. Mais le four­nis­seur peut être pour­sui­vi s’il y a eu une mau­vaise for­ma­tion des uti­li­sa­teurs. Dans tous les cas, l’IA n’est qu’une aide diag­nos­tic : le radio­logue est bien conscient qu’il ne s’agit que d’une aide. 

    D’où viennent les don­nées uti­li­sées pour entraî­ner vos IA et com­bien en faut-il pour avoir une IA performante ? 

    Les don­nées peuvent venir de par­tout : je pense qu’elles sont ache­tables, sinon il est pos­sible de les échan­ger dans le cadre d’un par­te­na­riat. Concer­nant le nombre de don­nées pour avoir une IA suf­fi­sam­ment entraî­née, je sais qu’il faut envi­ron 150 000 exa­mens chez GE, mais cela dépend de ce sur quoi on entraîne l’IA. En géné­ral, il en faut au moins 100 000.  

    Qu’est-ce qui vous per­met d’évaluer la per­for­mance des IA (cri­tères) ? 

    C’est assez dif­fi­cile de les com­pa­rer. Il faut déjà se rendre compte qu’il y a dif­fé­rentes classes : l’aide diag­nos­tic et la recons­truc­tion d’image (Spee­dExam ou Smar­tExam). Après en soi, cela reste sub­jec­tif à l’appréciation de l’utilisateur. On va sou­vent faire la com­pa­rai­son entre dif­fé­rentes IA en confron­tant une image sans IA et une trai­tée avec de l’IA. En IRM, il faut aus­si faire des com­pro­mis entre les temps d’acquisition, le rap­port signal sur bruit et le contraste. L’IA per­met donc de com­bler ces lacunes.  Le radio­logue va donc voir quels apports peuvent être mis en place dans son quo­ti­dien. En IRM, il existe plu­sieurs IA avec Air Recon DL chez GE, Deep Research chez Sie­mens et AICE chez Canon. De notre côté, Phi­lips est le seul de l’industrie à être capable de recons­truire en 2D et en 3D (volume pos­sible).  

    Les radio­logues font-ils une dif­fé­rence entre les dif­fé­rentes IA ? Com­ment se fait leur choix ? 

    Les radio­logues ont des connais­sances cli­niques très pous­sées, mais pas tech­niques. Donc ils ne font pas de réelle dif­fé­rence. En soi, ils sont déjà séduits par le four­nis­seur des DM déjà ins­tal­lés. Géné­ra­le­ment, ils ne savent pas trop ce qu’ils attendent, donc cela fait par­tie du tra­vail de Phi­lips de faire de l’éducation. Les gens ont très peu de connais­sances, mais ils peuvent éga­le­ment avoir peur et être réfrac­taires. Il faut donc que l’on par­vienne à convaincre le radio­logue, les mani­pu­la­teurs qui ont besoin de gagner du temps et toutes les per­sonnes dans le che­min de la prise en charge du patient. » 


    Ingénieur Junior en IA, GE 

    Cet ingé­nieur junior en IA a dres­sé lors de l’interview un pay­sage de l’IA dans l’IM et a déli­vré des infor­ma­tions per­ti­nentes dans le post trai­te­ment et les indi­ca­teurs de per­for­mance d’une IA. Il a éga­le­ment four­ni des docu­ments qui traitent de l’IA et la manière dont GE l’applique à ses moda­li­tés d’imagerie. 

    « En quoi consiste votre acti­vi­té professionnelle ? 

    Je suis Ingé­nieur Junior en IA chez GE. Au site de BUC, nous avons trois acti­vi­tés prin­ci­pales :  

    • Sys­tèmes RX inter­ven­tion­nel (j’appartiens à cette branche) : cela concerne les images en temps réel pen­dant des actes inva­sifs ; 
    • Mam­mo­gra­phies : cela per­met de faire de recher­cher des can­cers du sein ;  
    • Advance Works­ta­tion (AW) : cela per­met aux radio­logues de revoir les images. 

    Que pro­po­sez-vous chez GE en termes d’IA ? 

    Côté logi­ciel un signal arrive sur les machines, et der­rière il y a une pro­duc­tion des images. Le trai­te­ment est réa­li­sé entre ce qui est acquis et l’image visible par le radio­logue. Cela per­met à ce der­nier de mieux faire son choix en ciblant les zones impor­tantes : on leur montre les images les plus belles pos­sibles, en plus d’extraire les informa­tions doù sont les organes, leur taille, les lésions pré­sentes, etc. Toutes les moda­li­tés finissent sur l’AW où sont déve­loppés des logi­ciels pour trai­ter et extraire des infor­ma­tions. De ce fait, l’IA per­met de mieux ce qu’on faisait avant avec des algorithmes. Chez GE, on fait du pro­ces­sing d’image pour amé­lio­rer sa qua­li­té. On va donc recon­naître du bruit, des arté­facts et les images sous-échan­tillon­nées, puis on les enlève ce qui per­met d’améliorer le rap­port S/R et de rendre l’image moins floue. Dans ce domaine, c’est encore un peu nou­veau d’utiliser de l’IA. En effet, l’extraction d’informations via de l’IA existe depuis bien plus long­temps. Au scan­ner, on retrouve l’IA True Fide­li­ty, et on a Air Recon DL en IRM.  

    Au début du Deep Lear­ning, on clas­si­fie l’image : un chat est un chat (on attri­bue ain­si un label à une image). Puis, on a la détec­tion d’une posi­tion d’intérêt : cela est plus inté­res­sant car on peut deman­der à un réseau de neu­rones de détec­ter une tumeur par exemple. 

    Il est pos­sible de faire ce qu’on appelle de la seg­men­ta­tion : on dit que tel pixel dans une image appar­tient à un rein, un foie, etc. Grâce à cela, la seg­men­ta­tion d’organes est pos­sible dans une image. On peut avoir dif­fé­rentes classes, et ce domaine est un gros pôle de déve­lop­pe­ment de notre entre­prise.  

    On a éga­le­ment le reca­lage entre les images : un patient a fait une IRM et un scan­ner, et grâce à cette tech­nique, il est pos­sible de dire quel pixel de l’IRM cor­res­pond au pixel du scan­ner.  

    Une autre IA est Bone­Vi­CAR qui per­met de détec­ter les posi­tions des ver­tèbres et de les label­li­ser auto­ma­ti­que­ment. Cela per­met d’offrir un gain de temps au radio­logue qui peut se situer plus faci­le­ment, et donc on a une accé­lé­ra­tion du diag­nos­tic. 

    Côté Scan­ner, on a une IA de seg­men­ta­tion appe­lée Hepa­tic VCAR. Elle per­met d’évaluer l’état hépa­tique du foie via l’analyse des voxels et donc du volume total du foie (il s’agit d’une étape vitale dans le diag­nos­tic du patient). Cette année ; la nou­veau­té est que l’on peut désor­mais le faire dans les volumes pro­duits par les machines inter­ven­tion­nelles. On insère dans le patient des outils (tube, cathé­ter, fil) au niveau fémo­ral (cuisse) et on remonte jusqu’au foie. Puis, on peut injec­ter des pro­duits qui ont pour voca­tion de tuer les tumeurs (chi­mioem­bo­li­sa­tion, radioem­bo­li­sa­tion). Pour voir où on est et savoir si on est au bon endroit, on envoie des RX et on récu­père via un détec­teur situé de l’autre côté. Le méde­cin peut ain­si voir des images en temps réel. On peut tour­ner le tube autour du patient afin d’avoir un modèle 3D du patient. Main­te­nant, on pro­pose de seg­men­ter le foie pour que le méde­cin puisse auto­ma­ti­que­ment voir le volume de son foie et com­prendre le rap­port entre les artères qu’il voit et le foie. L’IA Live­rAs­sist Vir­tual Paren­chy­ma per­met une extrac­tion d’informations impor­tantes. Si on avait vou­lu faire ça avec des algo­rithmes tra­di­tion­nelscela n’aurait vrai­ment pas été facile de cal­cu­ler le volume du foie car l’intensité des pixels du foie est dif­fi­cile à visua­li­ser. Il y a une quin­zaine d’années, les résul­tats étaient mau­vais. Mais main­te­nant, avec la sou­mis­sion régle­men­taire, les méde­cins sont impres­sion­nés par la qua­li­té des algo­rithmes. 

    Est-il pos­sible d’utiliser une IA de GE sur des don­nées cap­tu­rées par des appa­reils de vos concurrents ? 

    Dans notre entre­prise, l’entraînement sur des don­nées de GE s’appelle Véri­té Ter­ra. Sur des don­nées concur­rentes (extrac­tion du foie par exemple), je ne suis pas sûr que cela fonc­tionne sur d’autres images. Notre inté­rêt est qu’il faut que cela marche sur les images de tous les clients, donc ce n’est pas for­cé­ment lié à la tech­no­lo­gie des concur­rents. Par exemple, la console de revue fonc­tionne avec tous les construc­teurs. Mais pour Liver Assist, je ne sais pas si cela marche sur les images de nos concur­rents.  

    Com­ment éva­luez-vous les per­for­mances d’une IA ? 

    Alors pour la qua­li­té de l’image, cela est dif­fi­cile à mesu­rer avec un chiffre. Pour la seg­men­ta­tion, il y a les véri­tés Ter­ra : on l’a déjà fait à la main par des méde­cins, donc on sait si ce résul­tat est vrai. On fait une com­pa­rai­son avec des score comme l’indice de dice qui est un indice d’intersection entre les deux (com­pris entre 0 et 1), symé­trique, qui n’a pas de limite de taille et qui péna­lise les faux posi­tifs et néga­tifs. Si l’indice de dice est supé­rieur à une cer­taine valeur, on peut savoir si l’image est bien, donc on peut se dire que c’est ok pour un cas. Ensuite, on va le faire sur plu­sieurs cas et on aura une sta­tis­tique. On a donc besoin d’une grande base de test. Il est éga­le­ment pos­sible de mesu­rer d’autres métriques. Enfin, on demande au méde­cin si c’est satis­fai­sant : sur une base de don­nées jamais vue, on peut dire si les résul­tats sont bons, et après les méde­cins les ana­lysent. Puis la com­mis­sion valide et dit si l’IA est conforme ou non. Dans les cas de détec­tion, on va regar­der le taux de ver­tèbres qui ont une mau­vaise clas­si­fi­ca­tion par exemple. Il faut mon­trer que sur un grand nombre de cas, on a un taux d’erreur accep­table. Pour le pre­ci­sion and recall (c’est-à-dire la sen­si­bi­li­té et les sta­tis­tiques), on fait de la détec­tion et de la seg­men­ta­tion, mais cela ne pré­cise pas les faux posi­tifs et néga­tifs. On a aus­si l’indice de Jac­quard pour la seg­men­ta­tion. On peut éga­le­ment uti­li­ser la dis­tance comme cri­tère : on regarde la dis­tance maxi­male entre deux organes. En soi, le plus impor­tant est de prendre la métrique la plus per­ti­nente. » 


    CEO Directeur Général, Milvue 

    Le Direc­teur Géné­ral a expli­qué l’activité de sa start-up qui pro­pose des solu­tions employant l’IA en radio­lo­gie conven­tion­nelle pour la détec­tion de frac­ture et d’autres patho­lo­gies osseuses. Ses logi­ciels sont des IA pro­po­sant une aide au diag­nos­tic assis­tant le radio­logue dans son acti­vi­té. L’importance de l’annotation des images per­met­tant d’entraîner l’IA a été évo­quée et semble majeure dans l’efficacité d’un logi­ciel, l'expérience des radio­logues qui mettent ces anno­ta­tions est aus­si importante. 

    « Dans quel cas uti­li­sez-vous l’IA ?  

    Les IA peuvent être com­plè­te­ment dif­fé­rentes les unes des autres. Par exemple, chez The­ra­pixel, les scopes cou­verts sont com­plè­te­ment dif­fé­rents des nôtres. Il faut donc d’abord réus­sir à seg­men­ter le mar­ché. Elles peuvent être appli­quées au scan­ner et en mam­mo­gra­phie par exemple. En ima­ge­rie inter­ven­tion­nelle, il y a trois acteurs : Glim­mer, Zed­med et Mil­vue.  

    Quels sont les cri­tères sur les­quels vous vous appuyez pour éva­luer une IA ? 

    Il y avait une éva­lua­tion com­pa­ra­tive mais les gens ne sont pas allés jusqu’au bout en publiant les résul­tats, donc cela est dif­fi­cile à éva­luer. Il faut alors mettre en œuvre un pro­to­cole d’évaluation fiable en attei­gnant un taux pré­dic­tif de 99% car on a ain­si peu de taux de faux-posi­tifs. Pour cela, il faut un grand stock d’images. Donc la pre­mière dif­fi­cul­té est d’avoir beau­coup de don­nées et de pou­voir les ana­ly­ser avec les mala­dies. La deuxième dif­fi­cul­té concerne le scope. Zed­med n’a pas encore de mar­quage CE, alors que Glim­mer et Mil­vue sont déjà bien com­mer­cia­li­sés. Enfin, la qua­li­té et le prix sont des cri­tères à ne pas négli­ger. 

    Com­ment cela se passe entre l’IA et le sys­tème de PACS ? 

    Il n’y a pas de sou­ci pour s’interconnecter avec un sys­tème de PACS grâce au DICOM. Le pro­blème réside dans l’interconnexion car entre le moment où les images partent et reviennent dans le PACS, il s’écoule une minute. Avec le PACS, il y a une cer­taine rapi­di­té car on y remet juste les images. Il faut pous­ser des tags DICOM dans le sys­tème de PACS. Cela peut être aus­si intel­li­gent de mettre des alertes. L’IA doit recon­naître elle-même les images qu’elle voit, ana­ly­ser les images et faire un compte-ren­du auto­ma­tique qui peut être pous­sé vers le PACS : c’est ce qu’on appelle le work­flow. » 


    Spécialiste de modalité en Scanner, Philips 

    Ce spé­cia­liste de moda­li­té en Scan­ner a cla­ri­fié les dif­fé­rentes étapes dans les­quelles l’IA peut inter­ve­nir : acqui­si­tion, recons­truc­tion de l’image et post-trai­te­ment en insis­tant sur l’importance du Deep Learning. 

    « Dans quels cas uti­li­sez-vous l’IA au scanner ? 

    Alors tout d’abord l’IA au scan­ner existe depuis plus long­temps que celle de l’IRM. Elle peut être uti­li­sée à plu­sieurs endroits (abdo­men, pel­vis, poi­trine…) et cas comme avec Pre­cise Posi­tion qui per­met de posi­tion­ner le patient ins­tal­lé sur stable, et ce, de manière auto­ma­tique via une camé­ra qui ana­lyse dif­fé­rents points ana­to­miques. Il s’agit du Deep Lear­ning qui peut nous per­mettre de recons­truire une image en atté­nuant l’écart-type, le bruit intrin­sèque. Cela nous per­met aus­si d’améliorer le SNR (Signal-to-Noise Ratio), la texte et le contraste de l’image ain­si que la réso­lu­tion spa­tiale. On peut aus­si voir jusqu’à quelle dosi­mé­trie on peut des­cendre.  

    Quelles sont les grandes fina­li­tés de l’IA ?  

    Il y a tout d’abord l’IA de la réa­li­sa­tion de l’image avec l’exemple du posi­tion­ne­ment auto­ma­tique du patient sur table via une camé­ra : c’est un outil d’acquisition et cela est propre à chaque spé­cia­liste. On uti­lise dans ce cas le Machine Lear­ning avec des réseaux de neu­rones entraî­nés. Il y a ensuite celle d’acquisition ou de recons­truc­tion de l’image : on uti­lise ici le Deep Lear­ning avec des réseaux de neu­rones convo­lu­tifs. Enfin, il y a l’analyse de l’image qui est uti­li­sée pour avoir une aide au diag­nos­tic.  

    Quels sont les cri­tères sur les­quels vous vous appuyez pour éva­luer une IA ? 

    Il y a une étude écrite par le Doc­teur Joël Gref­fier du CHU de Nîmes qui porte sur une com­pa­rai­son entre les IA de Canon et GE, mais pas sur celles de Phi­lips. Cette thèse donne plu­sieurs cri­tères qui peuvent être inté­res­sants à lire pour vous. Après, l’avis reste sub­jec­tif et varie d’une per­sonne à l’autre. » 


    Manager Produit, Avicenna 

    Ce mana­ger pro­duit a pré­sen­té les logi­ciels d’IA de son entre­prise avant d’introduire les cri­tères d’évaluation sur les­quels les radio­logues peuvent s’appuyer afin de choi­sir une IA qui leur convien­drait. Elle a éga­le­ment don­né des infor­ma­tions concer­nant la régle­men­ta­tion dans ce domaine et les limites tech­niques de l’IA comme le besoin essen­tiel d’une base de don­nées diver­si­fiée pour que les résul­tats obte­nus soient justes. 

    « Com­ment fonc­tionne votre IA et sur quoi s’appuie-t-elle ?  

    Nous avons quatre algo­rithmes que l’on uti­lise aux urgences. L’un d’entre eux per­met de faire de la détec­tion intra­crâ­nienne au scan­ner et les noti­fi­ca­tions sont envoyées au méde­cin par exemple. Nous sommes par­te­naires avec des hôpi­taux qui ont déjà des pla­te­formes de PACS, des construc­teurs ou encore des per­sonnes qui font des pla­te­formes de mar­ket­places. Nous n’allons donc pas noti­fier de la même façon les dif­fé­rents acteurs : cela peut se faire par mes­sage, via une appli­ca­tion mobile, etc.  

    Quels sont les cri­tères d’évaluation / les points essen­tiels dans le choix d’une IA ? 

    Vu que ce sont des DM, en fonc­tion de l’organisme, on homo­logue dif­fé­rem­ment. En Europe, on se fie au nou­veau règle­ment du MDR (Règle­ment rela­tif aux Dis­po­si­tifs Médi­caux), alors qu’aux Etats-Unis, cela est régi par le FDA (Food and Drug Admi­nis­tra­tion). Tou­jours aux Etats-Unis, il y a un pro­to­cole à suivre : on doit défi­nir à qui on s’adresse en fai­sant une liste des patients qui ont la patho­lo­gie et d’autres non. Puis, trois méde­cins sont pré­sents pour éta­blir la véri­té géné­rale (« truth gene­ral ») avec deux d’entre eux qui donnent leur consen­sus et le der­nier qui donne ensuite le ver­dict. On a alors affaire à plu­sieurs cas : les vrais posi­tifs et vrais néga­tifs, et les faux posi­tifs et faux néga­tifs. A par­tir de là, ils éva­luent les per­for­mances, la sen­si­bi­li­té et la spé­ci­fi­ci­té, etc. Avec l’IA, on doit par­fois faire des com­pro­mis donc il faut bien choi­sir les para­mètres à éva­luer. On a ensuite ce qu’on appelle les « mul­ti-rea­ders » qui sont des experts qui vont faire la véri­té (« grand truth ») : une dizaine de méde­cins vont eux aus­si pro­cé­der à la lec­ture du scan­ner et on va com­pa­rer avec le logi­ciel. Cette lec­ture a pour but d’améliorer l’IA. Concer­nant les cri­tères d’évaluation, on peut s’appuyer sur la taille des don­nées d’affichage, la varia­tion des pro­to­coles… Il faut aus­si bien faire dans la géné­ra­li­té : cela est impor­tant car il faut faire des exa­mens sur tout. Ain­si, les don­nées d’apprentissage sont repré­sen­ta­tives de la réa­li­té. Sans cela, cela risque de ne pas mar­cher car les per­for­mances seront moins bonnes. Il faut que dans la base de don­nées, on ait dif­fé­rents sexes, tailles, etc. Aux Etats-Unis, la FDA demande cette géné­ra­li­té qui englobe aus­si l’ethnicité pour faire le dos­sier et homo­lo­guer l’IA. Cepen­dant, le cri­tère d’ethnicité est inter­dit en Europe. On a aus­si l’ordre de prix qui peut être un cri­tère : il est variable et dépend si l’IA est rat­ta­chée à la moda­li­té. Enfin, la taille de la base de don­nées est à prendre en compte : elle dépend du pro­blème de départ (seg­men­ta­tion, recon­nais­sance, …). On a besoin de plus d’images pour la seg­men­ta­tion. En IRM, s’il y a pas mal de séquences dif­fé­rentes, on a besoin de plus d’images d’entrée. 

    Où trou­vez-vous des don­nées pour entraî­ner vos IA ? 

    Cela peut être obte­nu grâce à des par­te­na­riats avec des hôpi­taux ou des centres de radiologie. 

    Quelle est la classe d’une IA ? 

    En Europe, ce sont des DM de classe I, alors qu’aux Etats-Unis, ils appar­tiennent à la classe II. Cepen­dant, les pro­chaines IA seront des DM de classe II. Il y a le site https://grand-challenge.org qui recense les classes, les don­nées et les per­for­mances des DM si vous sou­hai­tez le consul­ter. 

    Quelles sont les limites de l’IA selon vous ? 

    Je dirai la géné­ra­li­sa­tion des don­nées : il faut être sûr que cela marche en hôpi­tal et que l’IA va per­mettre de répondre à une ques­tion. Par exemple sur un scan­ner du tho­rax, l’IA va pou­voir voir s’il y a un pro­blème d’embolie pul­mo­naire, alors que méde­cin va véri­fier pleins de choses. Peut-être que l’IA pour­ra faire davan­tage à l’avenir. Mais pour le moment, cela ne fait que 10% de cli­nique. » 


    Spécialiste d’application clinique, Incepto 

    Ce spé­cia­liste d'application a pré­sen­té le concept de son entre­prise Incep­to et quelles sont les IA phares de leur cata­logue. Il a éga­le­ment insis­té sur les cri­tères d’évaluation d’une IA, son accep­ta­tion chez ses clients et le nombre d’images pro­duites en moyenne par un éta­blis­se­ment. Cepen­dant, il n’a pas pu nous four­nir de chiffre concer­nant le nombre d’établissements dans les­quels leurs logi­ciels d’IA sont uti­li­sés, mais il a affir­mé qu’ils étaient davan­tage uti­li­sés en radio­gra­phie et en mammographie. 

    « Pou­vez-vous nous pré­sen­ter votre entreprise ? 

    Incep­to est une start-up qui a été fon­dée en 2018 par trois per­sonnes qui viennent du milieu (deux anciens employés de GE et un méde­cin radio­logue au Havre). Tout a com­men­cé lorsque nous avons consta­té qu’il y avait de plus en plus d'images à lire pour les radio­logues, et à un moment on reste des humains et on n’a plus le temps. Donc soit le radio­logue les lit toutes et il ne met pas autant de concen­tra­tion qu’il y a 10 ans, soit il les lit toutes et il passe moins de temps avec le patient. La solu­tion qui s’est alors pré­sen­tée est l’IA : elle se retrouve déjà par­tout, que ce soit dans les voi­tures, l’électroménager, etc. Le concept d’Incepto est de pro­po­ser un cata­logue de plu­sieurs IA dans plu­sieurs moda­li­tés en les ras­sem­blant sur une seule pla­te­formeNos acti­vi­tés suivent 2 axes :  

    • Co-créa­tion : avec des par­te­naires qui sont mis dans notre cata­logue. On a une équipe de data scien­tists qui va tra­vailler sur un algo­rithme avec une équipe médi­cale. On a déjà sur le mar­ché plu­sieurs IA dans ce genre comme Keros pour détec­ter des lésions du genou en IRM (tra­vail avec un radio­logue suisse pri­vé). On a aus­si tra­vaillé avec l’hôpital Marie Lan­ne­longue sur la détec­tion et la mesure de l’anévrisme. 
    • Folio : on pro­pose un réseau de dis­tri­bu­tion avec d’autres par­te­naires.  

    On a donc déjà une dizaine d’algorithme dans notre cata­logue et on conti­nue de faire une veille tech­no­lo­gique afin d’avoir une esti­ma­tion des meilleurs algo­rithmes. L’intérêt pour un éta­blis­se­ment de pas­ser par Incep­to est que l’on ras­semble tout en une pla­te­forme. Il y a donc un seul inter­lo­cu­teur pour l’établissement, cela lui évite de recher­cher lui-même pour chaque IA et de par­ler avec plu­sieurs inter­lo­cu­teurs. En plus de cela, on pro­pose une veille tech­no­lo­gique, donc nous avons les meilleurs algo­rithmes à leur pro­po­ser. Enfin, on offre une garan­tie de sécu­ri­té car tout se fait sur le cloud, il n’y a pas d’installation phy­sique. On ins­talle seule­ment une gate­way (pla­te­forme) qui va se ser­vir sur le PACS du client. Les résul­tats de l’IA reviennent dans le PACS sous la forme d’une image sup­plé­men­taire, il n’y a donc pas de nou­velle inter­face, c’est donc un tra­vail en moins pour les radio­loguesNotre entre­prise sou­haite tout auto­ma­ti­ser : la gate­way recon­naît auto­ma­ti­que­ment, on n’a donc pas besoin d‘envoyer vers le PACS. D’un point de vue finan­ciermême s’ils achètent plu­sieurs algo­rithmes, on leur fait une seule fac­ture pour toutOn a juste à faire l’installation de la gate­way et après ils ont un abon­ne­ment men­suel sans enga­ge­ment. On vend au même prix que nos par­te­naires mais nous pre­nons un pour­cen­tage de la vente. On va éga­le­ment esti­mer une volu­mé­trie du nombre d’examens par mois avec une tolé­rance de 10%. Si l’établissement fait plus ou moins 10%, alors c’est bon. Si c’est plus, alors on réajuste le prix de l’abonnement men­suel. 

    Quelles IA proposez-vous ? 

    En radio, nous avons une IA de Glea­mer appe­lée Bone­View. Elle per­met de détec­ter des frac­tures ou sai­gne­ments en trau­ma­to­lo­gie. Cela per­met de réduire les tâches pénibles et répé­ti­tives, ce qui est un gain de temps pour les radio­logues. En mam­mo­gra­phie, nous avons Trans­pa­ra de Screen­point Medi­cal qui marche aus­si bien sur des images en 2D et en 3D (il y a d’ailleurs beau­coup plus d’études que The­ra­pixel) et qui per­met de détec­ter des nodules pul­mo­naires. Avec notre par­te­naire Pixyl, l’IA Pixyl.Neuro.MS per­met de détec­ter et assu­rer le sui­vi de la sclé­rose en plaque en ana­ly­sant la volu­mé­trie du cer­veau, ce qui est par­ti­cu­liè­re­ment appré­ciés pour les patients ayant la mala­die d’Alzheimer car on peut ain­si voir que la struc­ture de leur cer­veau est réduite. Cela repré­sente donc un gain de tps pour les radio­logues car la mesure est auto­ma­tique. Côté pro­duc­ti­vi­té et qua­li­té de l’image, il y a Subtle Medi­cal qui pro­pose Subt­le­PET qui per­met de réduire le temps d’acquisition et le bruit lors de la recons­truc­tion de l’image.  

    Quels sont les cri­tères / indices d'évaluation d'une IA ? 

    On s’appuie sur les per­for­mances de l’IA et on regarde si le temps d’analyse n’est pas trop long. Il y a des études déjà faites des­sus. Après, on peut s’intéresser à la capa­ci­té d’intégration de l’IA avec le PACS par exemple : est-ce que le méde­cin doit faire 10 000 clics pour avoir les résul­tats ou aucun clic est néces­saire ? C’est ce qu’on appelle le work­flow : c’est la façon de tra­vailler, l’habitude de tra­vail. Notre but est d’essayer de ne pas per­tur­ber ce work­flow. Enfin, il y a l’aspect finan­cier. 

    Les patients savent-ils que l’on uti­lise de l’IA lors de leurs examens ? 

    Cer­tains éta­blis­se­ments pri­vés ne le cachent pas car cela est bon pour leur image et c’est une tech­nique de mar­ke­ting, donc oui les patients sont au cou­rant. Mais dans la plu­part des autres cas, ils ne le savent pas et il n’est pas utile de leur deman­der leur consen­te­ment sur l’utilisation d’une IA. 

    Y-a-t-il une réti­cence à l’IA ?  

    Il n’y a que les radio­logues des anciennes géné­ra­tions qui peuvent être contre, mais en vrai, tout le monde appré­cie. A l’avenir, le radio­logue assis­té par l’IA rem­pla­ce­ra le radio­logue tout court. En 2021, cela rentre dans les pra­tiques : il y a eu une explo­sion de l’intérêt de l’IA et cela s’est vu aux JFR. 

    Est-ce que vos solu­tions sont beau­coup implan­tées dans les ser­vices d'imagerie ? Si oui, quelles moda­li­tés sont les plus populaires ? 

    Nous sommes indé­pen­dants des gros construc­teurs comme GE, Phi­lips, Canon, etc. Par­fois, on tra­vaille avec eux lorsqu’ils posent leurs machines, mais ils ont leur propre IA. La moda­li­té la plus popu­laire est la radio­gra­phie car cela marche bien en termes de per­for­mances et cela plait aux urgen­tistes et radio­logues, donc cela touche plus de monde. De plus, le volume d’examens est gigan­tesque. Nous sommes par­te­naires avec Glea­mer et nous pro­po­sons donc l’IA Bone­View. Il y a d’autres concur­rents qui tra­vaillent sur cette moda­li­té comme Mil­vue ou encore Azmed.  Côté mam­mo­gra­phie, on peut uti­li­ser de l’IA dans le cadre du dépis­tage. En pra­tique si on fait un diag­nos­tic de radio­gra­phie et qu’on passe à côté d’une frac­ture, ce n’est pas très impor­tant car ce n’est pas « vital » : le patient ne devrait pas en mou­rir. Par contre si l’on rate quelque chose en mam­mo­gra­phie, cela peut être vital. Pas­sé un cer­tain âge, les femmes en font régu­liè­re­ment chaque année. Si on rate un truc, poten­tiel­le­ment on met la patiente en dan­ger. L’IA est très appré­ciée et existe depuis long­temps. Ce n’était pas du Deep Lear­ning aupa­ra­vant, donc ce n’était pas incroyable et cela ne mar­chait pas très bien (pareil que pour la détec­tion des nodules). Main­te­nant que l’on a le Deep Lear­ning, cela marche beau­coup mieux, c’est plus popu­laire et il y a beau­coup de demandes. Cela conforte et réas­sure le méde­cin pour être sûr qu’il n’ait rien raté. 

    Avez-vous des chiffres sur le nombre de ser­vices qui ont vos pro­duits et le nombre d'utilisation éventuellement ? 

    Il est dif­fi­cile de chif­frer tout cela, je n’ai mal­heu­reu­se­ment pas ces don­nées sous la main. 

    Sur quels cri­tères se basent votre dis­cours com­mer­cial pour convaincre les radio­logues d’utiliser vos logi­ciels d’IA ?  

    Nous mon­trons le temps de trai­te­ment et les per­for­mances amé­lio­rés en leur mon­trant des études faites des­sus. Nous insis­tons éga­le­ment sur les capa­ci­tés d’intégration de l’IA avec l’ergonomie de l’application : nous avons essayé de leur rendre tout acces­sible avec le moins de clics pos­sibles, quitte à perdre en qua­li­té. Enfin il y a le coût finan­cier, le mar­quage CE et les normes. Nous leur mon­trons aus­si la varié­té de notre cata­logue : nous avons choi­si une IA par fonc­tion­na­li­té, ils font donc un choix avec les cri­tères pré­cé­dents. Et en fonc­tion du nombre d’examens, nous fai­sons une esti­ma­tion à plus ou moins 10% pour leur abon­ne­ment men­suel.  

    Envi­ron com­bien d’images réa­lise un éta­blis­se­ment par mois ? 

    En radio­gra­phie, un éta­blis­se­ment effi­cace peut réa­li­ser plu­sieurs mil­liers de radios par mois. Un groupe pri­vé fera en un mois envi­ron 4 000 radios et 2 000 mam­mo­gra­phies avec les IA. 

    Selon vous, l’IA pour­ra-t-elle rem­pla­cer un jour les radiologues ? 

    A l’avenir, l’IA ne pour­ra pro­ba­ble­ment pas rem­pla­cer les radio­logues. Cepen­dant, je pense que les radio­logues « simples » seront rem­pla­cés par des radio­logues assis­tés par l’IA. » 


    Références bibliographiques

    [1]       F. Lazzeri, « Apprentissage profond et apprentissage automatique - Azure Machine Learning », sept. 07, 2021. [En ligne]. Disponible sur : https://docs.microsoft.com/fr-fr/azure/machine-learning/concept-deep-learning-vs-machine-learning (consulté le oct. 11, 2021).

    [2]       « Imagerie médicale », Le Larousse Médical. [En ligne]. Disponible sur : https://www.larousse.fr/encyclopedie/medical/imagerie_m%C3%A9dicale/13805 (consulté le oct. 11, 2021).

    [3]       Siemens Healthcare, « Transforming data to knowledge for better care – AI ». [En ligne]. Disponible sur : https://www.siemens-healthineers.com/fr/infrastructure-it/artificial-intelligence (consulté le nov. 24, 2021).

    [4]       Cour des Comptes, « L'imagerie médicale », mai 2016. [En ligne]. Disponible sur : https://www.ccomptes.fr/fr/publications/limagerie-medicale (consulté le oct. 10, 2021).

    [5]       T. Gaudiaut, « Infographie : Le big bang du big data », IDC, Seagate, Statista, juill. 30, 2020. [En ligne]. Disponible sur : https://fr.statista.com/infographie/17800/big-data-evolution-quantite-donnees-numeriques-creees-dans-le-monde/ (consulté le oct. 11, 2021).

    [6]       J-L. Laurière, « Intelligence artificielle - Résolution de problèmes par l’Homme et la machine », p. 400, 1987.

    [7]       J.-P. Haton, « L'intelligence artificielle », Texte de la 263e conférence de l’Université de tous les savoirs donnée le 19 septembre 2000, p. 8, sept. 19, 2000.

    [8]       B. Allen, « 2020 ACR Data Science Institute Artificial Intelligence Survey », avr. 20, 2021. [En ligne]. Disponible sur : https://doi.org/10.1016/j.jacr.2021.04.002 (consulté le nov. 06, 2021).

    [9]       A. Benoist et al., « Nouvelle bonne pratique d’activités connexes BPAC 6 : ingénierie biomédicale au sein d’un groupement hospitalier de territoire en France. Partie 2 : contenu », IRBM News, vol. 40, no 5, oct. 2019. [En ligne]. DOI : https://doi.org/10.1016/j.irbmnw.2019.07.004.

    [10]     L. Bastien , « Réseau de neurones artificiels : qu’est-ce que c’est et à quoi ça sert ? », LeBigData.fr, avr. 05, 2019. [En ligne]. Disponible sur : https://www.lebigdata.fr/reseau-de-neurones-artificiels-definition (consulté le nov. 24, 2021).

    [11]     M. Zouinar, « Évolutions de l’Intelligence Artificielle : quels enjeux pour l’activité humaine et la relation Humain‑Machine au travail ? », Activités, Art. no 17‑1, avr. 2020, [En ligne]. Disponible sur : http://journals.openedition.org/activites/4941, DOI : https://doi.org/10.4000/activites.4941.

    [12]     N. Pyatigorskaya, « L’intelligence artificielle en neuroradiologie diagnostique », SFR e-Bulletin, oct. 15, 2018. [En ligne]. Disponible sur : https://ebulletin.radiologie.fr/lundi-focus/lintelligence-artificielle-neuroradiologie-diagnostique (consulté le oct. 09, 2021).

    [13]     C. Villani et al., « Donner un sens à l’intelligence artificielle : pour une strategie nationale et européenne », Vie publique, mars 28, 2018. [En ligne]. Disponible sur : https://www.vie-publique.fr/rapport/37225-donner-un-sens-lintelligence-artificielle-pour-une-strategie-nation (consulté le oct. 11, 2021).

    [14]     J-G. Lee et al., « Deep Learning in Medical Imaging : General Overview », Korean Journal of Radiology, vol. 18, no 4, p. 570, 2017. [En ligne]. DOI : https://doi.org/10.3348/kjr.2017.18.4.570.

    [15]     « Les réseaux de neurones convolutifs », Natural Solutions. [En ligne]. Disponible sur : https://www.natural-solutions.eu/blog/la-reconnaissance-dimage-avec-les-rseaux-de-neurones-convolutifs (consulté le nov. 24, 2021).

    [16]     R. Lambert, « Focus : Le Réseau de Neurones Convolutifs », Pensée Artificielle, janv. 11, 2019. [En ligne]. Disponible sur : https://penseeartificielle.fr/focus-reseau-neurones-convolutifs/ (consulté le nov. 24, 2021).

    [17]     « Produit de convolution », . [En ligne]. Disponible sur : https://www.bibmath.net/dico/index.php?action=affiche&quoi=./c/convolution.html (consulté le nov. 24, 2021).

    [18]     European Society of Radiology (ESR), « What the radiologist should know about artificial intelligence – an ESR white paper », Insights into Imaging, vol. 10, p. 44, avr. 2019. [En ligne]. DOI : https://doi.org/10.1186/s13244-019-0738-2.

    [19]     C. D Lehman et al., « Diagnostic Accuracy of Digital Screening Mammography With and Without Computer-Aided Detection », JAMA Internal Medicine, vol. 175, no 11, p. 1828‑1837, nov. 2015. [En ligne]. DOI : https://doi.org/10.1001/jamainternmed.2015.5231.

    [20]     L. Duron et al., « Assessment of an AI Aid in Detection of Adult Appendicular Skeletal Fractures by Emergency Physicians and Radiologists : A Multicenter Cross-sectional Diagnostic Study », RSNA, vol. 300, no 1, p. 120‑129, juill. 2021. [En ligne]. DOI : https://doi.org/10.1148/radiol.2021203886.

    [21]     J. R. Zech et al, « Variable generalization performance of a deep learning model to detect pneumonia in chest radiographs : A cross-sectional study », PLOS Medicine, vol. 15, no 11, p. e1002683, nov. 2018. [En ligne]. DOI : https://doi.org/10.1371/journal.pmed.1002683.

    [22]     M. B. Naceur et al, Fully Automatic Brain Tumor Segmentation using End-To-End Incremental Deep Neural Networks in MRI images », Comput Methods Programs Biomed, vol. 166, p. 39‑49, nov. 2018. [En ligne]. DOI : https://doi.org/10.1016/j.cmpb.2018.09.007.

    [23]     X. Zhang et al., « Optimizing a machine learning based glioma grading system using multi-parametric MRI histogram and texture features », Oncotarget, vol. 8, no 29, p. 47816‑47830, juill. 2017. [En ligne]. DOI : https://doi.org/10.18632/oncotarget.18001.

    [24]     Carestream Health, « Tufts Medical Center Uses Carestream Vue PACS to Create 3D and MPR Studies », Youtube, 2013. [En ligne]. Disponible sur : https://www.youtube.com/watch?v=XShfEQAFjYs (consulté le oct. 11, 2021).

    [25]     « Applications de l’intelligence artificielle dans le domaine de la santé afin d’améliorer l’efficacité », Philips Healthcare. [En ligne]. Disponible sur : https://www.philips.fr/healthcare/nobounds/four-applications-of-ai-in-healthcare (consulté le oct. 11, 2021).

    [26]     E. Neri et al., « Radiomics and liquid biopsy in oncology : the holons of systems medicine », Insights into Imaging, vol. 9, no 6, Art. no 6, déc. 2018. [En ligne]. DOI : https://doi.org/10.1007/s13244-018-0657-7.

    [27]  B. Nordlinger, C. Villani, « Santé et intelligence artificielle », CNRS Editions, 2018. [En ligne]. Disponible sur : https://www.cnrseditions.fr/catalogue/physique-et-astrophysique/sante-et-intelligence-artificielle/ (consulté le oct. 11, 2021).

    [28]     P. Grenier, « Big Bang Data », Olea Image in, vol. 5, 2018. [En ligne]. Disponible sur : https://www.olea-medical.com/upload/imagein/document/5d8b157ad7043-05-Olea-Imagein-Big-Bang-Data.PDF

    [29]     P. Omoumi et al., « To buy or not to buy - evaluating commercial AI solutions in radiology (the ECLAIR guidelines) », European Radiology, vol. 31, no 6, p. 3786‑3796, mars 2021. [En ligne]. DOI : https://doi.org/10.1007/s00330-020-07684-x.

    [30]     P. Houkas, « L’intelligence artificielle ne fera pas baisser les coût de la radiologie », janv. 26, 2021. [En ligne]. Disponible sur : https://www.bilan.ch/techno/lintelligence-artificielle-ne-fera-pas-baisser-les-cout-de-la-radiologie (consulté le oct. 11, 2021).

    [31]     GE Healthcare, « Les radiologues sont optimistes sur l’impact des nouvelles technologies sur leur métier », Caducee.net [En ligne]. Disponible sur : https://www.caducee.net/actualite-medicale/13662/les-radiologues-sont-optimistes-sur-l-impact-des-nouvelles-technologies-sur-leur-metier.html (consulté le nov. 24, 2021).

    [32]     « L’IA pour gagner du temps et améliorer la précision dans le positionnement du patient », Philips Healthcare, juin 2021. [En ligne]. Disponible sur : https://www.philips.com/c-dam/b2bhc/fr/landing-pages/imagerie/incisive_precise_position_def.pdf

    [33]     « L’Intelligence Artificielle en imagerie médicale », 3R Réseau Radiologique Romand, 2021. [En ligne]. Disponible sur : https://services.groupe3r.ch/ia-replay/ (consulté le nov. 24, 2021).

    [34]     L. Bonner, « FDA Clears AIR Recon DL, Deep Learning-based MR image reconstruction technology from GE Healthcare », Axis Imaging News, mai 28, 2020. [En ligne]. Disponible sur : https://axisimagingnews.com/imaging-news/company-news/fda-clears-air-recon-dl-deep-learning-based-mr-image-reconstruction-technology-from-ge-healthcare (consulté le nov. 24, 2021).

    [35]     « DC-80A » Mindray. [En ligne]. Disponible sur : https://wwww.mindray.com/fr/product/DC-80A_OB.html (consulté le nov. 24, 2021).

    [36]     « SubtlePET », Incepto medical. [En ligne]. Disponible sur : https://incepto-medical.com/fr/solutions/subtlepet (consulté le nov. 02, 2021).

    [37]     « KEROS », Incepto medical. [En ligne]. Disponible sur :  https://incepto-medical.com/fr/solutions/keros (consulté le nov. 24, 2021).

    [38]     « Pixyl.Neuro.MS », Incepto medical, nov. 02, 2021. [En ligne]. Disponible sur :  https://incepto-medical.com/fr/solutions/pixyl-neuro-ms (consulté le nov. 24, 2021).

    [39]     J. Y. Ha et al, « Effect of Bone Reading CT software on radiologist performance in detecting bone metastases from breast cancer », British Journal Radiology, vol. 90, no 1072, avr. 21, 2017. [En ligne]. DOI : https://doi.org/10.1259/bjr.20160809.

    [40]     « Liver ASSIST Virtual Parenchyma », GE Healthcare. [En ligne]. Disponible sur : https://www.gehealthcare.co.uk/products/interventional-image-guided-systems/igs-for-interventional-radiology-and-oncology/liver-assist-virtual-parenchyma (consulté le nov. 24, 2021).

    [41]     T. Ozturk et al, « Automated detection of COVID-19 cases using deep neural networks with X-ray images », Computers in Biology Medicine, vol. 121, juin 2020. [En ligne]. DOI : https://doi.org/10.1016/j.compbiomed.2020.103792.

    [42]     « Post LinkedIn de Milvue sur SmartUrgences », LinkedIn, mai 2021. [En ligne]. Disponible sur : https://www.linkedin.com/posts/milvue_ai-xray-focus-activity-6797830758196105216-CE0f/ (consulté le nov. 24, 2021).

    [43]     « MammoScreen », Therapixel. [En ligne]. Disponible sur : https://www.mammoscreen.fr/comment-cela-fonctionne (consulté le nov. 24, 2021).

    [44]     « Breast-SlimView », Hera-MI. [En ligne]. Disponible sur : https://www.hera-mi.com/breast-slimview/ (consulté le nov. 24, 2021).

    [45]     « Caption AI », Caption Health. [En ligne]. Disponible sur : https://captionhealth.com/products/caption-ai/ (consulté le nov. 24, 2021).

    [46]     « PET VCAR », GE Healthcare. [En ligne]. Disponible sur : https://www.gehealthcare.fr/products/advanced-visualization/all-applications/pet-vcar (consulté le nov. 24, 2021).

    [47]     « Intelligence Artificielle en Imagerie Médicale - Enjeux et Adoption », Incepto medical. [En ligne]. Disponible sur : https://incepto-medical.com/fr/actualites/articles/intelligence-artificielle-en-imagerie-medicale-enjeux-et-adoption (consulté le oct. 01, 2021).

    [48]     M. Gautherot et al., « 15 minutes pour comprendre et évaluer un logiciel d’intelligence artificielle appliquée à l’imagerie médicale », Journal d’imagerie diagnostique et interventionnelle, vol. 4, no 3, p. 167‑171, juin 2021. [En ligne]. DOI : https://doi.org/10.1016/j.jidi.2020.12.001.

    [49]     G. Avrin et al, « Évaluer les intelligences artificielles », Data Analytics Post, sept. 13, 2018. [En ligne]. Disponible sur : https://dataanalyticspost.com/evaluer-les-intelligences-artificielles/ (consulté le janv. 05, 2022).

    [50]     « LEIA, une plateforme inédite pour l’évaluation de l’intelligence artificielle », Laboratoire National de métrologie et d’Essais, févr. 08, 2021. [En ligne]. Disponible sur : https://www.lne.fr/fr/actualites/leia-plateforme-inedite-evaluation-intelligence-artificielle (consulté le janv. 05, 2022).

    [51]     « Estimation de la similarité de deux ensembles ou plus », Snowflake. [En ligne]. Disponible sur : https://docs.snowflake.com/fr/user-guide/querying-approximate-similarity.html (consulté le janv. 07, 2022).

    [52]     R.J Marks et al., « Six limitations of Artificial Intelligence as we know it », Mind Matters News, août 27, 2020. [En ligne]. Disponible sur : https://mindmatters.ai/2020/08/six-limitations-of-artificial-intelligence-as-we-know-it/ (consulté le janv. 05, 2022).

    [53]     C. Meziat et al., « Intelligence Artificielle et Cybersécurité », Wavestone, 2019. [En ligne]. Disponible sur : https://www.wavestone.com/app/uploads/2019/09/IA-cyber-2019.pdf (consulté le janv. 06, 2022).

    [54]     B. Teinturier et al, « Observatoire sociétal du médicament - 8ème vague », Conférence de presse d'Ipsos, nov. 13, 2018. [En ligne]. Disponible sur : https://www.ipsos.com/sites/default/files/ct/news/documents/2018-11/ipsos_leem_observatoire_societal_2018.pdf (consulté le janv. 04, 2022).

    [55]     C. Balagué, « Enjeux de l’IA Responsable en santé », Evry-Sénart Sciences et Innovation sur Youtube, janv. 23, 2019. [En ligne]. Disponible sur : https://www.youtube.com/watch?v=BFM9hPWYY_Q (consulté le janv. 07, 2022).

    [56]     P. Renard, « Droit et éthique des DM à base d’IA : l’Europe et la France accélèrent ! », DeviceMed, nov. 07, 2021. [En ligne]. Disponible sur : https://www.devicemed.fr/dossiers/reglementation/droit-et-ethique-des-dm-a-base-dia-leurope-et-la-france-accelerent/29063 (consulté le janv. 07, 2022).

    [57]     Organisation Mondiale de la Santé, « Ethics and governance of artificial intelligence for health : WHO guidance : executive summary », 2021. [En ligne]. Disponible sur : https://apps.who.int/iris/handle/10665/350567 (consulté le janv. 07, 2022). 

    [58]     Organisation Mondiale de la Santé, « L’OMS publie le premier rapport mondial sur l’intelligence artificielle (IA) appliquée à la santé et six principes directeurs relatifs à sa conception et à son utilisation », juin 28, 2021. [En ligne]. Disponible sur : https://www.who.int/fr/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its-design-and-use (consulté le janv. 07, 2022).
    searchhomearrow-circle-leftchevron-right-circle