La Società Francese di Radiologia (SFR) e la Società Francese di NeuroRadiologia (SFNR) desiderano fornire alcuni dettagli a seguito della recente intervista del Pr Jean-François Delfraissy, presidente del Comitato Consultivo Nazionale di Etica (CCNE), su France Inter durante la quale ha menzionato il fatto che il 50% delle risonanze magnetiche cerebrali verrebbe interpretato dai sistemi di intelligenza artificiale (AI).
Sulle cifre, la SFNR stima che meno dell’1% dei casi utilizzerà l’IA per aiutare a interpretare la risonanza magnetica cerebrale nel 2023 in Francia e nessuna IA da sola fornisce un’interpretazione . L’applicazione più frequente nelle nostre professioni, invece, è quella del miglioramento da parte dell’AI della qualità delle immagini prodotte, che è molto utile e che contribuisce al miglioramento delle nostre capacità di fare meglio una diagnosi. Ma in nessun caso, avere la capacità di interpretare in modo indipendente l’imaging medico.
Nel merito, è importante ricordare che in radiologia e medical imaging, come in tutti i campi della medicina, è sbagliato immaginare una macchina onnipotente che crei e poi analizzi da sola i dati fino alla produzione di un referto al paziente .
Nell’inconscio collettivo, la macchina non si sbaglia. Tuttavia, i sistemi di intelligenza artificiale sono tutt’altro che . tener conto della complessità della persona umana, del paziente, a differenza del medico: gli strumenti di intelligenza artificiale per l’assistenza diagnostica sono attualmente principalmente limitati a UN compito dato (ad es. aiutare a contare le lesioni della sclerosi multipla nel follow-up).
Il ruolo umano è chiaro in questo contesto e la SFR lo ribadisce con forza. Nel campo della salute, le decisioni vengono prese dai medici, nel caso dell’interpretazione delle risonanze magnetiche: dai radiologi, che sono responsabili della presa in carico della salute dei loro pazienti. L’IA può essere uno strumento messo a disposizione del radiologo, in nessun modo può sostituirlo.
È il principio fondamentale della garanzia umana nell’IA che consiste nel garantire che l’intelligenza artificiale non prenda decisioni che potrebbero avere conseguenze negative per gli esseri umani. In termini di salute, questo punto è fondamentale. Questo principio di garanzia umana è stato sostenuto ed evidenziato anche nel parere congiunto 141 del Comitato consultivo etico nazionale e del Comitato nazionale pilota digitale (CNPEN).
È imperativo tenere conto degli aspetti etici, trasmettere al pubblico spiegazioni corrette, chiare, trasparenti e aggiornate in termini di intelligenza artificiale per limitare le false credenze e promuovere un uso responsabile ed etico dell’IA nonché per prevenire potenziali rischi.
Infine, citeremo Garry Kasparov “Il pericolo che ci aspetta non è che le macchine ci sostituiscano, è che iniziamo a pensare come loro. Meccanicamente. — Quindi il pericolo di cui parla Kasparov non è che le macchine sostituiscano gli umani, ma piuttosto che gli umani inizino a pensare e prendere decisioni meccanicamente, affidandosi ciecamente ai dati forniti dalle macchine senza dimostrare giudizio critico o creatività. Ciò evidenzia l’importanza dell’istruzione e della formazione per aiutare gli esseri umani a sviluppare la propria capacità di pensare in modo critico e prendere decisioni informate utilizzando sia i dati forniti dalle macchine che il proprio giudizio.
Ribadiamo quindi qui l’importanza di questa garanzia umana, che pone il medico e non l’IA al centro del processo decisionale per i nostri pazienti. Non sopravvalutiamo quello che attualmente è un mito, quello di una macchina super competente che sostituisce l’uomo. Non ci siamo assolutamente nel campo della salute.
Articolo tradotto da : Link