Cine plătește dacă AI greșește în medicină. Cum afectează Inteligența Artificială responsabilitatea medicilor

În era digitală, inteligența artificială începe să joace un rol tot mai important în medicină, de la analiza imaginilor medicale până la suportul pentru diagnostic. Dar pe măsură ce AI preia sarcini tradițional realizate de medici, apare o întrebare esențială: cine răspunde în cazul unei erori medicale? Specialiștii în bioetică și medicină legală atrag atenția asupra riscurilor și necesității unor reglementări clare, pentru ca actul medical să rămână sigur și responsabil.

Inteligența artificială în medicină: provocări și responsabilitate

Inteligența artificială începe să preia tot mai multe sarcini în medicina modernă, de la analiza imaginilor medicale până la suportul pentru diagnostic. Dar pe măsură ce algoritmii devin tot mai implicați în actul medical, apare o întrebare crucială: cine își asumă responsabilitatea dacă apar erori? Specialiștii avertizează că fără reglementări clare și principii bioetice solide, actul medical poate deveni vulnerabil, iar rolul medicului - discutabil.

"Ideea că omul nu poate fi înlocuit este relativă. Nu doar pentru că pacientul are nevoie de o interfață umană, ci și pentru că marile corporații sunt motivate în primul rând de interese economice.

Atunci când pot eficientiza actul medical crescându-și profitul, o fac - și o vor face tot mai mult. Știm deja că anumite locuri de muncă tradițional ocupate de oameni au fost preluate de inteligența artificială, iar acei oameni au dispărut din peisaj.

Același lucru se preconizează și în medicină, începând poate cu imagistica, unde AI excelează în analizarea imaginilor, și continuând cu diagnosticul, unde este capabilă să parcurgă rapid toate investigațiile și literatura de specialitate pentru a ajunge la concluzii pertinente.

De aici, rolul crucial al bioeticii, care trebuie să contribuie la reglementarea practicii medicale din era digitală.

Acolo unde profitul primează, doar reglementările bazate pe principii bioetice pot impune limite.

Un aspect esențial este responsabilitatea. Atât timp cât actul medical este realizat de oameni, noțiunea de „eroare medicală" rămâne valabilă. Dar dacă diagnosticul greșit provine dintr-un sistem AI, cine răspunde? Medicul? Producătorul? Algoritmul", a spus acad. prof. dr. Irinel Popescu, realizatorul emisiunii Academia de Sănătate.

Responsabilitatea în medicina digital

Utilizarea inteligenței artificiale în actul medical ridică o întrebare crucială: cine își asumă responsabilitatea în caz de eroare? Specialiștii în medicină legală și bioetică avertizează că, fără reglementări clare, medicul se confruntă cu riscuri și incertitudini, iar rolul AI trebuie definit cu precizie pentru a proteja pacientul și actul medical.

"Poate optimismul meu de început nu este nejustificat, pentru că păstrează o notă de speranță.
Întrebarea privind responsabilitatea este într-adevăr una dintre cele mai importante. Cine răspunde - sau, altfel spus, cum scapă medicul de răspundere atunci când utilizează inteligența artificială în actul medical?

Există, ca și în alte domenii, două planuri: moral-etic și juridic. De obicei, acestea se completează reciproc.

Din perspectiva legalității însă, ne aflăm în fața unei dereglementări aproape totale în privința utilizării inteligenței artificiale în medicină.
Prin urmare, problema răspunderii, cel puțin deocamdată, nu are o soluție clară.

Se generează un risc personal sau, mai precis, un risc al actului medical atunci când folosim inteligența artificială fără o delimitare clară a rolului ei. Situația este asemănătoare cu redactarea unui articol științific, unde autorilor li se recomandă să nu folosească inteligența artificială sau, dacă o fac, să menționeze exact ce tip de instrument au utilizat și în ce măsură.

 În final, decizia de a accepta sau respinge un articol redactat parțial ori total cu ajutorul AI rămâne la latitudinea jurnalului", a explicat prof. univ. dr. George Cristian Curcă, directorul INML, specialist în medicină legală și bioetică, în exclusivitate la Academia de Sănătate de la DC Medical și DC News.

Independența medicului în era inteligenței artificiale

Actul medical se află la intersecția dintre tehnologie și etică. Pacientul, de cele mai multe ori, nu știe în ce măsură medicul folosește inteligența artificială, iar în cazul unei probleme, ar fi nefericit să afle că deciziile nu au fost complet autonome. Independența profesională, un principiu moral și etic fundamental, devine vulnerabilă dacă medicul se bazează pe algoritmi pe care nu îi înțelege pe deplin.

"Prin urmare, ceva similar se întâmplă și în domeniul medical. Actul medical are ca beneficiar pacientul, care, de cele mai multe ori, nici nu știe dacă și în ce măsură medicul folosește inteligența artificială. În cazul în care ar apărea o problemă - nu neapărat o eroare, ci o situație care ar impune stabilirea responsabilității - ar fi nefericit ca pacientul să afle abia atunci că medicul, în care a avut încredere, nu a acționat complet autonom.

Independența profesională este un principiu moral și etic fundamental, prezent în orice cod deontologic. Dacă aceasta este doar mimată, iar deciziile medicului sunt de fapt ghidate de algoritmi pe care îi folosește fără o deplină înțelegere, atunci actul medical devine vulnerabil. Medicul ajunge într-o poziție dificilă, pentru că își asumă consecințele unor decizii luate cu sprijinul unui instrument în care are încredere, dar pe care nu îl controlează", a explicat prof. univ. dr. George Cristian Curcă, directorul INML, specialist în medicină legală și bioetică, în exclusivitate la Academia de Sănătate de la DC Medical și DC News.

Articole similare