Publicat în etică medicală, tehnologie

Inteligența artificială și medicina (II)

Aplicațiile inteligenței artificiale (AI) au consecințe majore atât pentru umanitate în ansamblu, cât și pentru fiecare individ; de aceea este vital să se găsească un echilibru între perspectiva dată de progresul AI și societatea umană în ansamblu. Aceasta deoarece erorile asociate cu astfel de tehnologii pot provoca probleme, dar și succesele necontrolate ar putea conduce la probleme și mai grave (1, 2).

În medicină, inteligența artificială poate fi clasificată în trei ramuri principale, și anume: virtuală, fizică și mixtă (o combinație între realitatea virtuală și roboți) (1).

Indiferent de ramură, dezvoltarea AI în medicină ridică aceeași întrebare: care sunt limitele tehnice și etice ale unei astfel de tehnologii? Există aproape un consens în lumea medicală că problema esențială a utilizarii AI este cea a riscurilor etice, care afectează siguranța pacientului, autonomia persoanei (exprimată prin consimțământul informat și confidențialitate), protecția datelor personale etc.

1. Siguranța pacientului

În 2012, sistemul AI Watson (IBM), după o perioadă „de studiu” (ca student la medicină la Cleveland Clinic Lerner College of Medicine din Case Western Reserve University), a promovat examenul de autorizare a medicilor din SUA (3, 4). Imediat s-a speculat: viitorul practicii medicale „standard” ar putea fi un computer ce va înlocui omul? (5, 6). Ulterior, s-a dovedit că Watson utilizat în practica medicală (oncologie) recomandă adesea tratamente nesigure și incorecte, aceasta deoarece datele utilizate pentru antrenarea algoritmului lui Watson nu au fost de la pacienți reali, ci date (ipotetice și insuficiente) de la pacienți virtuali (7). Și alte sisteme au avut aceeași problemă. S-a constatat că, atunci când întâlnesc date din lumea reală, care diferă de cele din seturile de date de antrenament, performanța AI poate fi mai slabă, ceea ce duce la riscuri clinice crescute (8).

Riscurile și daunele apar din cauza erorilor de programare, testare, certificare a software-ului etc. toate însoțite de diverse aspecte legale și etice (9). Cercetătorii vorbesc despre utilizarea AI în medicină ca despre „o sabie cu două tăișuri” (10) sau o „cutie a Pandorei din secolul XXI” (11). Există preocupări cu privire la proprietățile unice și riscurile inerente tehnologiilor AI mai ales asupra capacităților acestora de „luare a deciziilor” (12). Când AI medicală merge prost, poate provoca vătămări grave oamenilor. De exemplu:

  • între 2000 și 2013, roboții chirurgicali din Statele Unite au fost responsabili pentru cel puțin 1.391 de incidente care au cauzat vătămări și 144 de decese (13);
  • în 2015, britanicii au folosit un robot medical pentru a efectua o intervenție chirurgicală de reparare a valvei cardiace, iar robotul nu numai că a făcut erori operaționale grave, dar a și interferat cu funcționarea corectă a medicilor umani, ducând la moartea pacientului (5);
  • în 2019, U.S. Food and Drug Administration (FDA) a descoperit că sistemul chirurgical robotizat ROSA Brain 3.0 are erori grave de software (14); și exemplele pot continua.

Ce este grav este faptul că defectele AI pot pune în pericol mai mulți pacienți decât un diagnostic greșit al unui medic, deoarece sistemele automate vor replica aceste erori la toți pacienții (15).

Cele mai frecvente cauze ale erorilor inteligenței artificiale sunt calitatea datelor introduse, prejudecățile algoritmice și opacitatea algoritmului.

a. Calitatea datelor

AI folosește diverși algoritmi pentru a găsi corelații neliniare complexe în seturi de date masive analitice (16, 17). Calitatea datelor determină în mod direct capacitatea AI de a rezolva probleme medicale. Există între informaticeni o afirmație axiomatică: „garbage in, garbage out” (gunoi introduci, gunoi iese). În medicina, datele sunt numeroase și complicate. Datele medicale provin din multiple surse și sunt eterogene: date din literatură, date din studiile clinice, date din lumea reală, date din sănătatea publică etc. (18). Cei care creează algoritmii sunt informaticeni (rar sunt medicii care tratează pacienții) și de aceea se pot înșela atunci când stabilesc pertinența și concludența datelor (19). Pentru a înlătura acest impediment major ar trebui ca informaticenii să cunoască foarte bine medicina, iar medicii să cunoască foarte bine informatica, ceea ce e greu de realizat. Mai mult, majoritatea bazelor de date utilizate provin de la populații selectate și drept urmare, atunci când sunt aplicate unor grupe de pacienți subreprezentate, algoritmii pot să eșueze (20). De exemplu, dacă algoritmul este dezvoltat cu date care implică în principal occidentali, poate fi mai puțin precis în diagnosticarea asiaticilor (21). Așa cum a afirma Johnson în 2020, „sistemele AI sunt la fel de bune ca datele furnizate lor” (22).

b. Prejudecățile algoritmice

Când s-au introdus aplicațiile AI în medicină, s-a crezut că astfel s-ar putea să se reduca riscurile, să se atenueze părtinirile existente în sistemul de sănătate (cum ar fi de exemplu părtinirile cognitive ale medicilor), conducând astfel la rezultate mai sigure și echitabile (23, 24). Nu a durat mult și s-a constatat că algoritmii pot duce și la rezultate părtinitoare, care pot avea efecte de anvergură asupra rezultatelor (25).

Prejudecățile algoritmice sunt definite ca defecte ale algoritmului și includ atât părtinirea indusă de om, cât și părtinirea indusă de date.

Prejudecățile induse de om sunt determinate de scrierea, în mod intenționat sau neintenționat, a unui algoritm, care reflectă percepțiile morale și interesele relevante ale autorilor (26, 27).

Prejudecățile induse de date se referă la părtinirea algoritmului atunci când datele de antrenament nu sunt reprezentative sau insuficiente, ceea ce afectează modelul algoritmului. Ele nu numai că moștenesc părtinirile umane, dar este posibil ca acestea să fie întărite și amplificate (28, 29). În numeroase situații, datele de instruire pentru AI din domeniul medical provin din unități medicale de nivel înalt, ceea ce duce la părtinire frecventă atunci când este utilizată în unități medicale de nivel inferior (30).

Majoritatea algoritmilor exploatează corelațiile brute în date. Aceste corelații sunt adesea produse secundare ale relațiilor sociale importante. Prejudecățile algoritmice provin, uneori, și din datele purtătoare de încărcătură socială și rasială ce pot conduce la inechități și discriminare (30, 31, 32, 33, 34, 35).

c. Opacitatea algoritmului

Opacitatea constă în necunoașterea sau neînțelegerea modului în care algoritmul funcționează. Există mai multe explicații privind acest fenomen. Unul ține de secretul comercial și de brevetare. Dezvoltarea AI este dominată de marile companii private, iar algoritmii sunt secrete comerciale pe care companiile le ascund în mod intenționat. Deși companiile AI susțin că, produsele și serviciile lor sunt sigure și etice, ele nu au convins (36) și companiile sunt în continuare criticate pentru că nu s-au angajat în dezbateri semnificative despre produsele și cercetările lor (37, 38). Apoi, incapacitatea personalului medical și a publicului de a înțelege programarea și tehnicile algoritmice, deoarece mulți algoritmi se bazează pe o matematică foarte complicată inaccesibilă acestora (38). În sfârșit, fenomenul de „cutie neagra algoritmică” ceea ce înseamnă că intrările și ieșirile sunt vizibile și ușor de înțeles, dar procesul de la intrare până la ieșire nu poate fi explicat sau înțeles. Cu alte cuvinte, motivele din spatele rezultatelor unui algoritm nu sunt înțelese și nu pot fi interpretate nici măcar de creatorii lui (38, 39).

2. Consimțământul informat

Potrivit legislației internaționale transpusă în legislații naționale, pacientul are dreptul de a obține informații și de a pune întrebări înainte de orice procedură și orice tratament. Pacienții pot refuza investigațiile și tratamentul în orice moment. De aceea pacienții ar trebui să fie informați despre riscurile ce decurg din utilizarea AI, despre erorile de programare, despre protecția datelor personale, despre cine este responsabil atunci când aceste dispozitive medicale robotizate cu AI eșuează etc. Dar așa cum s-a menționat deseori nici medicii nu au acces la toate informațiile privind AI și la fel de des chiar dacă le au, nu le înțeleg. Atunci cum le pot pune la dispoziția pacientului? De regulă, pacienții acceptă sistemul AI fără a pune la îndoială performanța acestuia ceea ce conduce la un consimțământ formal și viciat. Cum reacționează autoritățile medicale pentru a acoperi aceasta lacună? Se încearcă tot felul de soluții deocamdată fără rezultate. Rămân actuale întrebările cu privire la modul în care structurile de răspundere din medicină vor gestiona eficient problemele legate de tehnologiile AI implementate (40).

3. Confidențialitatea și protecția datelor

AI ridică preocupări legate de confidențialitatea pacienților și utilizarea datelor acestora. Acestea sunt legitime, deoarece datele pacienților au o valoare ridicată pentru cercetare și afaceri, și de aceea încălcarea regimului protecției datelor are loc frecvent. În 2017, peste 15% din încălcările globale ale datelor au venit din industria sănătății (pe locul doi – după sectorul financiar) (41), au ajuns la un nivel record în 2021 – afectând peste 45 de milioane de oameni (42), iar conform Raportului Critical Insights 97% dintre persoanele afectate de o încălcare a securității cibernetice în prima jumătate a anului 2022 au fost rezultatul unor acțiuni de hacking și IT (43).

Cantitățile enorme de date cu caracter personal colectate din diverse surse și inserate în algoritmi AI în scopuri medicale, pot produce atingeri ale confidențialitatii pacientului (44). Datele colectate pot fi piratate sau utilizate (ilegal) în alte scopuri cu reducerea la minimum a confidențialitații aceasta deoarece ele pot fi de mare ajutor în marketing, publicitate și vânzările companiilor farmaceutice și de biotehnologie (45, 46). Vulnerabilitățile securității cibernetice ale AI pot fi o amenințare gravă pentru confidențialitatea pacientului, deoarece sunt, de obicei, ascunse și descoperite numai după ce daunele au fost cauzate și s-au produs rezultatele negative (47, 48). În plus, multe tehnologii AI ajung să fie deținute și controlate de entități private, ceea ce însemna că astfel de corporații joacă un rol mai mare decât cel obișnuit în obținerea, utilizarea și protejarea informațiilor despre sănătatea pacientului. Acest lucru ridică noi probleme de confidențialitate legate de implementare și securitatea datelor (49). În literatură, o atenție semnificativă este acordată dezvoltării tehnicilor de păstrarea confidențialității și depășirii problemelor care împiedică adoptarea AI într-un mediu clinic real (50). Odată cu instrumentele tehnice necesare pentru a îmbina colecții mari de date și pentru a distribui interogări pe baze de date disparate, cercetătorii vor trebui sa utilizeze metode de anonimizare și dezidentificare a datelor (51). Această capacitate de a dezidentifica sau anonimiza datele poate fi compromisă sau chiar anulată de noii algoritmi, care au reidentificat cu succes astfel de date (50).

Puține dezbateri s-au concentrat asupra unui risc important al tehnologiilor AI și anume: cel al dezumanizării actului medical. Empatia, simpatia, compasiunea sunt emoții unice umane inaccesibile inteligenței artificiale (AI). Pacienții vor pierde astfel empatia, bunătatea și comportamentul adecvat atunci când au de-a face cu „medici și asistente roboți”. Mai mult, dacă medicii și ceilalți furnizori de îngrijire medicală pot să solicite consultanță sau să ofere consultanță colegilor lor, acest lucru nu este posibil în sistemele autonome (robotice) AI și pacientul este privat de un drept – dreptul la a doua opinie. Acestea sunt cele mai semnificative aspecte negative ale inteligenței artificiale în știința medicală (52, 53).

În sfârșit, se poate afirma că deși în prezent rezultatele arată că AI poate depăși oamenii în multe aspecte, ea nu posedă în esență liberul arbitru, nu are subiectivitate morală, nu poate evalua independent și sintetic problemele medicale, nu poate conceptualiza, îi lipsește nivelul de cunoaștere necesar gândirii critice, nu poate fi un subiect responsabil (54, 55, 56, 57). Mai mult, studiile, care raportează aplicarea AI în practica clinică, sunt limitate atât din cauza designurilor retrospective și a dimensiunilor eșantionului, cât și a selecției și prejudecăților de spectru; se potrivesc optim cu un anumit set de date (prin supraajustare), dar nu obțin aceleași rezultate cu alte date similare (57, 58). De aceea medicii, atunci când consideră că un sistem de diagnostic și tratament medical AI este în cea mai mare parte precis și acceptă rezultatele sistemului (fără a-i pune la îndoială limitele), se plafonează (nereușind să-și mențină abilitățile) și participă la dezumanizarea profesiei (59).

În concluzie, noile metode AI nu sunt un panaceu; pot greși, pot funcționa doar într-un domeniu îngust, pot avea prejudecăți, pot discrimina, pot afecta în mod disproporționat grupurile marginalizate. Adoptarea precipitată a sistemelor AI, netestate suficent, ar putea duce la erori, ar putea cauza prejudicii pacienților, ar putea eroda încrederea în medicina. Tehnologiile AI nu vor putea înlocui personalul medical uman, dar sub control uman pot fi instrumente eficiente în medicină.

Bibliografie

1. Jian Guan, Artificial Intelligence in Healthcare and Medicine: Promises, Ethical Challenges and Governance, Chin Med Sci J June 2019 Vol. 34, No. 2 P. 76-83 doi:10.24920/003611

2. Cath C. Governing artificial intelligence: ethical, legal and technical opportunities and challenges. Philos Trans A Math Phys Eng Sci. 2018; 376(2133):20180080; doi: 10.1098/rsta.2018.0080

3. Lohr, Steve, I.B.M.’s Watson Goes to Medical School, The New York Times, October 30, 2012, archive.nytimes.com/bits.blogs.nytimes.com/2012/10/30/i-b-m-s-watson-goes-to-medical-school/

4. Nusca, Andrew, After a year of medical school, IBM’s Watson passes first milestone, ZDnet, Feb. 8, 2013, zdnet.com/article/after-a-year-of-medical-school-ibms-watson-passes-first-milestone/

5. Zhang, J., Zhang, Zm. Ethics and governance of trustworthy medical artificial intelligence. BMC Med Inform Decis Mak 23, 7 (2023). doi: 10.1186/s12911-023-02103-9

6. Miller A. The future of health care could be elementary with Watson. CMAJ. 2013 Jun 11;185(9):E367-8. doi: 10.1503/cmaj.109-4442. Epub 2013 Apr 15. PMID: 23589429; PMCID: PMC3680569.

7. Ross, C., Swetlitz, I., IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show. STAT News, July 25, 2018statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/

8. Kelly CJ, Karthikesalingam A, Suleyman M, et al. Key challenges for delivering clinical impact with artificial intelligence. BMC Med. 2019; 17 (1) : 195 doi: 10.1186/s12916-019-1426-2

9. O’Sullivan S, Nevejans N, Allen C, et al. Legal, regulatory, and ethical frameworks for develop-ment of standards in artificial intelligence(AI) and autonomous robotic surgery. Int J Med Robot. 2019; 15(1):e1968. doi: 10.1002/rcs.1968

10. Haug CJ, Drazen JM. Artificial Intelligence and Machine Learning in Clinical Medicine, 2023. N Engl J Med. 2023 Mar 30; 388(13):1201-1208. doi: 10.1056/NEJMra2302038. PMID: 36988595

11. Cooper A, Rodman A. AI and Medical Education – A 21st-Century Pandora’s Box. N Engl J Med. 2023 Aug 3; 389(5):385-387. doi: 10.1056/NEJMp2304993. Epub 2023 Jul 29. PMID: 37522417

12. Daniel Schönberger, Artificial intelligence in healthcare: a critical analysis of the legal and ethical implications, International Journal of Law and Information Technology, Volume 27, Issue 2, Summer 2019, Pages 171–203, doi: 10.1093/ijlit/eaz004

13. Alemzadeh H, Raman J, Leveson N, et al. Adverse events in robotic surgery: a retrospective study of 14 years of FDA data. PLoS ONE. 2016; 11(4): e0151470. doi: 10.1371/journal.pone.0151470

14. U.S. Food and Drug Administration. Zimmer Biomet Recalls ROSA One 3.1 Brain Application Due to Error in Software. 2021. fda.gov/medical-devices/medical-device-recalls/zimmer-biomet-recalls-rosa-one-31-brain-application-due-error-software

15. Macnish K. Unblinking eyes: the ethics of automating surveillance. Eth Inf Technol. 2012;14:151–67. doi: 10.1007/s10676-012-9291-0

16. Rong G, Mendez A, Bou Assi E, Zhao B, Sawan M. Artificial intelligence in healthcare: review and prediction case studies. Engineering. (2020) 6:291–301. doi: 10.1016/j.eng.2019.08.015

17. Miller DD, Brown EW. Artificial Intelligence in medical practice: the question to the answer? Am J Med. (2018) 131:129–33. doi: 10.1016/j.amjmed.2017.10.035

18. Gerke S, Minssen T, Yu H, et al. Ethical and legal issues of ingestible electronic sensors. Nat Electron. 2019;2(8):329–34. doi: 10.1038/s41928-019-0290-6

19. Greenfield, Daniel, Artificial Intelligence in Medicine: Applications, implications, and limitations,SINT Blog,June 19,2019, sitn.hms.harvard.edu/flash/2019/artificial-intelligence-in-medicine-applications-implications-and-limitations/

20. Safdar NM, Banja JD, Meltzer CC. Ethical considerations in Artificial Intelligence. Eur J Radiol. (2020) 122:108768. doi: 10.1016/j.ejrad.2019.108768

21. Frost, E.K., Bosward, R., Aquino, Y.S.J. et al. Public views on ethical issues in healthcare artificial intelligence: protocol for a scoping review. Syst Rev 11, 142 (2022). doi: 10.1186/s13643-022-02012-4

22. Johnson SLJ. AI, machine learning, and ethics in health care. J Leg Med. 2020; 39:427–41. doi: 10.1080/01947648.2019.1690604

23. Markowetz A, Błaszkiewicz K, Montag C, et al. Psycho-informatics: big data shaping modern psychometrics. Med Hypotheses. 2014; 82(4):405–11. doi: 10.1016/j.mehy.2013.11.030.

24. Char DS, Shah NH, Magnus D. Implementing machine learning in health care-addressing ethical challenges. N Engl J Med. 2018; 378(11):981–3. doi: 10.1056/NEJMp1714229

25. Sharon T. Self-Tracking for health and the quantified self: re-articulating autonomy, solidarity, and authenticity in an age of personalized healthcare. Philos Technol. 2017; 30:93–121. doi: 10.1007/s13347-016-0215-5

26. Monteith S, Glenn T. Automated decision-making and big data: concerns for people withmentalillness. Curr Psychiatry Rep, 2016; 18(12): 112 . doi:10.1007/s11920-016-0746-6.

27. Howard A, Borenstein J. The ugly truth about ourselves and our robot creations: the problem of bias and social inequity. Sci Eng Eth. 2018; 24(5):1521–36. doi: 10.1007/s11948-017-9975-2

28. Mooney SJ, Pejaver V. Big data in public health: terminology, machine learning, and privacy. AnnRevPublicHealth.2018;39(1)95-112 doi: 10.1146/annurev-publhealth-040617-014208.

29. Senders JT, Zaki MM, Karhade AV, et al. An introduction and overview of machine learning in neurosurgical care. Acta Neurochir (Wien). 2018;160(1):29–38. doi: 10.1007/s00701-017-3385-8.

30. Price W, Nicholson II. Medical AI and contextual bias. Harv J Law Technol. 2019;33:65–116. repository.law.umich.edu/cgi/viewcontent.cgi?article=3242&context=articles

31.Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019 Oct 25;366(6464):447-453. doi: 10.1126/science.aax2342. PMID: 31649194.

32. Howard A, Borenstein J. The ugly truth about ourselves and our robot creations: the problem of bias and social inequity. Sci Eng Eth. 2018;24(5):1521–36. doi: 10.1007/s11948-017-9975-2

33. Nordling L. A fairer way forward for AI in health care. Nature. 2019 Sep;573(7775):S103-S105. doi: 10.1038/d41586-019-02872-2. PMID: 31554993. nature.com/articles/d41586-019-02872-2

34. Kusner MJ, Loftus JR. The long road to fairer algorithms. Nature. 2020 Feb;578(7793):34–6. doi: 10.1038/d41586-020-00274-3 PMid:32020122

35. Dankwa-Mullan, I., Scheufele, E.L., Matheny, M.E., Quintana, Y., Chapman, W.W., Jackson, G.,  South, B.R. (2021). A Proposed Framework on Integrating Health Equity and Racial Justice into the Artificial Intelligence Development Lifecycle. Journal of Health Care for the Poor and Underserved 32(2), 300-317. doi:10.1353/hpu.2021.0065.

36. Floridi, L. Translating principles into practices of digital ethics: five risks of being unethical. Philos Technol. 2019;32(2):185–93. doi : 10.1007/s13347-019-00354-x.

37. Holzmeyer C., Beyond ‘AI for Social Good’ (AI4SG): social transformations—not tech-fixes—for health equity. Interdisc Sci Rev. 2021;46(1–2):94–125. researchgate.net/publication/349884827_Beyond_’AI_for_Social_Good’_AI4SG_social_transformations-not_tech-fixes-for_health_equity

38. Burrell J. How the machine “thinks”: understanding opacity in machine learning algorithms. Big Data Soc. 2016. doi: 10.1177/2053951715622512

39. Dilsizian ME, Siegel EL. Machine Meets Biology: a Primer on Artificial Intelligence in Cardiology and Cardiac Imaging. Curr Cardiol Rep. 2018 Oct 18;20(12):139. doi: 10.1007/s11886-018-1074-8. PMID: 30334108.

40. Grote T, Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020; 46(3):205–11. jme.bmj.com/content/46/3/205

41. The Economist. The World’s Most Valuable Resource is No Longer Oil, But Data. 2021. economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data

42. Armstrong,M., The Ethical Implications of AI and Data in Healthcare,Health IT Answer,September 15,2023, healthitanswers.net/the-ethical-implications-of-ai-and-data-in-healthcare/

43. Critical Insight , 2022 Healthcare Data Breach Report, cybersecurity.criticalinsight.com/healthcare-breach-report-h1-2022

44. Wang C, Zhang J, Lassi N, Zhang X. Privacy Protection in Using Artificial Intelligence for Healthcare: Chinese Regulation in Comparative Perspective. Healthcare (Basel). 2022 Sep 27;10(10):1878. doi: 10.3390/healthcare10101878. PMID: 36292325; PMCID: PMC9601726.

45. Farhud DD, Zokaei S. Ethical Issues of Artificial Intelligence in Medicine and Healthcare. Iran J Public Health. 2021 Nov;50(11):i-v. doi: 10.18502/ijph.v50i11.7600. PMID: 35223619; PMCID: PMC8826344.

46. Amisha, Malik P, Pathania M, Rathaur VK. Overview of artificial intelligence in medicine. J Family Med Prim Care. 2019 Jul;8(7):2328-2331. doi: 10.4103/jfmpc.jfmpc_440_19. PMID: 31463251; PMCID: PMC6691444

47. Rodrigues R. Legal and human rights issues of AI: gaps, challenges and vulnerabilities. J Respons Technol. (2020) 4:100005. doi: 10.1016/j.jrt.2020.100005

48. Challen R, Denny J, Pitt M, et al. Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019; 28(3):231–7. doi : 10.1136/bmjqs-2018-008370

49. Murdoch, B. Privacy and artificial intelligence: challenges for protecting health information in a new era. BMC Med Ethics 22, 122 (2021). doi: 10.1186/s12910-021-00687-3

50. Khalid N, Qayyum A, Bilal M, Al-Fuqaha A, Qadir J. Privacy-preserving artificial intelligence in healthcare: Techniques and applications. Comput Biol Med. 2023; 158:106848. doi: 10.1016/j.compbiomed.2023.106848

51. Berman, J.,J., Confidentiality issues for medical data miners, Artificial Intelligence in Medicine, Volume 26, Issues 1–2, September–October 2002, Pages 25-36 sciencedirect.com/science/article/abs/pii/S0933365702000507?via%3Dihub

52. Chaiyachati KH, Shea JA, Asch DA, Liu M, Bellini LM, Dine CJ, et al. Assessment of inpatient time allocation among first-year internal medicine residents using time-motion observations. JAMA Int Med. (2019) 179:760–7. doi: 10.1001/jamainternmed.2019.0095

53. Briganti, G., Le Moine, O., (2020) Artificial Intelligence in Medicine: Today and Tomorrow. Front. Med. 7:27. doi: 10.3389/fmed. 2020.00027

54. Goldfarb, Lindsay, Can AI Replace Your Doctor?, Dimensional Insight, May 15, 2023, dimins.com/blog/2023/05/15/can-ai-replace-doctor/

55. Sparrow R. Killer robots. J Appl Philos. 2007;24(1):62–77. doi:10.1111/j.1468-5930.2007.00346.x

56. Coeckelbergh M. Artificial intelligence, responsibility attribution, and a relational justification of explainability. Sci Eng Eth. 2020;26(4):2051–68 doi:10.1007/s11948-019-00146-8

57. Chung, Jason and Zink, Amanda, Hey Watson, Can I Sue You for Malpractice? Examining the Liability of Artificial Intelligence in Medicine (November 23, 2017). Forthcoming, Asia-Pacific Journal of Health Law, Policy and Ethics, Available at SSRN: papers.ssrn.com/sol3/papers.cfm?abstract_id=3076576

58. Humanitas University,5 reasons why Artificial Intelligence won’t replace physicians, 08/02/2022, hunimed.eu/news/5-motivi-per-cui-lintelligenza-artificiale-non-potra-sostituire-la-figura-del-medico/

59. Mannes A. Governance, risk, and Artificial Intelligence. AI Magazine. (2020) 41:61–9. doi: 10.1609/aimag.v41i1.5200

sursa foto: tracker-software.com/

Publicat în etică medicală, tehnologie

Inteligența artificială și medicina (I)

În 2016, Klaus Martin Schwab, fondator și președinte executiv al Forumului Economic Mondial, afirma că inteligența artificială (AI) este a „patra revoluție” industrială după „revoluția mașinilor cu abur”, „revoluția electrică” și „revoluție digitală”, dar cu consecințe mai importante decât a primelor trei la un loc deoarece „va schimba fundamental modul în care trăim, lucrăm și relaționăm unii cu alții. În amploarea și complexitatea sa, transformarea va fi diferită de orice a experimentat omenirea înainte” (1).

Istoria inteligenței artificiale începe în 1950 cu Alan Turing (faimos la aceea dată, pentru că a spart codul ENIGMA al naziștilor în timpul celui de-al Doilea Război Mondial) care, în lucrarea Computing Machinery and Intelligence, își propune să răspundă la întrebarea „pot mașinile să gândească?” și introduce testul Turing pentru a determina dacă un computer poate demonstra aceeași inteligență ca un om. Continuă cu John McCarthy (1927 – 2011), care inventează termenul de „inteligență artificială” (la o conferință din 1956 de la Dartmouth College) și cu Allen Newell, J.C. Shaw și Herbert Simon, care au creat în același an The Logic Theorist, primul program software AI, care a rulat vreodată. Cercetarile privind rețelele neuronale și inteligența artificială au cucerit spațiul public și științific după 2012, atunci când algoritmii de învățarea profundă au depășit impedimentele tehnice anterioare (2).

Ce este inteligența artificială?

Inteligența artificială (AI) este „un termen aplicat unei mașini sau unui software și se referă la capacitatea sa de a simula comportamentul uman inteligent, calcule instantanee, rezolvarea problemelor și evaluarea unor noi date bazate pe date evaluate anterior” (3). Enciclopedia Britannica consideră inteligența artificială (AI) drept „capacitatea unui computer digital sau a unui robot controlat de computer de a îndeplini sarcini asociate în mod obișnuit cu ființe inteligente. Termenul este frecvent aplicat proiectului de dezvoltare a sistemelor dotate cu procese intelectuale caracteristice oamenilor, cum ar fi capacitatea de a raționa, de a descoperi sens, de a generaliza sau de a învăța din experiența trecută” (4). În Oxford Languages găsim AI drept „teoria și dezvoltarea sistemelor informatice capabile să îndeplinească sarcini care necesită în mod normal inteligență umană, cum ar fi percepția vizuală, recunoașterea vorbirii, luarea deciziilor și traducerea între limbi” (5). Ed Burns și colab. consideră că inteligența artificială este „simularea proceselor inteligenței umane de către mașini, în special sisteme informatice. Aplicațiile specifice ale AI includ sisteme expert, procesarea limbajului natural, recunoașterea vorbirii și viziunea artificială” (6). În sfârșit, mai amintim poziția unei mari corporații (IBM), care preferă definiția lui John McCarthy din 2004 „AI este știința și ingineria de a face mașini inteligente, în special programe de calculator inteligente. Este legat de sarcina similară de a folosi computere pentru a înțelege inteligența umană, dar AI nu trebuie să se limiteze la metode care sunt observabile biologic” (7).

Sintetizând, putem spune că inteligența artificială este capacitatea mașinilor de a îndeplini sarcini, care sunt de obicei asociate cu inteligența umană și care se exprimă prin folosirea computerelor și mașinilor pentru a imita capabilitățile de rezolvare a problemelor și de luare a deciziilor ale minții umane. Deși diferitele subdomenii ale cercetării AI sunt centrate pe anumite obiective și pe utilizarea unor instrumente specifice, obiectivele comune includ raționamentul, reprezentarea cunoștințelor, planificarea, învățarea, procesarea limbajului natural, percepția și suportul pentru robotică.

Inteligența artificială (AI) a câștigat astazi o importanță publică prin gama largă de domenii unde există aplicațiile sale. Practic, uneori, fără să conștientizăm, întreaga noastră viață este influențată de AI. O întâlnim în comerțul electronic, în administratie, în educație, în stilul de viață, în industrie, în agricultură, în jocuri, în social media, în finanțe, în astronomie, în managementul traficului, în armata etc. (8, 9, 10, 11, 12, 13, 14).

În medicină, inteligența artificială a revoluționat tehnologiile medicale și are multe aplicații în specialități, care necesită a prelucra o cantitate mare de date (15). Ea a fost utilizată pentru a produce o serie de instrumente, care le pot permite profesioniștilor din domeniul sănătății să ofere pacienților și societății o calitate mai bună a a asistenței medicale prin efectuarea unui diagnostic precoce, reducerea complicațiilor, optimizarea tratamentului (oferirea de opțiuni mai puțin invazive și mai ieftine) și reducerea duratei de spitalizare (16). Instrumentele cu AI încorporat au căpatat dimensiuni tot mai mici și au devenit mobile ceea ce a determinat răspândirea lor (17). Au apărut numeroase aplicații, în toate specialitățile medicale. Cu titlu exemplificativ pot fi menționate:

  • cardiologia – pentru detectarea precoce a fibrilației atriale (AliveCor aprobat FDA în 2014 sau Kardia) (18);
  • pneumologia – unde poate servi ca instrument de sprijin a deciziei în cazul interpretării rezultatelor testelor funcționale pulmonare (19);
  • endocrinologia – pentru monitorizarea continuă a glicemiei la pacienților cu diabet zaharat (20, 21);
  • nefrologia – pentru predicția scăderii ratei de filtrare glomerulară la pacienții cu boală polichistică renală (22) și pentru stabilirea riscului de nefropatie progresivă cu IgA (23);
  • gastroenterologia – pentru a procesa imagini din endoscopie și ultrasunete pentru a diagnostica boala de reflux gastroesofagian, gastrita atrofică, metastaze în cancerul colorectal și carcinomul esofagian cu celule scuamoase (24, 25, 26, 27, 28, 29).

Cele mai explorate domenii au fost diagnosticul histopatologic al cancerului și imagistica medicală asistate de AI. Cercetătorii de la Google AI Health. au creat în 2018 un algoritm, LYNA (Lymph Node Assistant), care a analizat mostre de țesut colorate pe preparate histologice pentru a identifica tumorile metastatice ale cancerului de sân din ganglionii limfatici și a clasificat corect un eșantion în 99% din cazuri, reducând la jumătate timpul mediu de examinare (30). Un algoritm bazat pe inteligență artificială, Paige.ai, este capabil să diagnosticheze cancerul histopatologic cu mare acuratețe (31).Algoritmul AI numit DLAD (Deep Learning based Automatic Detection) creat, în 2018, de cercetătorii din Seul pentru a analiza radiografiile toracice, a detectat creșterea anormală a celulelor și a depășit în performanță a 17 din 18 medici (30). O meta-analiză, care a comparat performanța software-lor și a radiologilor în domeniul diagnosticului, a subliniat însă că 99% dintre studiile publicate nu aveau un design fiabil și rezultatele lor nu puteau fi validate. Aceste constatări susțin necesitatea unei validări extinse a tehnologiilor bazate pe IA prin studii clinice riguroase (32).

Tehnologiile medicale bazate pe inteligență artificială au fost întâmpinate cu entuziasm de către populația generală, de mediul de afaceri și parțial de lumea medicală.

Populația se iluzionează cu ideea falsă că AI nu greșește (sau greșește mai puțin decât omul) și că AI va permite un model de medicină 4P (predictiv, preventiv, personalizat și participativ) și, prin urmare, autonomia pacientului se va exprima în moduri care altfel nu ar fi posibile (33).

Mediul de afaceri a realizat că apare o nouă piață și noi oportunități. Mari giganți tehnologici, care nu erau asociați în mod tradițional cu sănătatea (Google, IBM și Microsoft), s-au orientat spre AI medical și domină piața (34). Un Raport din 2020 estimează că piața AI pentru sănătate va crește de zece ori între 2020 și 2026, ajungând la 45,2 miliarde de dolari în 2026 (35).

Lumea medicală a sperat că tehnologia cu AI le vor permite lucrătorilor din domeniul sănătății să se concentreze asupra problemelor reale ale pacienților și vor lăsa mașinilor inteligente toate activitățile, care pot fi realizate de sistemele informatice (16) cu atât mai mult cu cât inteligența artificială are capacitatea de a accesa cantității mari de date digitale pe care le poate procesa mult mai rapid și mai eficient decât poate orice om.

Realitatea arată că atât populația cât și medicii au avut și au așteptari practic imposibil de realizat. Inteligența artificială, deoarece simulează inteligența umană, are limitări de netrecut în tentativa de a înlocui medicul om. Actul medical are nu numai suport tehnico-științific, dar și o încărcătură puternică etico-psihologică. În medicină, vorbim de compasiune,empatie,inteligență afectivă – elemente care nu pot fi cuprinse într-un algoritm. În plus, AI deja a creat noi probleme ce îngrijorează pe mulți profesioniști. Aceste afirmații vor fi argumentate în postarea viitoare.

(va urma)

Bibliografie

1. Schwab K. The Fourth Industrial Revolution: what it means and how to respond. World Economic Forum. 2016. http://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/

2. Russell, Stuart J., Norvig, Peter. Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. 2021

3. Amisha, Malik P, Pathania M, Rathaur VK. Overview of artificial intelligence in medicine. J Family Med Prim Care. 2019 Jul;8(7):2328-2331. doi: 10.4103/jfmpc.jfmpc_440_19. PMID: 31463251; PMCID: PMC6691444.

4. Copeland, B.J., Artificial intelligence, Encyclopaedia Britannica. Last Updated: Sep 7, 2023, http://www.britannica.com/technology/artificial-intelligence

5. Oxford Languages, artificial intelligence,Oxford University Press, 2023,consultat 11.08.2023 languages.oup.com/google-dictionary-en/Tech

6. Burns, E., Laskowski, N., Tucci, L., Artificial intelligence (AI), Tech AcceleratorA guide to artificial intelligence in the enterprise, Tech Target, 2023, http://www.techtarget.com/searchenterpriseai/definition/AI-Artificial-Intelligence

7. International Business Machines (IBM), What is artificial intelligence? Accesat pe 9.09.2023 http://www.ibm.com/topics/artificial-intelligence

8. Biswal, A., AI Applications: Top 18 Artificial Intelligence Applications in 2023,Simplilearn tutorials, Lesson 2, Last updated on Aug 21, 2023 http://www.simplilearn.com/tutorials/artificial-intelligence-tutorial/artificial-intelligence-applications

9. Marr,B., 15 Amazing Real-World Applications Of AI Everyone Should Know About, Forbes, May 10, 2023,www.forbes.com/sites/bernardmarr/2023/05/10/15-amazing-real-world-applications-of-ai-everyone-should-know-about/?sh=15649dce85e8

10.Baran, Remigiusz; Dziech, Andrzej; Zeja, Andrzej „A capable multimedia content discovery platform based on visual content analysis and intelligent data enrichment”. Multimedia Tools and Applications, 1 June 2018, 77 (11): 14077–14091. doi:10.1007/s11042-017-5014-1.

11. Mohan, Jaya Preethi; Tejaswi, N. A Study on Embedding the Artificial Intelligence and Machine Learning into Space Exploration and Astronomy”. Emerging Trends in Computing and Expert Technology. Lecture Notes on Data Engineering and Communications Technologies. Vol. 35., 2019, Springer International Publishing. pp. 1295–1302. doi:10.1007/978-3-030-32150-5_131. 

12. Busby, Mattha. Revealed: how bookies use AI to keep gamblers hooked. The Guardian. 30 April 2018 http://www.theguardian.com/technology/2018/apr/30/bookies-using-ai-to-keep-gamblers-hooked-insiders-say

13. Wakefield, Jane, How artificial intelligence may be making you buy things”. BBC News. 9 November 2020. http://www.bbc.com/news/technology-54522442

14. Sajid, Haziqa, AI In Education: 5 Practical Applications,v7 labs, March 3, 2023 http://www.v7labs.com/blog/ai-in-education

15. Peng Y, Zhang Y, Wang L. Artificial intelligence in biomedical engineering and informatics: an introduction and review. Artif Intell Med. (2010) 48:71–3. doi: 10.1016/j.artmed.2009.07.007

16. Briganti, G., Le Moine, O., Artificial Intelligence in Medicine: Today and Tomorrow. Front. Med. 7, 27, 2020, doi: 10.3389/fmed.2020.00027 www.frontiersin.org/articles/10.3389/fmed.2020.00027/full

17. Steinhubl SR, Muse ED, Topol EJ. The emerging field of mobile health. Sci Trans Med. (2015) 7:283rv3. doi: 10.1126/scitranslmed.aaa3487

18. Halcox JPJ, Wareham K, Cardew A, Gilmore M, Barry JP, Phillips C, et al. Assessment of remote heart rhythm sampling using the AliveCor heart monitor to screen for atrial fibrillation: the REHEARSE-AF study. Circulation. (2017) 136:1784–94. doi: 10.1161/CIRCULATIONAHA.117.030583  

19 Topalovic M, Das N, Burgel PR, Daenen M, Derom E, Haenebalcke C, et al. Artificial intelligence outperforms pulmonologists in the interpretation of pulmonary function tests. Eur Respirat J. (2019) 53:1801660. doi: 10.1183/13993003.01660-2018.

20. Lawton J, Blackburn M, Allen J, Campbell F, Elleri D, Leelarathna L, et al. Patients’ and caregivers’ experiences of using continuous glucose monitoring to support diabetes self-management: qualitative study. BMC Endocrine Disord. (2018) 18:12. doi: 10.1186/s12902-018-0239-1

21. Christiansen MP, Garg SK, Brazg R, Bode BW, Bailey TS, Slover RH, et al. Accuracy of a fourth-generation subcutaneous continuous glucose sensor. Diabet Technol Therapeut. (2017) 19:446–56. doi: 10.1089/dia.2017.0087

22. Niel O, Boussard C, Bastard P. Artificial intelligence can predict GFR decline during the course of ADPKD. Am J Kidney Dis Off J Natl Kidney Found. (2018) 71:911–2. doi: 10.1053/j.ajkd.2018.01.051

23. Geddes CC, Fox JG, Allison ME, Boulton-Jones JM, Simpson K. An artificial neural network can select patients at high risk of developing progressive IgA nephropathy more accurately than experienced nephrologists. Nephrol Dial Transplant. 1998 Jan;13(1):67-71. doi: 10.1093/ndt/13.1.67. PMID: 9481717.

24. Yang YJ, Bang CS. Application of artificial intelligence in gastroenterology. World J Gastroenterol. (2019) 25:1666–83. doi: 10.3748/wjg.v25.i14.1666

25. Fernández-Esparrach G, Bernal J, López-Cerón M, Córdova H, Sánchez-Montes C, Rodríguez de Miguel C, et al. Exploring the clinical potential of an automatic colonic polyp detection method based on the creation of energy maps. Endoscopy. (2016) 48:837–42. doi: 10.1055/s-0042-108434

26. Pace F, Buscema M, Dominici P, Intraligi M, Baldi F, Cestari R, et al. Artificial neural networks are able to recognize gastro-oesophageal reflux disease patients solely on the basis of clinical data. Eur J Gastroenterol Hepatol. (2005) 17:605–10. doi: 10.1097/00042737-200506000-00003

27. Lahner E, Grossi E, Intraligi M, Buscema M, Corleto VD, Delle Fave G, et al. Possible contribution of artificial neural networks and linear discriminant analysis in recognition of patients with suspected atrophic body gastritis. World J Gastroenterol. (2005) 11:5867–73. doi: 10.3748/wjg.v11.i37.5867

28. Ichimasa K, Kudo SE, Mori Y, Misawa M, Matsudaira S, Kouyama Y, et al. Artificial intelligence may help in predicting the need for additional surgery after endoscopic resection of T1 colorectal cancer. Endoscopy. (2018) 50:230–40. doi: 10.1055/s-0043-122385

29. Yang HX, Feng W, Wei JC, Zeng TS, Li ZD, Zhang LJ, et al. Support vector machine-based nomogram predicts postoperative distant metastasis for patients with oesophageal squamous cell carcinoma. Br J Cancer. (2013) 109:1109–16. doi: 10.1038/bjc.2013.379

30.Greenfield, Daniel, Artificial Intelligence in Medicine: Applications, implications, and limitations, SINT Blog, June 19, 2019, sitn.hms.harvard.edu/flash/2019/artificial-intelligence-in-medicine-applications-implications-and-limitations/

31. Campanella G, Hanna MG, Geneslaw L, Miraflor A, Silva VWK, Busam KJ, et al. Clinical-grade computational pathology using weakly supervised deep learning on whole slide images. Nat Med. (2019) 25:1301–9. doi: 10.1038/s41591-019-0508-1

32. Liu X, Faes L, Kale AU, Wagner SK, Fu DJ, Bruynseels A, et al. A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. Lancet Digit Health. (2019) 1:e271–97. doi: 10.1016/S2589-7500(19)30123-2

33. Orth M, Averina M, Chatzipanagiotou S, Faure G, Haushofer A, Kusec V, et al. Opinion: redefining the role of the physician in laboratory medicine in the context of emerging technologies, personalised medicine and patient autonomy (‘4P medicine’). J Clin Pathol. (2019) 72:191–7. doi: 10.1136/jclinpath-2017-204734

34. Katznelson G, Gerke S. The need for health AI ethics in medical school education. Adv Health Sci Educ. 2021; 26:1447–58. doi.org/10.1007/s10459-021-10040-3.

35. Markets and Markets Report (2020). Artificial Intelligence in Healthcare Market Size 2021. http://www.marketsandmarkets.com/Market-Reports/artificial-intelligence-healthcare-market-54679303.html

sursa foto: analyticsinsight.net

Publicat în etică medicală, tehnologie

Cyborg – ficțiune sau realitate?

Previziunile transumaniste vorbesc despre o umanitate viitoare profund transformată, formată din indivizi, care au depășit limitele evoluției naturale (prin utilizarea unor tehnologii sofisticate) și care s-au transformat în ființe cu abilități atât de mult extinse față de starea actuală încât pot fi numiți „ființe postumane”. Cyborg-ul constituie una dintre posibilele materializări ale acestei idei.

Cyborg-ul este o ființă cu părți ale corpului atât din materii organice, cât și biomecatronice. Termenul este o combinație între prescurtările pentru cibernetică și organic (cyb + org). Contrar părerii înrădăcinate, într-o mare parte a publicului larg, termenul nu a fost lansat de autorii de S.F ci provine din lumea științifică.

Cuvântul cyborg a fost inventat de doi cercetători, Manfred Clynes și Nathan S. Kline, într-un articol intitulat Cyborgs and Space, publicat în septembrie 1960, în revista Astronautics (1). Ei au oferit această idee în contextul marelui proiect științific al anilor 60, Man in Space. Clynes și Kline își încep articolul cu afirmația: „Călătoria în spațiu provoacă omenirea nu numai din punct de vedere tehnologic, ci și din punct de vedere spiritual, prin faptul că îl invită pe om să ia parte activ la propria sa evoluție biologică”. Clynes și Kline au criticat ideea de a crea medii pregătite pentru oameni în spațiu, argumentând că oamenii ar trebui să se adapteze la condițiile extraterestre, oricare ar fi acestea. Ei propun un om „îmbunătățit”, care ar putea supraviețui în medii extraterestre pe care l-au numit Cyborg: Pentru complexul organizațional extins în mod exogen care funcționează ca un sistem homeostatic integrat în mod inconștient, propunem termenul Cyborg. Apoi, explică: „Scopul Cyborgului, precum și propriile sale sisteme homeostatice, este de a oferi un sistem organizațional în care astfel de probleme asemănătoare unui robot sunt rezolvate automat și inconștient, lăsând omului liber să exploreze, să creeze, să gândească și să simte.

Merriam-Webster Dictionary definește un cyborg ca fiind un om bionic, „bionic” însemnând capacități biologice sau performanțe îmbunătățite de dispozitive electronice sau electromecanice (2) iar Kevin Warwick în Encyclopedia of Applied Ethics afirma că termenul „cyborg” a apărut ca o formă scurtă pentru „organism cibernetic”, care este o entitate formată atât din elemente biologice, cât și tehnice (3). Cyborg este deci o creatură, care dezvaluie caracterul dizolvant al modernității, care cedează spațiu post-modernității (4). Cyborgul este o ființă autonomă, amestecată, umană și mecanică, simbol al lipsei de diferențiere între om și mașină.

Cuvântul „cyborg” a intrat în limbajul comun datorită literaturii science fiction. Adesea ni se prezintă un viitor în care oamenii trăiesc în corpuri umplute cu implanturi mecatronice, scăpând de „tirania unui corp organic, care a devenit brusc învechit după câteva milenii de servicii bune și loiale” (5). În alte extrapolări îndrăznețe, omenirea este decimată de o hoardă de roboți însetați de sânge, care se revoltă împotriva creatorului lor. În acest caz, sensul inițial de cyborg s- a extins mult, acoperind și notiunea de „ robot umanoid”. Unii oameni de știință și tehnologi cunoscuți și-au exprimat îngrijorarea că roboții ar putea prelua stăpânirea lumii. Stephen Fox considera că un astfel de scenariu nu este posibil deoarece „astfel de preocupări nu țin cont de potențialul ființelor umane de a-și îmbunătăți capacitățile naturale cu tehnologiile în interiorul corpului și astfel devin cyborgi cu capacități superioare roboților.” (6).

Un cyborg poate proveni dintr-un om sau dintr-un robot. Tipurile de cyborgi, provenind din om, includ ființe umane îmbunătățite cu implanturi biotronice (inclusiv inteligență artificială), iar cei proveniți din roboți au structuri tehnice (inclusiv creiere pozitronice) învelite în structuri biologice (organice) artificiale. În science fiction, se întâlnesc adesea aceste două tipuri de creaturi. Jean Claude Heudin considera printre cele mai emblematice Robocop, (regizat de Paul Verhoeven în 1987) – pentru prima categorie, și Terminator, (creat de James Cameron în 1984) – pentru a doua. Terminator reprezintă „mașina cyborg” arhetipală, un monstru cibernetic care întruchipează toate temerile asociate cu creaturile proiectate. Robocop, pe de altă parte, reprezintă arhetipul „cyborgului uman”, un polițist ucis, care este „reparat”, un om „fixat” de tehnologie și care se luptă să-și recapete umanitatea (7). Dacă vorbim de ficțiune, nu putem să nu menționăm robotul Andrew din Bicentennial Man (una dintre cele mai bune scrieri ale lui Isaac Asimov, ecranizat în 1999 în regia lui Chris Columbus). Este remarcabilă „umanizarea” acestuia, care va porni într-o călătorie pentru a descoperi pentru el însuși ce înseamnă să fii OM, pentru ca, în final, să renunțe la nemurire din iubire față de o ființă umană. Aceeași dorință de a fi membru al umanității o întâlnim și la Locotenent-comandorul Data, un personaj din universul Star Trek. De altfel, există o serie întreagă de personaje cyborg în filmografie, cum ar fi borgii din Star Trek; Alita din Alita: Battle Angel; Ava din Ex machina și The Machine; Eva, din filmul Eva; Morgana, din filmul Morgana; Will Caster din Transcendence; Toorop din Babylon AD; Johnny 5, din Call Me Johnny 5; Pearl Prophet, din filmul Cyborg; Johnny Mnemonic din filmul Johnny Mnemonic; John Preston, din filmul Equilibrium și enumerarea poate continua. Problemele și întrebările legate de interrelația om-mașină nu țin numai de imaginația artistică (cum ar fi creațiile Talos, omul de metal al regelui Minos, frumoasele ajutoare din aur construite de zeul fierar Hephaistos, Golem- ul legendelor evreieşti, păpuşa mecanică din povestirile lui Hoffmann, celebrul monstru construit de Frankenstein – imaginat de Mary Shelley, personajele lui Villiers de l’Isle Adam, Philip K. Dick etc.), dar apar în mod repetat și în literatura științifică încă din 1945 (Alan Turing, John Von Neumann s.a.); cu alte cuvinte, sunt legate structural de imaginația noastră (8).

Care e realitatea în zilele noastre?

Dintr-un anumit punct de vedere, odată cu progresele medicinei, care încearcă să repare organismul bolnav sau rănit, se poate spune că unii pacienți cu proteze sau implanturi cibernetice pot fi deja considerați cyborgi. Progresele moderne ale tehnologiei medicale au facut ca termenul „cyborg” să nu mai apară ca un concept științifico-fantastic exagerat, ci ca un cuvânt care descrie oamenii obișnuiți (9). Tehnologiile bionice actuale, nu numai că au ajutat numeroase persoane cu dizabilități fizice (10), dar au influențat procesele socio-materiale implicate în realizarea unei înțelegeri moderne a dizabilității (11).

Exemple:

Exoscheletele (unitățile robotizate purtabile controlate de computer) au efecte benefice asupra funcției de mers și a independenței mersului la pacienții cu tulburări neurologice și sunt utilizate în scopuri de reabilitare în centre medicale (12, 13, 14, 15). Mâinile și picioarele bionice moderne permit controlul motor al protezelor printr-un feedback senzorial (16, 17, 18, 19, 20). Implanturile electronice retiniene prin stimularea electrică a retinei au permis restaurarea vizuală parțială la unii nevăzători (21, 22, 23, 24). Implanturile cohleare, care transduc energia acustică într-un semnal electric ce stimuleaza celulele ganglionare spiralate supraviețuitoare ale nervului auditiv, sunt folosite curent pentru a trata bolnavii cu hipoacuzie neurosenzorială severă până la profundă (25, 26, 27, 28). Biosenzorii implantabili oferă o evaluare precisă a sănătății în timp real a unui pacient, un exemplu fiind monitoarele implantabile de glucoză, care pot evalua în timp real glicemia la un diabetic (29). În cele din urmă, dispozitivele-organe (30), cum ar fi inimile artificiale, care sunt folosite pentru a sprijini sistemul circulator al pacienților, asigurând suficient timp pentru a găsi o inimă adecvata transplantului (31).

Aceste realități l-au determinat pe Hayley Bennett să afirme în 2021: „De la implanturi, care îmbunătățesc realitatea, până la exoscheletele controlate de creier, descoperirile în domeniul bio-tehnologiei au alimentat o nouă fuziune a mașinilor și a materiei organice. Oamenii se integrează cu tehnologia. Nu în viitor – acum. Odată cu apariția protezelor personalizate, care ne fac mai puternici și mai rapizi, a implanturilor neuronale, care ne schimbă modul în care funcționează creierul și a noilor simțuri și abilități pe care nu ați visat niciodată să le aveți, este timpul să începeți să vă imaginați cum ar putea arăta o versiune mai bună a dvs.” (32). Cu alte cuvinte, ne aflăm în plină Revoluție a cyborgilor, anunțată de Warwic în 2014, când profețea trecerea de la omul biologic la entități hibride, care nu sunt nici complet tehnologice, nici complet organice (33).

Îngrijorări legitime apar cu privire la extinderea acestor tehnologii dincolo de domeniu medical. A „repara”, a „trata” este un lucru; a „îmbunătăți” ființa umană este cu totul altceva.

Există suficiente semnale că cercetările sunt direcționate pe o cale periculoasă. Într-un editorial al revistei Cyborg and Bionic Systems: Signposting the Future, Toshio Fukuda face referiri la Bionic Humanoids (un proiect inițiat de cercetători japonezi, care se străduiește să construiască modele realiste de simulare umană) și la o metodă (prezentată în 2019) bazată pe inteligență artificială pentru producerea de organisme reconfigurabile, metodă care a stârnit controverse cu privire la natura ontologică a unei astfel de forme de viață noi, riscurile aplicațiilor pe care o astfel de cercetare le deschide și de aici preocupări morale și etice mult mai largi (34).

Neuralink, o companie co-fondată de Elon Musk, dezvoltă un implant cerebral pentru ca oamenii sănătoși să comunice cu oricine are un implant similar și o configurație de computer similară. Defense Advanced Research Projects Agency al armatei americane a lansat în 2018 un program pentru a dezvolta „un sistem de interfață neuronală sigur, portabil, capabil să citească și să scrie în mai multe puncte ale creierului simultan. Scopul său este de a crește abilitățile membrilor din serviciile de securitate națională. De exemplu, un soldat dintr-o unitate de forțe speciale ar putea folosi BCI (Brain-Computer Interfaces) pentru a trimite și a primi gânduri cu un coleg de soldat sau cu un comandant de unitate – o formă directă de comunicare, care ar permite actualizări în timp real și un răspuns mai rapid la amenințări. La fel, interfețele creier-calculator pot permite oamenilor să îndeplinească anumite sarcini doar gândindu-se la ele (35). Există pericolul real ca Brain-Computer Interfaces încalce drepturile individuale, cum ar fi dreptul la autonomie, la intimitate, la sănătate.

Lumea este din ce în ce mai îngrijorată cu privire la pericolul știință fără conștiință. Și pe bună dreptate. Aplicarea utopiei cyborg are numeroase implicații nu numai strict  biologice, dar și psihologice, filozofice și spirituale.

În 2021, Gill Haddow, profesor de sociologie a medicinei și a tehnologiei la University of Edinburgh, folosind o serie de metode din științele sociale și bazându-se pe sociologia corpului, biomedicină și tehnologie, a descoperit că indivizii au o preferință foarte clară pentru organele umane, și nu pentru cele non-umane. Haddow sugerează că interiorul corpului nostru poate fi mai important pentru simțul nostru de identitate decât s-ar fi crezut anterior. Se poate spune că se crează o criză de identitate a secolului 21 printr-o dependență tot mai mare de tehnologii cibernetice (36) determinată de o adevărată mutație antropologică (37).

Idealul de hibridizare a omului și a mașinii este acum întruchipat în suprapunerea permanentă a realului și a virtualului, precum și în confuzia dintre lumile noastre interioare și exterioare datorită internetului și promisiunilor manipulatoare ale biogeneticii” scria Ariel Kyrou, în 2011 (38). Sophie Mandelsohn este mai tranșantă: „Utopia cyborg poate duce la dorința de a se bucura de puterea proprie fără reținere, chiar și în detrimentul propriei umanități. Într-adevăr, omul este atunci conceput ca o monadă abstractă, atotputernică în dorințele sale, capabilă să se instituie ca persoană sau ca lucru prin folosirea puterilor științei fără constrângere și în afara legii” (39).

Filozofii nu au rămas în afara dezbaterilor. Într-o convorbire cu John Horgan, filosoafa Susan Schneider cântărește avantajele și dezavantajele îmbunătățirii tehnologice radicale. „În primul rând, pentru a înțelege dacă este înțelept să îmbunătățiți în aceste moduri radicale, trebuie mai întâi să înțelegeți ce și cine sunteți. Filosofii au dezbătut de multă vreme natura sinelui și a minții și este suficient să spunem că există multe dezacorduri filozofice. De exemplu, dacă sinele sau mintea depind în mod intim de faptul că aveți un creier care funcționează bine, dacă înlocuiți prea mult din creier cu microcipuri, vă veți sinucide la un moment dat! Asta nu este o îmbunătățire. Eu numesc acest fenomen „exod de creiere”. O a doua preocupare implică natura conștiinței. Observați că de-a lungul vieții voastre de veghe și chiar și atunci când visați, întotdeauna se simte ca ceva să fii tu. În acest moment, ai senzații corporale, auzi zgomot de fundal, vezi cuvintele de pe pagină. Aveți experiență conștientă. Filosofii au privit mult timp natura conștiinței ca pe un mister. Ei subliniază că nu înțelegem pe deplin de ce toată procesarea informațiilor din creier se simte ca ceva. De asemenea, ei cred că încă nu înțelegem dacă conștiința este unică pentru substratul nostru biologic sau dacă alte substraturi, cum ar fi microcipurile de siliciu, pot fi, de asemenea, un substrat care stă la baza experiențelor conștiente.” (40).

La polul opus se plasează Donna Haraway, militantă neo-marxistă și feministă radicală, care predă Studii Feministe la Universitatea din California, foarte aproape de Silicon Valley. Beneficiind de o dublă educație (în zoologie și filozofie) ea a scris în 1985A Cyborg Manifesto”, publicat în Socialist Review (SUA). Donna Haraway ia act de situația paradoxală a omului modern, care cu cât se face „stăpân și posesor” al lumii, cu atât devine mai străin de ea. Haraway respinge limitele rigide, care separă „omul” de „animal” și „omul” de „mașină”. Ea scrie: „Cyborgul nu visează la comunitate după modelul familiei organice, de data aceasta fără proiectul oedipal. Cyborgul nu ar recunoaște Grădina Edenului, nu este făcută din noroi și nu poate visa să se întoarcă în praf.. Manifestul Cyborg este, de asemenea, un text important în istoria feminismului radical, ce tratează identitatea sexuală și noțiunea de identitate. Donna Haraway vede prin cyborg calea de a elimina diferențele (inclusiv cele biologice) dintre femei și bărbați (41).

În concluzie, cyborgul a depășit sfera ficțiunii și constituie o realitate a lumii medicale. Problema majoră pentru omenire este extinderea tehnologiilor cyborg în alte domenii, cu o lipsă de transparență evidentă, fără dezbateri și fără un control strict constituie, în opinia mea, o cale periculoasă.

P.S.1. Kevin Warwick, este considerat de mulți a fi primul cyborg din lume. I s-a implantatun dispozitivcare i-a permis să controleze o mână robotică prin semnalele creierului său de oriunde din lume.

P.S.2. Talos, omul de metal, care păzea insula Creta, apare pentru prima dată în scrierile lui Hesiod, din jurul anului 700 î.Hr. A fost construit din bronz de Hephaistos, cu singură venă, care pornea de la gât și cobora până la glezne. Potrivit autorului grec antic Apollonius Rhodius, Talos a fost un cadou de la Zeus pentru prințesă feniciană Europa – pentru a o proteja. Aceasta l-a dăruit ulterior fiului ei, regelui Minos.

P.S.3. Bibliografie

1. Clynes M., Kline,S.N., Cyborgs and Space, Astronautics,13, September ,1960 , 26–27, 74–75. https://web.mit.edu/digitalapollo/Documents/Chapter1/cyborgs.pdf

2. Merriam-Webster Dictionary:Cyborg

https://www.merriam-webster.com/dictionary/cyborg, Accesat pe 2o iunie 2023

3.Warwick, K,. Cyborgs, Encyclopedia of Applied Ethics, Second Edition, Ruth Chadwick Editor, San Diego, Academic Press; 2012

4. The International Encyclopedia of the Social & Behavioral Sciences, Neil J. Smelser,Paul B. Baltes ed. Elsevier, 2001

5. Heudin, Jean-Claude. ,Demain, tous cyborgs?, L’Autre, le semblable, le différent,René Frydman éd,.Presses Universitaires de France, 2014, pp. 115-125.

6. Fox, Stephen, Cyborgs, Robots and Society: Implications for the Future of Society from Human Enhancement with In-The-Body Technologies, Technologies, 2018, 6 (2), 50; https://doi.org/10.3390/technologies6020050

7. Heudin, Jean Claude, Tous les cyborgs demain?, Territoire en mouvement -revue de géographie et d’aménagement [En ligne], 12 | 2012,pp.46-55, consultat pe 12 iunie 2023. URL : http://journals.openedition.org/tem/1469 ; DOI : https://doi.org/10.4000/tem.1469

8. Damour, F. Le cyborg est-il notre avenir?.Études, 2009,411, 475-484. https://doi.org/10.3917/etu.115.0475

9. Quigley M, Ayihongbe S. Everyday Cyborgs: On Integrated Persons and Integrated Goods. Med Law Rev. 2018 May 1;26(2):276-308. doi: 10.1093/medlaw/fwy003. PMID: 29481676; PMCID: PMC5963303

10. Meyer B, Asbrock F. Disabled or Cyborg? How Bionics Affect Stereotypes Toward People With Physical Disabilities. Front Psychol. 2018 Nov 20;9:2251. doi: 10.3389/fpsyg.2018.02251. PMID: 30515121; PMCID: PMC6256064.

11. Heidi Pedersen, S. Söderström Creating cyborgs in a socially constructed understanding of disability and assistive technology use, Disability & Society ,06 febr. 2023,pp. 1-23 https://doi.org/10.1080/09687599.2023.2173051

12. Gorgey AS. Robotic exoskeletons: The current pros and cons. World J Orthop. 2018 Sep 18;9(9):112-119. doi: 10.5312/wjo.v9.i9.112. PMID: 30254967; PMCID: PMC6153133.

13. Palermo AE, Maher JL, Baunsgaard CB, Nash MS. Clinician-Focused Overview of Bionic Exoskeleton Use After Spinal Cord Injury. Top Spinal Cord Inj Rehabil. 2017 Summer;23(3):234-244. doi: 10.1310/sci2303-234. PMID: 29339899; PMCID: PMC5562031.

14. Lora-Millan JS, Moreno JC, Rocon E. Coordination Between Partial Robotic Exoskeletons and Human Gait: A Comprehensive Review on Control Strategies. Front Bioeng Biotechnol. 2022 May 25;10:842294. doi: 10.3389/fbioe.2022.842294. PMID: 35694226; PMCID: PMC9174608.

15. Siviy, C., Baker, L.M., Quinlivan, B.T. et al. Opportunities and challenges in the development of exoskeletons for locomotor assistance. Nat. Biomed. Eng  7, 456–472 (2023). https://doi.org/10.1038/s41551-022-00984-1

16. Bumbaširević M, Lesic A, Palibrk T, Milovanovic D, Zoka M, Kravić-Stevović T, Raspopovic S. The current state of bionic limbs from the surgeon’s viewpoint. EFORT Open Rev. 2020 Feb 26;5(2):65-72. doi: 10.1302/2058-5241.5.180038. PMID: 32175092; PMCID: PMC7047902.

17. Aman M, Festin C, Sporer ME, Gstoettner C, Prahm C, Bergmeister KD, Aszmann OC. Bionic reconstruction: Restoration of extremity function with osseointegrated and mind-controlled prostheses. Wien Klin Wochenschr. 2019 Dec;131(23-24):599-607. doi: 10.1007/s00508-019-1518-1. Epub 2019 Jun 14. PMID: 31201567; PMCID: PMC6908564.

18. Mastinu E, Doguet P, Botquin Y, Hakansson B, Ortiz-Catalan M. Embedded System for Prosthetic Control Using Implanted Neuromuscular Interfaces Accessed Via an Osseointegrated Implant. IEEE Trans Biomed Circuits Syst. 2017 Aug;11(4):867-877. doi: 10.1109/TBCAS.2017.2694710. Epub 2017 May 23. PMID: 28541915.

19. Stevens PM, Rheinstein J, Wurdeman SR. Prosthetic Foot Selection for Individuals with Lower-Limb Amputation: A Clinical Practice Guideline. J Prosthet Orthot. 2018 Oct;30(4):175-180. doi: 10.1097/JPO.0000000000000181. Epub 2018 Sep 13. PMID: 30473606; PMCID: PMC6221375.

20. Frossard,L., Conforto,S., Aszmann, O.C., Editorial: Bionics limb prostheses: Advances in clinical and prosthetic care,Front. Rehabil. Sci.,Volume 3 /2022 |https://doi.org/10.3389/fresc.2022.950481

21. Mills JO, Jalil A, Stanga PE. Electronic retinal implants and artificial vision: journey and present. Eye (Lond). 2017 Oct;31(10):1383-1398. doi: 10.1038/eye.2017.65. Epub 2017 May 26. PMID: 28548648; PMCID: PMC5639190.

22. Bloch E, Luo Y, da Cruz L. Advances in retinal prosthesis systems. Ther Adv Ophthalmol. 2019 Jan 17;11:2515841418817501. doi: 10.1177/2515841418817501. PMID: 30729233; PMCID: PMC6350159

23. Pragya Kosta, Kyle Loizos, Gianluca Lazzi, Stimulus waveform design for decreasing charge and increasing stimulation selectivity in retinal prostheses,IET Helthcare Thehnology Letters,vol.7,3/2020, pp.66-71 https://doi.org/10.1049/htl.2019.0115

24. Allen, Penelope J, Retinal prostheses: Where to from here?, Clinical & Expermental Ophthalmology, 21 May 2021 https://doi.org/10.1111/ceo.13950

25. Lenarz T. Cochlear implant – state of the art. GMS Curr Top Otorhinolaryngol Head Neck Surg. 2018 Feb 19;16:Doc04. doi: 10.3205/cto000143. PMID: 29503669; PMCID: PMC5818683.

26. Deep NL, Dowling EM, Jethanamest D, Carlson ML. Cochlear Implantation: An Overview. J Neurol Surg B Skull Base. 2019 Apr;80(2):169-177. doi: 10.1055/s-0038-1669411. Epub 2018 Sep 6. PMID: 30931225; PMCID: PMC6438790.

27. Wilson BS The cochlear implant and the possibilities for narrowing the remaining gaps between prosthetic and normal hearing. (2018) World Journal of Otolaryngology – Head and Neck Surgery 3 ( 4 ), 200–210. 10.1016/J.wjorl.2017.12.005

28. Carlyon, R.P., Goehring, T. Cochlear Implant Research and Development in the Twenty-first Century: A Critical Update. JARO 22, 481–508 (2021). https://doi.org/10.1007/s10162-021-00811-5

29. Waldman SA and Terzic A (2011) Bionic technologies transforming the science of healthcare delivery. Clinical and Translational Science 4 ( 2 ), 84–86. 10.1111/j.1752-8062.2011.00271.x

30. Aman M, Sporer ME, Gstoettner C, Prahm C, Hofer C, Mayr W, Farina D, Aszmann OC. Bionic hand as artificial organ: Current status and future perspectives. Artif Organs. 2019 Feb;43(2):109-118. doi: 10.1111/aor.13422. PMID: 30653695.

31. Chung JS, Emerson D, Megna D, Arabia FA. Total artificial heart: surgical technique in the patient with normal cardiac anatomy. Ann Cardiothorac Surg. 2020 Mar;9(2):81-88. doi: 10.21037/acs.2020.02.09. PMID: 32309155; PMCID: PMC7160624.

32. Bennett, Hayley, Rise of the cyborgs: Inside the technology transcending humanity’s biological limits, BBC Science Focus Magazine, 02 July, 2021 https://www.sciencefocus.com/future-technology/cyborgs-transhumans/

33. Warwick, K., The Cyborg Revolution, Nanoethics, Springer, 2014

34. Fukuda, Toshio, Cyborg and Bionic Systems, Editorial inCyborg and Bionic Systems: Signposting the Future, Vol. 1, 2020 DOI: 10.34133/2020/1310389

35. Jecker, Nancy S., Ko,Andrew, Brain-computer interfaces could allow soldiers to control weapons with their thoughts and turn off their fear – but the ethics of neurotechnology lags behind the science, The Conversation, December 2, 2022, https://theconversation.com/brain-computer-interfaces-could-allow-soldiers-to-control-weapons-with-their-thoughts-and-turn-off-their-fear-but-the-ethics-of-neurotechnology-lags-behind-the-science-194017

36. Haddow G. Embodiment and everyday cyborgs: Technologies that alter subjectivity [Internet]. Manchester (UK): Manchester University Press; 2021. PMID: 34236780.

37. Borel, Simon, Le cyborg: vers une mutation anthropologique?, Revue du MAUSS, 2013/2 (n 42), p. 119-124. DOI: 10.3917/rdm.042.0119. URL : https://www.cairn.info/revue-du-mauss-2013-2-page-119.htm

38. Kyrou, Ariel, Nous sommes tous des cyborgs, Multitudes,n.44, printemps 2011, pp. 179-187. https://www.cairn.info/revue-multitudes-2012-1-page-121.htm

39. Mandelsohn, Sophie, «Cyborg: l’avenir d’une utopie», Essaim, 2001/2 (no8), p. 103-114. DOI: 10.3917/ess.008.0103. URL: https://www.cairn.info/revue-essaim-2001-2-page-103.htm

40. Horgan, John ,Who Wants to Be a Cyborg? Philosopher Susan Schneider weighs the pros and cons of radical technological enhancement, Scientific American, July 21, 2020. https://www.scientificamerican.com/article/who-wants-to-be-a-cyborg/

41. Haraway, D. “A Cyborg Manifesto: Science, Technology and SocialistFeminism in the Late 20th century” in Haraway, D., Simians, Cyborgs andWomen. Free Association Press. Harmon. Routledge1991; 149–81;

sursa foto: scroll.in – “Lord how this world improves as we grow older,” “The March of Intellect.” William Heath, 1828.

Publicat în etică medicală, tehnologie

Tehnoștiința și Bioetica

În zilele noastre, globalizarea este un fapt. A ajuns se pare până în cele mai îndepărtate locuri de pe planetă. În orice caz, distrugerea diversității culturilor – nu totală, dar foarte importantă – a avut loc. Pentru a obține acest rezultat s-au folosit diverse metode inclusiv manipularea semantică prin utilizarea unor termeni creați în laboratoare. Un exemplu elocvent este tehnoștiința (technoscience). Acest neologism, care datează din anii 1970, este departe de a fi universal acceptat, deoarece există controverse epistemologice, etice și politice. Îl găsim în puține dicționare, iar și acolo conținutul definiției diferă.

Pentru unii, tehnoștiința exprimă însăși esența științei moderne și constă în acțiunea directă prin tehnologii asupra cauzei fenomenului pentru a crea, modifica sau suprima efectul. Pentru alții, neologismul „tehnoștiința”, exprimă solidaritatea concretă între dezvoltarea tehnologică și cunoștințele teoretice sub formă de interacțiune și feedback pozitiv constant. În filosofie, termenul de tehnoștiință a pătruns prin Gaston Bachelard (în 1953), a fost popularizat în lumea francofonă de către Gilbert Hottois (la sfârșitul anilor 1970) și a intrat în uzul academic englez odată cu „Science in Action” al lui Bruno Latour (la începutul anilor 1980).

Ce afirmă tehnoștiința?

Tehnoștiința afirmă că domeniile științei și tehnologiei sunt legate și se dezvoltă împreună. Orice ştiinţă nu există și nu are finalitate dacă nu vizează o anumită utilitate practică. Termenul „tehno” exprimă subordonarea tuturor proiectelor de cercetare științifică scopului de a obține numai aplicații tehnice justificate de utilități (nevoi, terapii) sau de interese private (profituri, prestigiu, putere, diverse dorințe etc.). Știința și tehnologia devin astfel instrumente, care schimbă permanent structurile și comportamentele sociale. Tehnologia științifică poate fi privită inclusiv ca o formă de guvernare sau având puterea de guvernare din cauza impactului ei asupra societății (asupra mediului, sănătății publice, siguranței, ordinii publice etc). Din această perspectivă, superioritatea puterii tehnologice face posibilă globalizarea. Pentru o parte a civilizației occidentale actuale, crearea de tehnici eficiente din punct de vedere material a devenit decisivă în raport cu activitatea simbolică și umană în general (ideologică, economică, politică, estetică, etică , fantezie, etc.). Foarte scumpă, cercetarea și dezvoltarea necesită fonduri private și / sau publice importante. Cercetătorii nu pot face nimic fără mijloacele și bugetele. Folosindu-se termenul de tehnoștiința, cercetările vor fi orientate numai spre anumite domenii fiind defavorizate clar domeniile umaniste/ culturale.

Este tehnostiința distrugătoarea diversității?

Sub semnul științei, modernitatea a găsit justificarea în impunerea universală a aceleiași concepții despre lume, o concepție (se spune) obiectivă, bazata pe adevărata cunoaștere a legilor naturii, care este independentă de particularitățile spațiului și timpului, oarbă la simboluri și povești. Modernitatea vede tehnologiile ca fiind derivate din aceste legi obiective, deoarece aplicațiile lor devin tot mai eficiente pe măsură ce progresul cunoașterii progresează. Combinarea modernă a științei și tehnologiei este exprimată în sintagma „tehnologică unică”. Pentru un anumit scop, există o tehnică, care este necesară, o tehnică, care pune în practică cel mai eficient legile pe care le descoperă și formulează știința. Unitatea, universalitatea, progresul sunt cuvintele cheie ale acestei concepții. E cunoscut faptul că globalizarea a fost însoțită de o ideologie universalistă. Această tentație a universalismului a condus la distrugerea diversității culturale. Pentru că globalizarea nu se poate identifica cu universalismul. Legitimarea această globalizare distructive a fost facilitată de tehnoștiință – prin promovarea posibilități existenței unei cunoașteri universale și unificatoare.

Criticii tehnoștiinței o denunță deoarece ar promova o negare a cercetării fundamentale, libere, dezinteresate, pur cognitive. De asemenea, ei o denunță, deoarece ar încuraja creșterea puterii materiale și dominația intereselor speciale asupra intereselor tuturor și îi defavorizează pe cei slabi. În acest context critic, mulți cred că noțiunea de „tehnioștiință” este confuză și de aceea o distincție conceptuală clară trebuie menținută între știință – ca o întreprindere în primul rând cognitivă, teoretică și simbolică și tehnologie – care este doar o aplicație posibilă a cunoștințelor științifice.

De aici derivă necesitatea demersului etic. Suntem cu toții conștienți de limitele concrete ale eticii în dinamica globalizării, în special în fața superiorității tehnico-științifice, politice și economice. Dar demersul etic poate aduna o masă critică în societate, îi poate aduna pe „cei slabi” și poate conduce la definirea de norme pentru cei puternici. Cu alte cuvinte, hiperputerea, poate fi convinsă că are un interes în protejarea diversității culturilor, naturii sau a tehnicilor. Trebuie să fie conștientă că preocuparea pentru diversitate nu se limitează doar la punctul de vedere estetic (folclor, turism). Încurajarea acestei conștientizări este deci o sarcină etică. În multe privințe, fenomenul bioetic este expresia îngrijorărilor legitime în postmodernitate. Tehnologiile științifice medicale și biotehnologiile ridică întrebări etice, care sunt adesea determinate de natura multiculturală și pluralistă a contextului social. Demersul bioetic trebuie să se asigure că o activitate nu este o nedreptate pentru unii și nu favorizează pe alții. Globalizarea, tehnoștiința și diversitatea trebuie să facă obiectul unei judecăți etice capabile să denunțe și să corecteze diferențele când acestea sunt sinonime cu inegalitățile și discriminarea. Deliberările, personale sau colective, care conduc la o hotărâre sau alegere trebuie să faca referirea la toate principiile relevante în situația dată, iar decizia să fie luată cu știință, dar și conștiință. Prin urmare, este prudent și înțelept, ca demersul bioetic să apeleze la un număr mare de principii și valori. Raționamentul și „judecata” etică impune, în cazul în care nu se pot reconcilia valori și norme peste tot, cel puțin să nu se afirme sau să aplice un principiu străin culturii și societății respective.

Iată că bioetica este indispensabilă pentru a influența forțe politice, economice și sociale în două moduri: pe de o parte, valorizarea diversității (să o protejeze, să o difuzeze și să o îmbogățească); pe de altă parte, să se asigure că această conservare, creștere și împărtășire a diversității nu sunt însoțite de nedreptate, inegalități sau discriminări.

În concluzie, la întrebarea – este tehnosciența cea care pune în pericol diversitatea? – răspunsul este: nu, nu neapărat, poate, dimpotrivă, da. Această depinde de orientarea forțelor politice (economice, ideologice, sociale) la care tehnologiile științifice (tehnoștiința) sunt foarte sensibile.

P.S.: Pentru cei care s-ar putea să aibă tentația să critice cele scrise mai sus și să mă eticheteze drept anti-globalist, conservator și anti-modernist, le răspund cu un citat din Jean Rostand: „Știința a făcut din noi zei, înainte de a deveni oameni.”

sursa foto: ijrst.com

Publicat în etică medicală, sistem medical, tehnologie

Xenotransplantul

Pentru a crește disponibilul de organe pentru transplant, se încearcă dezvoltarea unei resurse alternative: xenotransplantul.

Xenotransplantul reprezintă transplantarea unui organ sau țesut recoltate de la altă specie la om. Xenogrefele vor deveni, probabil, o sursă majoră de organe, astfel încât transplantul să se extindă la mai mulți pacienți și la o arie mai largă de boli, dar vor ridica probleme etice suplimentare.

Baby Fae s-a născut pe 12 octombrie 1984 cu un cord stâng hipoplazic, o boală, care afectează 1 la 10000 copii; bolnavii decedează în primele două săptămâni de viață. Ventricolul stâng nu se dezvoltase, valvulele erau deficitare, aorta nedezvoltată. Doctorul Bailey, șef al secției de chirurgie pediatrică a Spitalului Universitar Loma Linda, a propus pentru a salva viața nou-născutului, un transplant de cord de la un babuin. Părinții au acceptat propunerea cu entuziasm și speranță. Pe data de 26 octombrie 1984, Goobers, un pui de babuin în vârstă de opt luni, crescut și achiziționat contra cost de la Fundația de cercetare San Antonio, a fost sedat pentru a i se preleva inima. În următoarele patru ore, cordul a fost transplantat în corpul fetiței. Fetița a supraviețuit operației 11 zile

Acest caz a zguduit opinia publică, mass-media și comunitatea științifică, la acea dată. Cei mai revoltați s-au arătat apărătorii drepturilor animalelor, care au apreciat evenimentul drept „senzaționalism medical” realizat pe seama unui copil, a unei familii și a unui babuin. Ei au considerat neetică folosirea inimii lui Goobers, considerând că viața lui Fae nu este mai valoroasă decât a animalului, că orice ființă are dreptul să-și trăiască viața, iar medicii au încălcat dreptul babuinului de a fi tratat cu respect. Argumentele, care au susținut efectuarea xenotransplantului, au venit din lumea medicală. Dr. James Hardy, cel care a efectuat primul transplant de inimă de la primate, susținea că „… suntem martorii istoriei medicinei în fiecare zi trăită de acest copil”. Thomas Starzl și-a exprimat entuziasmul: „Eu nu cred că ei au făcut ceva iresponsabil”.

Conceptul de transplantare trans-specie (sau xenotransplant) nu este nou.

O analiza a mitologiei grecești și a textelor religioase atrage atenția asupra faptului că oamenii au fost interesați de posibilitatea de a îmbina caracteristicile fizice ale diferitelor specii de animale – vezi mitul lui Icar, Centaurul etc… În secolul al XVII-lea, Jean Baptiste Denis a început practica transfuziei de sânge de la animale la om. În secolul al XIX-lea, grefele de piele au devenit relativ populare între diferite specii de animale și oameni, (grefa ideală pare să fi fost de le broaște). În 1838, a fost efectuată primul transplant de cornee (de la un porc) la un pacient om. În anii 1920 – 1230, Voronoff a efectuat un număr semnificativ de transplanturi testiculare de la cimpanzeu sau babuin la subiecți umani de sex masculin în vârstă (Viagra anilor ’20). În 1963 – 1964, Keith Reemtsma a făcut 13 transplanturi de rinichi cimpanzeu – om, dintre aceștia 12 au murit în intrvalul 4 – 8 săptămâni, unul a supraveițuit 9 luni. Tom Starzl a folosit babuini ca donatori, rezultatele acestuia fiind similare celor ale lui Reemtsma (nu a obținut supraviețuiri relativ lungi). James Hardy a efectuat în 1964 primul transplant de cord cimpazeu – om, dar pacientul a murit rapid. Tom Starzl a efectuat o serie de transplanturi de ficat între primate neumane și tinerii pacienți din Colorado, în anii 1960, fără succes de durată; în 1992, a obținut supraviețuirea pacienților timp de 70 de zile după un transplant de ficat de babuin. Odată cu apariția tehnologiilor de inginerie genetică și a tehnologiilor de clonare, porcii sunt în prezent disponibili cu o serie de manipulări diferite, care protejează țesuturile lor de răspunsul imun uman, rezultând creșterea supraviețuirii grefei de porc.

Barierele în calea xenotransplantului sunt considerabile, dar sunt în mod constant depășite în zilele noastre, în mare măsură prin inginerie genetică la animalele donator (pentru a face țesuturile lor mai rezistente la răspunsul imun uman) și prin imunosupresie. Xenotransplantul prezintă riscuri, în special în ceea ce privește transmiterea agenților infecțioși xenogeni cunoscuți sau încă nerecunoscuți de la animale la oameni și de la destinatarii transplanturilor xenogenetice la contactele lor și la publicul larg.

Aceste îngrijorări sunt preluate și de către OMS. Astfel, în Declarațiile pentru autoritățile de sănătate privind xenotransplantul, cum ar fi: Rezoluția WHA57.18 (2004) a Adunării Mondiale a Sănătății îndeamnă statele membre să asigure mecanisme naționale de control și supraveghere eficientă înainte de a permite transplantul xenogenic; sau Cerință preliminară pentru studiile clinice de xenotransplant expusă în declarația de la Changsha, China (19 – 21 noiembrie 2008), care impune restricții în domeniu.

A doua consultare globală a OMS, privind cerințele de reglementare pentru studiile clinice de xenotransplant, desfășurată în octombrie 2011 la Geneva, oferă îndrumări suplimentare, insistand în special asupra necesității transparenței și evaluării externe a protocolului, a implementării și aaprecierii rezultatelor acestuia.

În concluzie, față de problemele potențiale importante de sănătate publică, în xenotransplant, există o serie de aspecte etice, care ar trebui abordate. Acestea includ: hotărârea, privind cea mai corectă modalitate de alocare a organelor recoltate de la animale; decizia ca persoanele, care primesc xenogrefe să fie sau nu obligate să participe la programe de urmărire pe termen lung (din cauza riscului teoretic de sănătate publică determinat de virușii endogeni); dezvoltarea unei etici în ceea ce privește crearea și îngrijirea acelor animale, care vor servi ca donatori; a stabili când și în ce condiții copiii și sugarii pot fi considerați destinatari de xenogrefe; studierea posibilului impact emoțional asupra oamenilor de a fi avut o viață prelungită cu organe recoltate de la animale.

P.S.: Poate că sunteți mai interesați de soarta Laurei Codruța Koveși decât de soarta babuinilor, cimpanzeilor, porcilor etc. sacrificați pentru transplant. Eu nu.

sursa foto: nyulangone.org

Publicat în etică medicală, medici, tehnologie

Studiile clinice în România

Cum agenda publică în ceea ce privește sistemul de sănătate este făcută fie de procurori, fie de specialiștii din presă și îndeosebi de cei de la Gazeta Sporturilor, sunt și eu obligat să mă raportez la acele subiecte care depășesc limita admisibilă a incompetenței și a iresponsabilității.

Studiile clinice au constituit un asemenea subiect. Într-o isterie colectivă am văzut titluri ca: Românii cobai; Bolnavi lăsați să moară din cauza studiilor clinice; Medicamente experimentate pe români; etc. La o asemenea dezlănțuire ar fi fost normal ca Ministerul Sănătății să răspundă prin intermediul Agenției Naționale a Medicamentului și Dispozitivelor Medicale. Cum au trecut trei săptămâni și nu a apărut un asemenea răspuns, am să încerc să explic ce sunt studiile clinice și cum se desfășoară ele.

Un nou medicament este pus pe piață într-un interval de 1017 ani – în funcție de complexitatea și de caracterul novator. Într-un an, se sintetizează aproximativ 1500 de molecule noi, pentru ca după 10 ani doar 13 să poată fi puse pe piață. Această perioadă mare de timp se datorează faptului că în sinteza unui nou medicament trebuiesc respectate o serie de etape:

  • sinteza moleculei noi în laborator;
  • cercetări în laborator (fizico-chimice) pentru a stabili proprietățile noii molecule și metodologia de identificare a acesteia (de control);
  • studiul efectelor la animale și metode alternative – simulare, culturi de celule etc.;
  • studiul efectelor pe subiecți umani voluntari;
  • obținerea în baza acestor studii a aprobării de punere pe piață de la autoritățile competente;
  • punerea pe piață și studiile clinice multicentrice populaționale, privind efeciența și eficacitatea noului medicament.

În ceea ce privește cercetarea unui singur medicament nou, costurile sunt estimate între 300 de milioane și 1,5 miliarde de dolari. În sensul obișnuit, studiile clinice se referă la ultima etapă prezentată mai sus – după punerea pe piață a medicamentului nou. Ele încet-încet s-au deplasat din Vestul Europei către Est, deoarece medicii investigatori din occident au renunțat să mai participe la astfel de studii (care le luau mult timp) dat fiind că obțineau venituri mari din activitatea medicală. Astfel, s-a ajuns ca doar 35% dintre studiile clinice să se desfășoare în țările din Vest, restul fiind desfășurate în Estul Europei. În anul 2014, statisticile arătau ca 20% dintre studiile clinice se desfășurau în țările din Europa Centrală, 10% în Ungaria, 4% în Republica Moldova, 8% în Ucraina, 2% în Bulgaria și aproape 1% în România. Studiile clinice sunt reglementate strict la nivel mondial și în fiecare țară în parte. Pentru Europa, principalele reglementări sunt: Protocolul de la Oviedo și International Ethical Guidelines for Biomedical Research Involving Human Subjects elaborat de către CIOMS. Niciun medicament nou nu poate fi pus pe piață, dacă aspectele etice sunt încălcate. Firmele de medicamente au tot interesul ca aceste reguli să fie respectate pentru că altfel medicamentul este respins.

În România, studiile clinice sunt aprobate de către o comisie de etică independentă și agreată de Agenția Națională a Medicamentului și a Dispozitivelor Medicale. În aprobarea unui astfel de studiu, comisia ține cont pe de o parte de oportunitatea cercetării, pe de altă parte stabilește clar cadrul etic în care se va desfășura acesta, mai ales că România a ratificat Protocolul de la Oviedo și actele adiționale prin Legea 17/2001 și ghidurile CIOMS. În momentul în care un studiu clinic a fost aprobat, înseamnă că s-a constatat că îndeplinește toate condițiile de desfășurare. Interesul statului român, dar și cel al firmelor de medicamente este să se desfășoare, respectând reglementările din domeniu pentru că altfel nu va fi validat de către organisme independente și ar însemna cheltuieli nerecuperabile. În același timp, la fel ca în toate țările, acest studiu trebuie să fie independent de structurile administrative. Din acest motiv contractul se încheie cu medicul investigator și nu cu o unitate medicală. Unitatea medicală în care se desfășoară un astfel de studiu este stabilită de către comitetul de etică independent și agreat de ANM. Uneori medicul investigator nu cunoaște design-ul cercetării, el fiind informat doar cu parametrii pe care trebuie să îi urmărească. În unele studii clinice, participantul (bolnav sau sănătos) poate să fie investigat ambulatoriu (fără internare) și atunci el nu apare în evidențele unității medicale, ci numai în evidențele medicului investigator. La pacienții bolnavi psihici, în funcție de diagnostic, consimțământul se poate lua de la ei sau poate sa fie un consimțământ surogat (substituit, dat de către membrii familiei). Trebuie să menționez și faptul că investigațiile paraclinice, efectuate pacienților incluși în studiu, sunt plătite de către firmele de medicamente.

  • ARTICOLUL 16 Nu se poate întreprinde nici o cercetare pe o persoană decât dacă sunt întrunite cumulativ următoarele condiții: (i) nu există nici o metodă alternativă la cercetarea pe ființe umane, de eficacitate comparabilă (ii) riscurile la care se poate expune persoana nu sunt disproporționate în comparație cu beneficiile potențiale ale cercetării; (iii) proiectul de cercetare a fost aprobat de instanța competentă după ce a făcut obiectul unei examinări independente asupra pertinenței sale științifice, inclusiv al unei evaluări a importanței obiectivului cercetării, precum și al unei examinări pluridisciplinare a acceptabilității sale pe plan etic; (iv) persoana pe care se fac cercetări este informată asupra drepturilor sale și asupra garanțiilor prevăzute prin lege pentru protecția sa; (v) consimțământul prevăzut la art. 5 a fost dat în mod expres, specific și a fost consemnat în scris. Acest consimțământ poate fi retras în orice moment, în mod liber.
  • ARTICOLUL 17 Protecția persoanelor care nu au capacitatea de a consimți la o cercetare 1. O cercetare nu se poate face pe o persoana care nu are, conform art. 5, capacitatea de a consimți, decât dacă sunt întrunite cumulativ condițiile următoare: (i) sunt îndeplinite condițiile prevazute la art. 16 subparagrafele (i) și (iv); (ii) rezultatele cercetării au potențialul de a produce beneficii reale și directe pentru sănătatea sa; (iii) cercetarea nu se poate efectua cu o eficacitate comparabilă pe subiecți capabili să își dea consimțământul; (iv) autorizarea necesară prevazută la art. 6 a fost dată specific și în scris; (v) persoana în cauză nu are obiecții. 2. În mod excepțional și sub condițiile de protecție prevăzute de lege, atunci când cercetarea nu are potențialul de a produce rezultate benefice direct pentru sănătatea persoanei în cauză, o astfel de cercetare poate fi autorizată numai dacă sunt întrunite condițiile enunțate la paragraful 1 subparagrafele (i), (iii) și (v), precum și următoarele condiții suplimentare: (i) cercetarea are scopul de a contribui, printr-o îmbunătățire semnificativă a înțelegerii științifice a stării, bolii sau tulburării persoanei, la obținerea în final a unor rezultate care sa dea posibilitatea unui beneficiu pentru persoana în cauză sau pentru alte persoane din aceeași categorie de vârstă sau care suferă de aceeași boală ori tulburare sau care se află în aceeași stare; (ii) cercetarea prezintă doar un risc minim și o povara minimă pentru persoană în cauză. 

Acestea fiind spuse, nu cred nimic din ceea ce a prezentat presa. Nu văd cine ar fi avut interesul să facă studii clinice clandestine (fără aprobarea ANM) sau să facă studii clinice fictive, mai ales că, fiind multicentrice, rezultatele ar fi fost în discordanță și ar fi atras imediat atenția.

P.S.: am văzut unele comentarii în care „publicul” era indignat de veniturile obținute de medicii investigatori. Țin să îi informez că aceste venituri enorme, după părerea preopinenților, reprezintă cam 5060% din veniturile medicilor investigatori din Vest. Dar dacă se dorește, putem renunța la studiile clinice și firmele de medicamente vor investi în celelalte țări. Vom pierde, dar vom fi mândri că am diminuat veniturile medicilor investigatori.

sursa foto: socra.org