Friends HLILogoHLI Human Life International - Polska
Polski serwis pro-life

Zbiór podstawowych zasad etycznych dotyczących wykorzystania sztucznej inteligencji (AI) w praktyce medycznej został opublikowany 11 listopada, na zakończenie międzynarodowego kongresu zorganizowanego przez Światową Federację Stowarzyszeń Lekarzy Katolickich (FIAMC) i Papieską Akademię Życia (PAV), który odbył się w Kurii Generalnej Towarzystwa Jezusowego w Rzymie.

Wykorzystujmy nowe technologie, aby poprawić ocenę kliniczną, zwiększyć dokładność diagnostyki i zoptymalizować wyniki leczenia pacjentów.

Ks. prałat Renzo Pegoraro, prezes PAV, i profesor Bernard Ars, prezes FIAMC, stwierdzili, że zdumienie niezwykłymi rezultatami osiągniętymi dzięki rozwojowi systemów sztucznej inteligencji nie może być oddzielone od obaw o wpływ tych samych rezultatów na relacje osobiste i społeczne. Przypominając wytyczne przedstawione już przez papieża Franciszka w tym obszarze, zgodnie z którymi przyrodzona godność każdego człowieka i braterstwo, które jednoczy nas jako członków jednej rodziny ludzkiej, muszą stanowić podstawę rozwoju nowych technologii i służyć jako niepodważalne kryteria ich oceny przed ich zastosowaniem.

W komunikacie końcowym konferencji przypomniano, że w dziedzinie opieki zdrowotnej niezbędne jest, aby sztuczna inteligencja była narzędziem wspomagającym, które usprawnia ocenę kliniczną, wspiera dokładność diagnostyczną i poprawia wyniki leczenia pacjentów, nigdy nie zastępując kompetencji, empatii ani odpowiedzialności lekarza.

Nadzór, osąd kliniczny, przejrzystość

PAV i FIAMC podkreślają, że sztuczna inteligencja musi pozostać podporządkowana klinicznemu rozumowaniu lekarza: Decyzje dotyczące leczenia pacjentów i związany z nimi ciężar odpowiedzialności muszą zawsze pozostawać w gestii ludzi i nigdy nie powinny być delegowane do sztucznej inteligencji. Lekarze, korzystając ze sztucznej inteligencji, muszą uważać, aby nie dać się zahipnotyzować pokusie technologicznych rezultatów.

Skomentowano również kwestię przejrzystości i interpretacji: Lekarze powinni być w stanie zrozumieć i wyjaśnić, w jaki sposób generowane są zalecenia oparte na sztucznej inteligencji. Algorytmy typu `czarna skrzynka`, którym brakuje możliwości interpretacji, ryzykują podważenie zaufania i odpowiedzialności klinicznej, prowadząc do utraty kompetencji i delegowania odpowiedzialności.

Równość i poufność

Odpowiedzialni za opiekę zdrowotną są również zobowiązani do zachowania najwyższej czujności w odniesieniu do ryzyka, że ​​niekompletne lub zniekształcone dane mogą utrwalać nierówności. Ponownie, w celu zapewnienia równości, stwierdza się, że sztuczna inteligencja nie powinna pogłębiać przepaści między środowiskami bogatymi w zasoby a ubogimi w zasoby. Wszyscy pacjenci, niezależnie od położenia  geograficznego czy statusu społeczno-ekonomicznego, muszą mieć możliwość korzystania z postępu technologicznego: Optymalizacja zasobów oznacza ich etyczne i braterskie wykorzystanie, bez karania najsłabszych. Zaleca się promowanie inkluzywnych i reprezentatywnych danych w rozwoju sztucznej inteligencji.

Środowisko medyczne ostrzega się przed wykorzystywaniem danych pacjentów w aplikacjach AI: muszą one być zgodne z normami prawnymi i etycznymi. Poufność zawodowa musi być również stosowana w kontekście AI. Ponadto, PAV i FIAMC stwierdzają, że istotne jest rozróżnienie, kiedy błąd można przypisać lekarzowi z powodu niewłaściwego użycia tych systemów, a kiedy jest on wyłącznie przypisany szpitalowi zarządzającemu i wdrażającemu narzędzie lub firmie AI.

Prywatność, odpowiedzialność

Techniki numeryczne oparte na obliczeniach, jakkolwiek skuteczne by nie były, mają wiele ograniczeń epistemologicznych i logicznych. Dlatego, jak podsumowują ks. prałat Pegoraro i prof. Ars, nie mogą one zastąpić wszystkich niuansów ludzkiego myślenia i wszystkich wymiarów relacji międzyludzkich. Niektórych głębokich wymiarów opieki nad pacjentem nie da się w rzeczywistości zastąpić zoptymalizowanymi procedurami numerycznymi i autonomicznymi robotami. Podstawową zasadą przewodnią jest to, że pacjent nie jest problemem do rozwiązania (za pomocą AI lub innych technologii), ale tajemnicą, która objawia samego Chrystusa.

Źródło: KAI – 12 listopada 2025 r.

Wspomóż obronę życia

BLIK_LOGO_RGB

We use cookies

Na naszej stronie internetowej używamy plików cookie. Niektóre z nich są niezbędne dla funkcjonowania strony, inne pomagają nam w ulepszaniu tej strony i doświadczeń użytkownika (Tracking Cookies). Możesz sam zdecydować, czy chcesz zezwolić na pliki cookie. Należy pamiętać, że w przypadku odrzucenia, nie wszystkie funkcje strony mogą być dostępne.