Data utworzenia: 10 lipca 2025
Przeczytasz w: 20 min
Sztuczna inteligencja to nie science fiction – to rzeczywistość, która zmienia medycynę szybciej, niż wielu z nas się spodziewało. Czy AI, Big Data, analiza predykcyjna – mogą pomóc lekarzom podejmować lepsze decyzje? Czy mogą zwiększać skuteczność leczenia? Zapraszamy do lektury wywiadu, którego Dorocie Białobrzeskiej-Łukaszuk, Prezes Zarządu Grupy INVICTA udzielił dr Damian Drzyzga, Senior Data Scientist z Centrum Badawczo-Rozwojowego INVICTA.
[DD] ChatGPT przybliżył to, co było do tej pory zarezerwowane dla wąskiej grupy naukowców, pasjonatów sztucznej inteligencji, ludzi, którzy pracowali z tym tematem. To narzędzie sprawiło, że każdy z nas mógł zacząć tworzyć swoje pierwsze prompty, zadawać chatowi pytania, prosić go o różne rzeczy. Natomiast tak naprawdę sztuczna inteligencja znana była już w latach 50. XX wieku. Algorytmy, na których się opiera to również wiek XX. Trochę czasu minęło, więc należy zadać sobie pytanie, dlaczego akurat teraz obserwujemy wielki boom na sztuczną inteligencję. Złożyło się na to kilka czynników, które były kluczowe i ta koincydencja okazała się tutaj znamienna.
[DD] Sztuczna inteligencja potrzebuje danych – im więcej, tym lepiej. Dzisiaj mamy dużo danych wysokiej jakości, co wpływa na lepszą predykcję (prognozowanie). Przyczyniły się do tego m.in. portale społecznościowe, na których zaczęliśmy zostawiać mnóstwo śladów cyfrowych. Firmy zaczęły gromadzić te dane, które były coraz bardziej dostępne dla użytkowników, stały się one także lepiej ustrukturyzowane. To było pierwszym czynnikiem.
Gdy mamy dane, potrzebujemy narzędzi, aby móc je przetwarzać. W związku z tym zaczęły powstawać coraz nowsze algorytmy. Istotna okazała się także moc obliczeniowa, którą zapewniły komputery. Rozwój procesorów graficznych, chmur obliczeniowych – to wszystko przyczyniło się do wielkiego przełomu porównywanego przez niektórych do drugiej rewolucji przemysłowej (1870-1914) czy wprowadzenia Internetu (1969).
Kolejnym czynnikiem okazały się pieniądze, w tym te pochodzące z VC (Venture Capital) i CVC (Corporate Venture Capital), które mocno inwestowały w start-upy. Dzięki temu mogły powstać firmy, które inwestowały środki w rozwiązania, takie jak słynny ChatGPT czy wiele innych wirtualnych asystentów upublicznionych w późniejszych latach.
Przełom, o którym mówimy, jest widoczny w zeszłorocznych Nagrodach Nobla. John Hopfield i Geoffrey Hinton, czyli ojcowie chrzestni sztucznej inteligencji, otrzymali nagrodę w dziedzinie fizyki za wieloletnią pracę nad algorytmami sieci neuronowych. Nobel z chemii trafił natomiast do twórców AlphaFold, czyli sieci neuronowej przewidującej przestrzenną strukturę białek, która przyspiesza prace nad lekami i może w znaczący sposób wpłynąć na rozwój terapii medycznych.
[DD] Tak, jest to pokolenie 40-latków. Naukowcy, którzy byli nagradzani Noblem przeważnie dochodzili do jakichś odkryć na doktoratach, a później czekali 30-40 lat na uznanie Komitetu Noblowskiego. W tym przypadku wszystko działo się na przestrzeni kilku lat od opracowania jakiegoś rozwiązania do nagrodzenia. To też pokazuje, że Komitet Noblowski widzi, że sztuczna inteligencja jest ważna i wierzę w to, że za parę lat naukowcy nagrodzeni Noblem będą otwarcie mówili o tym, że pracowali razem z modelem sztucznej inteligencji i to dzięki niemu byli w stanie odkryć nową strukturę białka czy zaproponować innowacyjną terapię, która walczy z chorobami cywilizacyjnymi.
[DD] Miejmy na uwadze, że sztuczna inteligencja to nie jest jakiś mityczny byt, tylko zestaw algorytmów statystycznych, które wykorzystują jakieś założenia matematyczne do tego, aby wnioskować. Komputery robią to znacznie szybciej od człowieka. Pamiętajmy jednak o tym, że AI posługuje się danymi, które dostarczamy, więc warto zadbać o ich jakość. Jeśli „nakarmimy” algorytmy danymi niskiej jakości, otrzymamy wyniki niskiej jakości.
[DD] Tak, są to zestawy pewnych technologii, które składają się na sztuczną inteligencję. Uczenie maszynowe możemy wyjaśnić jako podejście, w którym dajemy algorytmowi bardzo dużo danych i prosimy go, aby znalazł wzorce. Sieci neuronowe to bardziej zaawansowane rozwiązania, które starają się udawać ludzki mózg. Pojawiają się w nich tzw. „neurony”, a także dodawane są warstwy abstrakcyjne, w których zachodzi przetwarzanie danych i szukanie wzorców. To właśnie prace nad tą metodą przyspieszyły rozwój AI, który obserwujemy od 3-4 lat.
W przypadku algorytmów uczenia maszynowego wyjaśnialność modeli jest o wiele wyższa niż przy sieciach neuronowych. W drugim przypadku wchodzimy w pewien obszar Blackboxów – „czarnych skrzynek”, czyli systemów sztucznej inteligencji, w których wewnętrzne procesy pozostają ukryte przed użytkownikami, co utrudnia zrozumienie, w jaki sposób podejmowane są decyzje. Oczywiście szybko zaczęto rozwijać wyjaśnialną sztuczną inteligencję, po to, aby móc zrozumieć co dla algorytmu było ważne, które parametry przyjął, a które odrzucił. Jest to istotne szczególnie w medycynie, zwłaszcza w kontekście zdrowia i leczenia pacjentów.
[DD] Wszystko zależy od tego, co chcemy osiągnąć i w jakim tempie. W jednej firmie sprawdzą się gotowe rozwiązania wykorzystujące sztuczną inteligencję, które można kupić, bo są ogólnodostępne, w innej lepiej będzie zainwestować we własny dział zajmujący się zbieraniem i analizą danych. Należy jednak pamiętać o tym, że gotowe rozwiązania są dopasowane do pewnej populacji i mogą nie spełniać naszych wymagań. Przykładowo, jeśli kupimy narzędzie „wytrenowane” na danych pacjentek ze Stanów Zjednoczonych i będziemy chcieli zastosować je w Polsce, niekoniecznie będzie ono dobrze działać. Mając własny zespół, możemy pracować na danych swoich pacjentek, co pozwoli nam spersonalizować leczenie.
[DD] Zajmujemy się inżynierią i modelowaniem danych. Z jednej strony mamy data inżynierów, którzy przygotowują dane oraz dbają o ich jakość i walidację. Z drugiej – data scientistów – czyli osoby, które na podstawie gotowych danych przygotowują modele mające na celu optymalizację ścieżek terapii, skrócenie czasu trwania poszczególnych procedur, obniżenie kosztów leczenia i zwiększenie bezpieczeństwa pacjentów. Po to właśnie jest potrzebna sztuczna inteligencja w medycynie – aby było bezpieczniej, szybciej i efektywniej. Tworzymy m.in. podsumowania wizyt lekarskich czy algorytmy, które zliczają pęcherzyki antralne podczas badań USG. To, co kiedyś zajmowało specjalistom od kilku do kilkunastu minut, jesteśmy teraz w stanie zrobić w zaledwie kilka sekund.
[DD] Oczywiście, że współpracujemy z lekarzami, diagnostami laboratoryjnymi, embriologami czy genetykami. Nie wyobrażam sobie innego scenariusza – to jest synergizm. Musimy być pewni, że wnioski, które wyciągamy, są prawdziwe i bezpieczne dla pacjentów. Aby działać skutecznie, potrzebujemy wsadu merytorycznego i konsultacji tego, co udało nam się wypracować. Czasami podsuwamy też lekarzom jakieś rozwiązania poparte wzorcami, które są niewidoczne z poziomu lokalnego, ale widzimy je, patrząc globalnie na całą populację pacjentek. Może to dotyczyć np. drogi podawania jakiegoś leku.
[DD] Światowa Organizacja Zdrowia (WHO) przewiduje, że w 2030 roku najczęściej występującymi chorobami cywilizacyjnymi będą zaburzenia depresyjne i stany lękowe. Są w Polsce zespoły, które intensywnie pracują nad rozwiązaniami mającymi pomóc w ich wykrywaniu. Zbierane są np. informacje z czujników noszonych przez pacjentów, które pozwalają przewidzieć nasilone epizody takich zachowań. Do tej pory opierano się wyłącznie na samoobserwacji pacjenta, więc opracowanie obiektywnej metody diagnozowania można uznać za przełom. Inna firma pracuje nad rozwiązaniem, które w ciągu 10 sekund badania ruchu gałek ocznych jest w stanie przewidzieć predyspozycje do zachorowania na depresję czy chorobę Alzheimera. W niedalekiej przyszłości chcą analizować także ton głosu oraz sposób wypowiadania się, które również ulegają zmianie u osób zmagających się ze wspomnianymi przypadłościami.
[DD] Dokładnie, ale mając te wszystkie zdjęcia, które kurzą się na przysłowiowych półkach, należy zadać sobie pytanie, jak możemy je wykorzystać. Specjaliści z Politechniki Warszawskiej we współpracy z Polską Grupą Raka Płuca opracowali np. model sztucznej inteligencji oparty na największej na świecie bazie obrazów tomografii komputerowej płuc. Jest on w stanie przewidywać różne schorzenia w obrębie klatki piersiowej, co znacznie zwiększa szanse terapeutyczne. Istnieją również modele, które są w stanie określić miejsce nowotworzenia, bo widzą jakieś subtelne zmiany nieuchwytne dla ludzkiego oka. Przykładowo w Rzeszowie powstało zaawansowane rozwiązanie, które jest już testowane w szpitalu i pomaga w diagnozowaniu wad wrodzonych serca u dzieci. Takich przykładów jest oczywiście więcej, szczególnie na świecie, a dowodem na to jest np. algorytm, który na podstawie EKG jest w stanie przewidzieć niedokrwistość czy zaburzenia krzepnięcia krwi.
[DD] Na pewno może być wsparciem w codziennych obowiązkach, takich jak wypełnianie dokumentacji medycznej czy jej późniejsze analizowanie przed wizytą. Może również wskazać jakieś rzeczy, o które warto dopytać pacjenta podczas wywiadu lekarskiego. AI może również pomóc w tworzeniu opisów radiologicznych, na które czeka się czasami bardzo długo. Ponadto może być wsparciem dla młodych lekarzy, którzy dopiero nabierają doświadczenia. Może coś podpowiedzieć, zasugerować, zwrócić na coś uwagę. W Bostonie powstał nawet taki projekt, w którym wykorzystano opisy zdjęć rentgenowskich klatki piersiowej i tomografii po to, aby na ich podstawie odtworzyć trójwymiarowy obraz tomografii płuc, dzięki któremu lekarze mogli poszerzyć swoją wiedzę na temat rzadkich przypadków chorób układu oddechowego.
[DD] Tak, dlatego pracujemy nad rozwiązaniem, które pozwoli lekarzowi porównać przypadek pacjentki, która siedzi przed nim fizycznie z populacją kobiet, które już się u nas leczyły. Dzięki temu będzie mógł zweryfikować swoją diagnozę i zderzyć ją z podobnymi historiami medycznymi. Wykorzystanie sztucznej inteligencji w medycynie pozwoli również na jeszcze bardziej spersonalizowane leczenie i edukację lekarzy, którzy z dnia na dzień będą stawać się coraz lepszymi specjalistami w swoich dziedzinach.
[DD] Sztuczna inteligencja umożliwia przede wszystkim jeszcze większą personalizację terapii i ujęcie w kontekście historii medycznej innych pacjentów, co wpływa na jej bezpieczeństwo. U nas powstało AIOO®, które pozwala dostosować dawki stosowanych leków na podstawie wybranych czynników klinicznych i danych genetycznych, aby zapewnić bezpieczniejszą terapię hormonalną i nie narażać pacjentek na niepotrzebne komplikacje. Sztuczna inteligencja niweluje szanse wystąpienia niepożądanych odpowiedzi i tym samym pozytywnie wpływa na cały proces leczenia.
Trzeba jednak pamiętać, że AI to także wielka odpowiedzialność, która spoczywa na barkach lekarzy. Pokazał to przykład ze Stanów Zjednoczonych, gdzie lekarze radiolodzy korzystali z algorytmu sztucznej inteligencji, który miał wskazywać ogniska chorobowe na zdjęciach rentgenowskich. Tak długo, jak algorytm działał dobrze, lekarze się z nim zgadzali. Gdy zaczął popełniać błędy, skuteczność poprawnych diagnoz spadła z 90% do nieco ponad 20%. To pokazuje, jak niebezpieczne może być zbyt szybkie i bezkrytyczne zaufanie rozwiązaniom opartym na AI.
Bardzo ucieszyło mnie, jak w zeszłym roku do Kodeksu Etyki Lekarskiej został dodany zapis dotyczący korzystania ze sztucznej inteligencji. Biorąc pod uwagę, że jest to pierwsza taka nowelizacja po dwudziestu paru latach, pokazuje to, że środowisko lekarskie w Polsce zdaje sobie sprawę z odpowiedzialności. Jest tam zapis, że pacjent musi wyrazić świadomą zgodę na wykorzystanie takiego algorytmu, jednak ostateczna decyzja pozostaje zawsze w rękach lekarza.
[DD] Algorytmy są tak dobre, jak dane, które dostały. Jeśli dostaną dane niskiej jakości, będą wnioskować błędnie. Dlatego tak dużo mówi się o inżynierii danych, o tym, aby je dobrze przygotowywać i uważać na to, co chcemy wprowadzić do algorytmu. Ustawodawstwo Unii Europejskiej też podąża w tym kierunku i wymusza na firmach, które wykorzystują AI lub pracują nad własnymi algorytmami zapewnienie dobrze przygotowanego zestawu testowego. Oznacza to, że musimy wiedzieć, skąd pochodzą zgromadzone dane, czy nie zawierają błędów i nie wykluczają jakiejś grupy etnicznej lub płci. Pominięcie któregoś z wymienionych czynników będzie skutkowało powtórzeniem się sytuacji ze Stanów Zjednoczonych.
[DD] W INVICTA pierwszą rzeczą, którą robimy, jest anonimizacja danych, które pozwoliłyby zidentyfikować pacjenta. Nie wyobrażamy sobie sytuacji, w której osoba nieuprawniona weszłaby w ich posiadanie. Dlatego też skupiamy się wyłącznie na tych danych, które są niezbędne do budowania modeli, nie zagłębiamy się w historię leczenia pacjenta. Dzięki temu te dane są bardzo bezpieczne.
[DD] Podstawą jest oczywiście odpowiednie przygotowanie danych. Aby tego dokonać, konsultujemy każdy etap modelowania ze specjalistami domenowymi, czyli lekarzami, embriologami i genetykami. Dążymy do tego, aby każdy etap pracy nad konkretnym modelem był zweryfikowany przez specjalistę. Jeżeli zakładamy sobie jakieś pośrednie kroki w modelowaniu, chcemy wiedzieć, że dochodzimy do wniosków zgodnych z wiedzą medyczną.
[DD] Wiele firm w Polsce pracuje w ramach międzynarodowych konsorcjów, które mają na celu wypracowanie rozwiązań na skalę europejską, a nawet światową. Polscy naukowcy związani ze sztuczną inteligencją pracują w międzynarodowych zespołach zarówno w kraju, jak i za granicą, więc absolutnie nie mamy czego się wstydzić. Dużo się mówi o rozwiązaniach ChatGPT czy Gemini, natomiast w Polsce też tworzymy swoje modele językowe. Najlepszym przykładem jest PLLuM, który został opracowany z myślą o administracji publicznej – ma pomóc w załatwianiu różnych spraw w urzędach. Nasze modele językowe są oczywiście wytrenowane na mniejszej liczbie danych w porównaniu z największymi, jednak ich ogromną zaletą jest koncentracja na konkretnych rozwiązaniach.
[DD] Nie zastąpi, ponieważ bycie lekarzem to nie jest tylko wnioskowanie na podstawie danych i stawianie diagnoz. To także kontakt z pacjentem, budowanie z nim relacji, podejmowanie nagłych decyzji w nieprzewidywalnych sytuacjach. Postęp medycyny miał miejsce tylko dlatego, że jacyś lekarze pomyśleli nieszablonowo, wyszli poza schemat, zaryzykowali, zrobili coś inaczej. Sztuczna inteligencja jak dotąd używa tych samych schematów i kurczowo się ich trzyma.
[DD] Zakładam, że kreatywność wynika z odczuwania rzeczywistości, pewnych emocji, stanów, w których jesteśmy. Nie sądzę więc, aby sztuczna inteligencja mogła przeskoczyć ludzi pod tym względem, ponieważ korzysta ze zgromadzonych danych. Faktem jest natomiast, że sztuczna inteligencja coraz lepiej przetwarza informacje.
Prof. Andrzej Dragan, który jest popularyzatorem nauki, zrobił dwa lata temu eksperyment i poprosił chata GPT, aby rozwiązał prostą zagadkę. Chciał zbadać, w jakim stopniu model językowy rozumie zależności fizyczne praw natury. Brzmiała ona mniej więcej tak: Do kubka wkładamy niebieski kamień, który przykrywamy deską i obracamy do góry nogami. Następnie kładziemy kubek na stole i wysuwamy deskę. Zabieramy kubek do kuchni i tłuczemy. Gdzie jest kamień? Oczywiście został na stole, jednak ChatPGT dwa lata temu upierał się, że jest w kuchni, bo rozbił się razem z kubkiem. Powtórzyłem wczoraj ten eksperyment i wszystkie użyte przeze mnie modele wykonały analizę przyczynowo-skutkową i wywnioskowały, że kamień jest na stole. To pokazuje, jak bardzo polepszyło się wnioskowanie modeli AI.
Geoffrey Hinton, o którym wspominaliśmy w kontekście Nagrody Nobla, przestrzega jednak przed sztuczną inteligencją i żałuje, że przyłożył rękę do jej rozwoju. Twierdzi, że w ciągu 5-20 lat powstanie model przewyższający ludzką inteligencję i wzywa wielkie firmy technologiczne pracujące nad sztuczną inteligencją do tego, aby ⅓ swoich wydatków inwestowały w zabezpieczenia.
[DD] Oczywiście sztuczna inteligencja jest zbajasowana (od ang. biased), ponieważ nie jesteśmy w stanie zbudować idealnego zestawu danych, który uwzględniałby wszystkie możliwości – choroby, grupy etniczne, narodowości itd. Ważne, aby nie popełnić błędu Google, którego model był tak bardzo inkluzywny, że zaczął generować obrazy czarnoskórych żołnierzy armii hitlerowskiej. Na tym przykładzie idealnie widać, jak wiele trzeba włożyć pracy, aby przygotować dane, które później zostaną wykorzystane w modelowaniu.
[DD] W przestrzeni jest coraz więcej danych wytworzonych przez starsze modele sztucznej inteligencji. Musimy uważać, aby nie doprowadzić do sytuacji, w której staniemy się mitycznym wężem zjadającym własny ogon. Może to doprowadzić do sytuacji, w której nowe modele będą podrzucać nam błędne informacje i wnioskować w bardzo niebezpiecznym kierunku. Aby temu zapobiec, musimy pracować nad modelami, które będą w stanie rozróżnić, co zostało wytworzone przez człowieka, a co przez sztuczną inteligencję. Modele, z których aktualnie korzystamy, zaczynają też intensywnie przeszukiwać strony internetowe, gdzie często trafiają na informacje niezgodne z prawdą. Tworzenie „bezpieczników”, które będą filtrować tego typu treści, również jest naszym obowiązkiem.
Poczytaj więcej