Odpowiedzialna AI może lepiej niż lekarz czytać zdjęcia rentgenowskie

Odpowiedzialna AI może lepiej niż lekarz czytać zdjęcia rentgenowskie

Wyniki obrazowania medycznego wpływają na to, jaką diagnozę dostanie pacjent. W analizach zdjęć rentgenowskich czy tomografii komputerowej sztuczna inteligencja notuje porównywalne lub trafniejsze wyniki od doświadczonych diagnostów. Dzięki niej diagnozy lekarskie mogą być szybsze i rzadziej błędne. A to tylko jeden z obszarów, gdzie AI pracuje efektywnie już teraz. Ale koniecznie musi to być odpowiedzialna sztuczna inteligencja.

AI wdziera się do kolejnych specjalizacji i sfer życia. Praktycznie każdy sprzęt domowy jest "smart", kolejnych algorytmów i nowoczesnych rozwiązań szybko przybywa, jednak ich stosowanie powinno być przemyślane i odpowiedzialne. Korzyści biznesowe powinny iść w parze z ograniczaniem ryzyk.

Algorytmy AI, czyli szansa

Medialnym bohaterem stał się ChatGPT — model uczenia maszynowego opracowany przez firmę OpenAI. GPT wykorzystuje technologię przetwarzania języka naturalnego (NLP, Natural Language Processing) i uczenie głębokie, aby tworzyć naturalny tekst, zgodny z dostarczonymi danymi wejściowymi. Rozwiązanie jest wykorzystywane przez internautów do pisania piosenek, esejów czy szukania odpowiedzi na pytania. Chatbot pomaga w marketingu internetowym i pozycjonowaniu stron www. Popularność narzędzia na nowo ożywiła wątpliwości czy coraz doskonalsze algorytmy nie staną się konkurencją dla ludzkiej kreatywności. Skoro chatbot może napisać piosenkę lub esej, które trudno odróżnić od przygotowanych przez człowieka, to może AI realnie zagraża konkretnym miejscom pracy? Niall Larkin, specjalista ds. danych w SAS, wskazuje jednak w raporcie „AI & Responsible Innovation: What´s Next?” na drugą stronę medalu. Algorytm sztucznej inteligencji może pomóc nam wyeliminować powtarzalne i pracochłonne zadania, uwalniając przestrzeń na bardziej kreatywną czy nadzorczą pracę.

Szerszy strumień danych, czyli ryzyka

Stosowanie najlepszych praktyk w zakresie zarządzania wykorzystywaniem sztucznej inteligencji oraz jasne wytyczne powinny zachęcać biznes do wprowadzania odpowiedzialnych rozwiązań. Eksperci poruszają w raporcie zagadnienia związane z wdrażaniem AI. Dr Kirk Borne, jeden z autorów opracowania i założyciel Data Leadership Group, zauważa: 

— AI stała się tak potężna i wszechobecna, że coraz trudniej stwierdzić, co jest prawdziwe, a co nie, co dobre, a co złe. Musimy uważać nie tylko na przestępców. Dzięki zdolnościom do podejmowania decyzji sztuczna inteligencja jest wdrażana przez firmy i rządy szybciej, niż da się to uregulować. Pytanie brzmi, w jaki sposób algorytmy powinny unikać niezamierzonych uprzedzeń, które mogą wkradać się do modeli? — zastanawia się Borne.

W ciągu najbliższych 20 lat część zasad obejmujących AI zostanie lepiej zdefiniowanych — uważają eksperci. Firmy prywatne i organizacje rządowe będą korzystały z inteligentnych usług jeszcze częściej, m.in. do zbierania danych. Segregowanie informacji już teraz jest skomplikowane, ale AI z chęcią zrobi to za nas. To jednak oznacza bardziej otwarty, praktycznie nieograniczony dostęp do poufnych danych, a tym samym łakomy kąsek dla cyberprzestępców. Jeżeli społeczeństwo nie będzie widziało realnych korzyści z przetwarzania danych przez AI, szybko wycofa zgodę na ich przekazywanie. A to z kolei może oznaczać duże straty dla firm korzystających z takich usług — czytamy w raporcie SAS-a.

Wykwalifikowany lekarz z asystentem medycznym AI

Szybki rozwój AI to olbrzymia szansa dla sektora medycznego. Obecnie modele uczenia maszynowego pomagają w przeszukiwaniu baz medycznych pod kątem nieoczywistych wniosków, które mogą udoskonalić leczenie i obsługę pacjenta. Najczęściej AI wykorzystuje się jako wsparcie przy decyzjach klinicznych oraz analizie obrazowej. Lekarze dostają sugestie podczas wyboru terapii, leków i określania potencjalnych skutków ubocznych — właśnie to analizuje AI wyposażona w sieci neuronowe. W obrazowaniu medycznym uczenie maszynowe wykorzystuje się do odczytywania tomografii komputerowej, zdjęć rentgenowskich i rezonansu magnetycznego w poszukiwaniu zmian chorobowych, które radiolog mógłby przeoczyć. Badania potwierdzają, że AI uzyskuje wyniki porównywalne, a często nawet lepsze niż najsprawniejsi diagności. Efekt? Mniejszy odsetek diagnoz fałszywie pozytywnych — stwierdzających chorobę — i ograniczenie niepotrzebnego straszenia pacjentów.

Sztuczna inteligencja w medycynie może zapewnić cenny kontekst podczas podejmowania decyzji dotyczących leczenia, a wręcz potwierdzić słuszność diagnozy lekarza. Naukowcy z USA potwierdzili, że narzędzia wspomagania decyzji mogą zminimalizować odsetek diagnoz fałszywie pozytywnych i usprawnić dawkowanie leków. Eksperci zapowiadają znaczne oszczędności w służbie zdrowia, jeśli będziemy konsekwentnie wprowadzali rozwiązania AI.

Jak powstaje odpowiedzialna AI?

Rozwój sztucznej inteligencji wymaga równoczesnego dbania o odpowiedzialność algorytmów. W SAS-ie, który produkuje oprogramowanie analityczne, funkcjonuje międzywydziałowy zespół Data Ethics Practice. Grupa ekspertów, którą kieruje Reggie Townsend, stara się sprawdzać, czy pracownicy i klienci dostawcy rozwiązań analitycznych korzystają z systemów AI w sposób etyczny. Szef zespołu Data Science w SAS-ie w Wielkiej Brytanii i Irlandii, Iain Brown, podkreśla, że moment pierwszego kontaktu firm ze sztuczną inteligencją jest bardzo ważny: 

— Czasem nie jest jasne, jak wykorzystać sztuczną inteligencję, więc organizacje mogą niechętnie ją przyjmować i przez to przegapić wiele korzyści. Naszym celem jest ułatwienie im odpowiedzialnego wprowadzania nowoczesnych rozwiązań z poszanowaniem przepisów. Opracowaliśmy jasne ramy etyczne, które mają kierować rozwojem modeli sztucznej inteligencji, wdrożyliśmy też ścisłe zarządzanie tymi modelami, żeby zapewnić uczciwe, przejrzyste i sprawiedliwe decyzje. Stale testujemy nasze rozwiązania i optymalizujemy je w miarę pojawiania się nowych danych, aby zapewnić jak najlepsze wyniki — akcentuje Iain Brown (wywiad z ekspertem w zakresie analityki można przeczytać w datasciencerobię.pl).

Zespół Data Ethics Practice współpracuje też z Działem Badań i Rozwoju w SAS-ie, by nie stracić z pola widzenia zasad odpowiedzialnej innowacji: skupienia na człowieku, włączenia społecznego, przejrzystości, odpowiedzialności, solidności oraz prywatności i bezpieczeństwa. To zobowiązanie obejmuje również klientów SAS-a niezależnie od tego, czy działają w sektorze publicznym, czy prywatnym.

Udostępnij link

https://www.datasciencerobie.pl/odpowiedzialna-ai-moze-lepiej-niz-lekarz-czytac-zdjecia-rentgenowskie/