Eksplozja generatywnej sztucznej inteligencji (GAI), która w ciągu ostatnich kilkunastu miesięcy podbija niemal każdą branżę, stawia wyzwania nie tylko przed autorami, wydawcami czy artystami, ale także przed specjalistami od cyberbezpieczeństwa. Coraz bardziej zaawansowane narzędzia wykorzystywane do prowadzenia działań przestępczych stawiają nowe, trudne wyzwania przed organizacjami narażonymi na wyłudzenia i nadużycia. Sektory takie, jak bankowość, ubezpieczenia, handel i administracja rządowa muszą szybko wdrażać nowe technologie w celu ochrony własnych klientów przed działaniami grup przestępczych. 

Nic tak nie przykuwa uwagi, jak efektowne wideo. Dlatego Sora, nowy model generatywnej sztucznej inteligencji (GAI) zaprezentowany przez OpenAI, zrobił wielki szum w mediach na całym świecie. Kiedy Dall-E, Midjourney czy Stable Diffusion przekształcają komendy tekstowe w realistyczne – czy fantastyczne – obrazy, Sora na bazie poleceń użytkownika tworzy filmy, często trudne do odróżnienia od produkcji Hollywood czy filmów dokumentalnych. 

Sora nie jest jeszcze publicznie dostępna, ale demonstracja jej możliwości była przyczynkiem i do nadziej, i do obaw. Nadziei, bo model może wyzwolić pokłady kreatywności u ludzi niemających dostępu do profesjonalnych narzędzi pozwalających tworzyć filmy. Obaw, bo te same pokłady kreatywności mogą uwolnić cyberprzestępcy, wykorzystujący podobne narzędzia do oszustw na wielką skalę. 

Wykorzystywanie narzędzi typu deepfake – pozwalających na tworzenie zmanipulowanych nagrań prawdziwych ludzi – w wyłudzeniach i innych finansowych przestępstwach nie jest zjawiskiem nowym, ale zagrożenie z nich płynące narasta wraz z rosnącymi możliwościami algorytmów tworzących fałszywki. Według raportu firmy Onfido, tworzącej narzędzia do weryfikowania tożsamości, liczba prób dokonania oszustw za pomocą deepfake’ów wzrosła w 2023 r. aż o 3000 proc. w porównaniu z rokiem poprzednim. 

W jednym z najbardziej spektakularnych przypadków tego rodzaju oszustwa, o którym doniósł w styczniu dziennik South China Morning Post, oddział międzynarodowej korporacji działający w Hongkongu stracił 23,6 mln euro po tym, jak jeden z pracowników dostał polecenie dokonania przelewu od osoby podającej się za jej dyrektora finansowego. Gdy pracownik wyraził sceptycyzm, zaproszono go na wideokonferencję, w której osoba wyglądająca i brzmiąca jak CFO firmy ponowiła żądanie. Tym razem pracownik dał się przekonać i wykonał przelew. 

Zmanipulowane wideo to nie jedyne zagrożenie płynące z generatywnej sztucznej inteligencji. Wielkie modele językowe, takie jak ChatGPT czy Gemini, mogą służyć do tworzenia przekonujących, spersonalizowanych wiadomości phishingowych kierowanych do konkretnych odbiorców. „Mimo że konsumenci są czujni, przestępcy internetowi rozwijają swoją działalność z wykorzystaniem generatywnej sztucznej inteligencji i technologii deepfake” mówi Stu Bradley, wiceprezes ds. przeciwdziałania nadużyciom w SAS. “Wiadomości phishingowe stają się coraz bardziej dopracowane. Imitacje stron internetowych wyglądają łudząco podobnie do oryginałów, a aby podrobić głos konkretnej osoby, wystarczy kilka sekund nagrania audio i łatwo dostępne narzędzia online.”

Ochrona przed przed fraudami 

Ale to tylko jedna strona medalu. Bo generatywna sztuczna inteligencja może też służyć do skutecznej ochrony firm i organizacji przed fraudami. 

Badania przeprowadzone przez SAS wskazują na to, że generatywna sztuczna inteligencja może w najbliższych latach stać się kluczowym elementem zabezpieczeń przed nadużyciami finansowymi. Z przeprowadzonego przez firmę sondażu wynika, że 8 na 10 specjalistów zajmujących się zwalczaniem nadużyć finansowych zamierza wdrożyć generatywną sztuczną inteligencję przed końcem 2025 roku,  zaś trzy na pięć organizacji spodziewa się, że zwiększy swoje budżety na technologię przeciwdziałania oszustwom w ciągu w ciągu najbliższych dwóch lat. 

To ważne, bo coraz bardziej świadomi zagrożeń są sami konsumenci. Aż 9 na 10 respondentów uważa, że firmy powinny robić więcej, aby uchronić swoich klientów przed oszustwami. Ponad 70 proc. respondentów z Polski stwierdziło, że zgodziłoby się na większe opóźnienia i kontrole transakcji w zamian za lepszą ochronę. Jednocześnie, jak wskazuje niedawno opublikowane badanie SAS Faces of Fraud: Consumer Experiences With Fraud and What It Means for Business, 76 proc. Polaków co najmniej raz w 2022 r. spotkało się z próbą oszustwa. Rozpowszechnienie ataków doprowadziło do tego, że niemal 80 proc. badanych zwiększyło swoją czujność podczas dokonywania transakcji internetowych.

Szczególnie narażone na oszustwa online są zwłaszcza organizacje działające w sektorach bankowości, ubezpieczeń, telekomunikacji, handlu i administracji rządowej. To one powinny w pierwszej kolejności zainwestować w zaawansowane rozwiązania, które zwiększają bezpieczeństwo ich samych i ich klientów dzięki wykorzystaniu technik uczenia maszynowego (ML) czy generatywnej sztucznej inteligencji. Pozwalają one wyprzedzać działania cyberprzestępców i zapobiegać atakom i nadużyciom dokonywanym za pomocą wszystkich kanałów. 

Przykładem takiego rozwiązania jest platforma SAS Viya, wykorzystywana przez Departament Gospodarki stanu Goiás w Brazylii. Urząd korzysta z wykorzystującej algorytmy sztucznej inteligencji platformy w celu wykrywania firm unikających płacenia podatków w transporcie towarowym. System, analizujący dane podatkowe w czasie rzeczywistym, w ciągu miesiąca od momentu wdrożenia generował 300 alertów o możliwych niezgodnościach podatkowych. Dzięki lepszej identyfikacji nieprawidłowości – np. sfałszowanych faktur, brakujących elektronicznych poświadczeń wymaganych dla pojazdów do transportu towarów i ładunków przekraczających deklarowaną ilość – kwota nałożonych kar wzrosła o 54 proc. w porównaniu z tym samym miesiącem poprzedniego roku.

„Projekt ten znacznie zmienił wydajność operacyjną departamentu, zapewniając nam większą przejrzystość i wymierne korzyści dla społeczeństwa” – powiedziała Giovana Amorim Zanato, kierownik ds. audytu w Departamencie Gospodarki stanu Goiás. „Połączyliśmy technologię SAS z innymi rozwiązaniami w celu zapobiegania uchylaniu się od płacenia podatków i stworzyliśmy innowacyjną praktykę, która posłuży jako przykład dla innych departamentów stanowych.”

To jednak zaledwie jeden ze sposobów, na jakie sztuczna inteligencja może pomóc zabezpieczać organizacje przed nadużyciami. „Przykład tego, jak szerokie zastosowanie ma sztuczna inteligencja, mogą stanowić sektory bankowości i ubezpieczeń, które zmagają się z ogromną liczbą prób wyłudzeń. Algorytmy AI pomagają oceniać okoliczności zdarzenia w przypadku likwidacji szkód, weryfikować autentyczność dokumentów i zdjęć przesyłanych przez klienta oraz generują rekomendacje działań dla osoby obsługującej proces. AI pomaga też weryfikować powiązania pomiędzy interesariuszami w transakcjach biznesowych. Wykrywanie nadużyć z pomocą AI dotyczy również procesów wewnętrznych, m.in. przy rekrutacji nowych pracowników i ocenie ich aplikacji” – mówi Marta Prus – Wójciuk, Head of Fraud Management Practice, SAS.

Po pierwsze bezpieczeństwo

Oparte na AI i ML rozwiązania wspomagające bezpieczeństwo mogą obejmować także np. analizę wizyjną, czyli tworzenie systemów, które poprzez analizę obrazu mogą wykrywać podejrzane zachowania w czasie rzeczywistym, takie jak nieautoryzowany dostęp do danych. W ochronie danych może pomóc biometria behawioralna, poprzez analizę zachowania użytkownika, w tym analizę sposobu pisania na klawiaturze, poruszania myszą czy rozpoznawanie głosu. Czy wreszcie monitorowanie transakcji w czasie rzeczywistym pod kątem podejrzanych wzorców, co pozwala na błyskawiczne reagowanie na próby oszustwa, identyfikację nieautoryzowanych transferów pieniężnych czy wykrywanie prania pieniędzy. 

Systemy oparte na sztucznej inteligencji mogą także wykorzystywać rozwiązania robotyczne – roboty zintegrowane z systemami AI mogą patrolować obiekty i monitorować ich stan, minimalizując ryzyko kradzieży, aktów wandalizmu, awarii czy wycieków. Zaawansowane algorytmy sztucznej inteligencji mogą wreszcie analizować duże ilości danych, aby przewidywać i zapobiegać cyberatakom.

Wszystko to przekłada się nie tylko na zwiększenie poziomu bezpieczeństwa, ale i na szybsze wykrywanie i reagowanie na zagrożenia, redukcję kosztów związanych z cyberatakami i zwiększenie poziomu zaufania klientów do organizacji. 

„Szybki rozwój narzędzi generatywnej sztucznej inteligencji już ułatwia oszustom i zorganizowanym grupom przestępczym omijanie tradycyjnych metod wykrywania nadużyć. Oznacza to, że organizacje stoją przed wyzwaniem zastosowania najnowszych technologii, aby to zjawisko powstrzymać. Te z nich, które sprostają oczekiwaniom klientów w zakresie bezpieczeństwa, mają największe szanse na zdobycie ich lojalności, a w efekcie budowanie przewagi konkurencyjnej. W dalszej perspektywie oznacza to generowanie wzrostów sprzedaży przy jednoczesnym ograniczeniu strat związanych z nadużyciami” stwierdza Stu Bradley z SAS.

– Wykorzystując technologię Organ-on-a-chip, zbierając dane i tworząc ich kartoteki jesteśmy w stanie powiedzieć kiedy następuje rozwój choroby lub w jakim momencie lek zaczął działać – zauważa dr inż. Agnieszka Żuchowska z Katedry Biotechnologii Medycznej Politechniki Warszawskiej.

Dr Agnieszka Żuchowska jest adiunktem w Katedrze Biotechnologii Medycznej Politechniki Warszawskiej. Odbyła półtoraroczny staż podoktorski w grupie AMBER (Uniwersytet Twente, Holandia). Posiada udokumentowane doświadczenie w zakresie badań biologicznych prowadzonych z wykorzystaniem mikroprzepływowych układów Cell-on-a-chip, Organ-on-a-chip potwierdzone 31 publikacjami.

Jej zainteresowania i wiedza obejmują zastosowanie miniaturowych urządzeń przepływowych w modelowaniu narządów, ich połączeń oraz ich zastosowanie w badaniach przesiewowych leków. Jest ekspertem w zakresie pozyskiwania, wykorzystania i analizy biologicznej kultur przestrzennych sferoid w warunkach normalnych i przepływowych.

Jak można opisać w skrócie technologię Organ-on-a-chip?

Organ-on-a-chip to nowoczesna technologia w dziedzinie bioinżynierii, która umożliwia modelowanie ludzkich organów na mikro skalowanych urządzeniach chipowych. Te niewielkie chipy są zaprojektowane tak, aby naśladować złożoną strukturę i funkcje rzeczywistych organów ludzkich, takich jak serce, płuca, wątroba czy nerki. Są one wykorzystywane głównie do badań biomedycznych, w tym do testowania leków i badania chorób.

Systemy Organ-on-a-chip są wytworzone z biomateriałów, w których znajdują się różnego rodzaju mikrokomory, mikrokanały, w których hodujemy modele komórkowe. Celem jest stworzenie modeli w taki sposób, żeby jak najbardziej odwzorowywały zachowania in vivo, czyli zachowania występujące w organizmie ludzkim. Następnie generujemy w nich warunki przepływowe, czyli takie, które mamy w naszym organizmie.

Dzięki wykorzystaniu technologii Organ-on-a-chip możemy stworzyć każdy stan patologiczny ludzkiego organizmu, i nowotwory, i cukrzycę, choroby sercowe, mózgowe, wątrobowe. Wydaje mi się, że dziś możemy w naszym laboratorium wytworzyć większość stanów chorobowych, jakie znamy.

Czym różni się ona od do tej pory wykorzystywanych narzędzi?

Do tej pory standardowe badania in vitro prowadzone są na hodowlach komórkowych w postaci monowarstwy, czyli komórek płasko rozmieszczonych na płytkach plastikowych. Z taką metodą mamy do czynienia od wieków, jest ona stosowana w większości laboratoriów biologicznych i farmaceutycznych u nas w Polsce. Modele tego typu nie odwzorowują jednak złożoności ludzkiego organizmu. Dlatego złotym standardem są badania prowadzone z udziałem zwierząt. Jednak w tym przypadku pojawiają się problemy różnic fizjologicznych pomiędzy zwierzętami a ludźmi, jak również obawy etyczne. Projektowane i wytwarzane przez nas urządzenia mogłoby z sukcesem zastąpić te badania. W wielu publikacjach naukowych, nie tylko polskich, ale i światowych pokazano, że systemy Organ-on-a-chip dają bardziej wiarygodne wyniki niż modele zwierzęce w przełożeniu na dalsze badania kliniczne prowadzone na ludziach.

W jakim celu wykorzystuje się taką technologię?

Obecnie wszelakie badania biologiczne czy wprowadzania różnego rodzaju substancji terapeutycznych na rynek farmaceutyczny, czy w ogóle jakichkolwiek nowych związków jest prowadzone początkowo na badaniach komórkowych, czyli na hodowlach in vitro, potem przechodzimy przez modele zwierzęce i na końcu są badania kliniczne, które są prowadzone już na ludziach. 

Modele typowo komórkowe mają swoje wady, ponieważ w zupełności nie odwzorowują naszych organizmów ludzkich, są zbytnim ich uproszczeniem. Z kolei modele zwierzęce są żywe, ale oczywiście jest to inny organizm niż organizm ludzki. W tym momencie pojawia się Organ-on-a-chip — połączenie modeli zbudowanych z ludzkich komórek różnego typu, hodowanych w trójwymiarze, o odpowiednim przeskalowaniu w stosunku do ludzkiego organizmu z hodowlą przepływową – imitującą przepływ krwi i limfy, czyli technologii umożliwiającej odwzorowanie ludzkiej fizjologii na wysokim poziomie. Z wykorzystaniem właśnie tych modeli prowadzimy różnego rodzaju badania substancji toksykologicznych, czy nowych leków, ale również odwzorowujemy różne stany patologiczne organów w celu zrozumienia ich mechanizmu i etiologii.

Czym Pani zajmuje się w projekcie tworzonym w katedrze Biotechnologii Medycznej Politechniki Warszawskiej?

Ja głównie zajmuję się projektowaniem tego typu urządzeń, optymalizowaniem wytwarzania w nich różnego rodzaju modeli organowych takich jak wątroba, mózg, nowotwory, a także optymalizowania metody generowania w nich warunków przepływowych. Dodatkowo z wykorzystaniem tych narzędzi prowadzę badania oceny skuteczności działania różnego rodzaju środków terapeutycznych – terapii leczniczych. Ostatecznie moja praca polega także na zbieraniu danych i ich analizie, jak również przekształcaniu tych danych na rzeczywisty wynik.

Jakiego typu dane są zbierane podczas korzystania z Organ-on-a-chip ?

Warto przede wszystkim zauważyć, że to nie są urządzenia, które same zbierają dane czy też badają jakąś próbkę ludzką. Należy pamiętać, że wykorzystując Organ-on-a-chip staramy się odwzorować organ ludzki, który wprowadzamy w jakiś stan patologiczny. To może być nowotwór lub choroby takie jak cukrzyca czy marskość wątroby. Następnie podajemy temu modelowi standardowo wykorzystywane leki w danej chorobie i sprawdzamy poprzez różnorodne sposoby analizy, czy ten organ zmienia się pod kątem morfologicznym i biochemicznym. Analizujemy, czy różnego rodzaju czynniki biologiczne, biochemiczne, które on wydziela — powinien wydzielać, czy i kiedy zachodzi leczenie tego organu bądź dalsze jego uszkodzenie.

Jak wygląda zbieranie takich danych na konkretnym przykładzie?

Załóżmy, że badamy zmianę aktywności metabolicznej komórek budujących wybrany organ. Codziennie badamy tę aktywność metaboliczną, z wykorzystaniem standardowo dostępnych metod bioanalitycznych, a naszym wynikiem jaki otrzymujemy jest np. intensywność fluorescencji. Mając dwa modele, dokonujemy analizy porównawczej. Jedno z urządzeń to standardowa hodowla, gdzie cały czas ten model jest rozwijany, podawane są składniki odżywcze, tworzymy tzw. zdrowy stan takiego modelu. Obok mamy identyczny model, ale bądź wprowadzamy go w stan patologiczny, bądź podajemy mu wybrane związki, których działanie chcemy ocenić np. konkretne leki. 

Następnie w obu modelach sprawdzamy aktywność metaboliczną komórek, po tych dwóch tygodniach. Na koniec zbieramy te dane i porównujemy między sobą z każdego dnia. Dzięki temu możemy sprawdzić, o ile procent aktywność metaboliczna komórek zmieniała się w stosunku do bazowego modelu tzw. kontroli. Takich badań przeprowadzamy dziesiątki, zbieramy te dane w tabele, uśredniamy, prowadzimy analizę statystyczną i ostatecznie uzyskujemy odpowiedź. 

Z pewnością pozyskanych w ten sposób danych są ogromne ilości. Z jakich narzędzi korzystacie, aby móc je we właściwy sposób zebrać, skatalogować?

Tak, to prawda. Podany przeze mnie przykład to tylko jeden z możliwych mierzonych parametrów. Takich parametrów w trakcie pojedynczej hodowli/eksperymentów jest niekiedy 4-6 jednocześnie. Dodatkowo każdy z eksperymentów jest powtarzany minimum 3 krotnie. Zebrane dane grupujemy i analizujemy z wykorzystaniem gotowych programów.

Warto dodać, że poprzez zbieranie danych i tworzenie ich kartotek jesteśmy w stanie powiedzieć, w jakim momencie następuje rozwój choroby, w jakim momencie lek zaczął działać. Dodatkowo jesteśmy w stanie wyciągnąć informację, kiedy np. w przypadku nowotworu rozpoczyna się proces przerzutowania i jakie czynniki na ten proces mają wpływ. Ponadto, poprzez tworzenie połączeń pomiędzy kilkoma organami jesteśmy w stanie wskazać w przypadku przerzutu nowotworowego organ, w którym ten przerzut się pojawi. Z wykorzystaniem technologii Organ-on-a-Chip i zebranych z jej wykorzystaniem baz danych możemy przewidywać, kiedy dany organ wchodzi w konkretny stan patologiczny, a kiedy z niego wychodzi, kiedy następują konkretne zmiany, które badając bezpośrednio w organizmie, nie jesteśmy w stanie stwierdzić.

Czy dane z poszczególnych kartotek można łączyć, tworzyć dzięki temu modele rzadkich chorób?

Tak. Skatalogowane i zebrane dane mogę przynieść nam wiele ważnych i interesujących informacji. Oceniając zmiany wybranych, różnych parametrów jak np. żywotność, zmiany aktywności metabolicznej, ekspresję konkretnych genów czy zmiany stężeń wybranych cytokin, katalogując je a następnie grupując, jesteśmy w stanie wytworzyć tak zwany „odcisk palca”. Oznacza to, że możemy stworzyć charakterystykę danej choroby. Krótko mówiąc możemy stwierdzić, że gdy rozpoczyna się, wspominany wyżej przerzut nowotworowy nasz model wydziela X ilość cytokiny A, jego aktywność metaboliczna jest na poziomie Y, ekspresja genu Z jest na poziomie B.

Czy te dane są zbierane przez jakieś zewnętrzne urządzenia, sensory?

Tak i nie. Analiza modeli Organ-on-a-chip opiera się w największym stopniu na analizie mikroskopowej. Jednak inne parametry wspomniane wyżej jak analiza ekspresji genów czy analiza ilości wybranych cytokin (markerów charakterystycznych dla danego organu/choroby), są oceniane z wykorzystaniem zewnętrznych technik jak RT-PCR, cytometria przepływowa, spektroskopia. Dane generowane są w postaci wyników ilościowych i katalogowane bezpośrednio przez badacza. Oczywiście w urządzeniach Organ-on-a-Chip można zastosować wewnętrzne sensory, zintegrowane w takim urządzeniu. Takie prace są już prezentowane w literaturze zagranicznej, jednak w dalszym ciągu wyniki otrzymane z ich wykorzystaniem nie dają aż tak wiarygodnego odzwierciedlenia jak standardowe metody. Natomiast, ten rodzaj badań jest rozwijany i myślę, że w przeciągu kilku lat będzie to standard w dziedzinie -on-Chip.

Jakie informacje można pozyskać podczas analizy?

Tworząc w tym narzędziu model w stanie patologicznym np. nowotwór, mogę sprawdzić, jak ten nowotwór się zachowuje. Podając odpowiednie czynniki, sprawdzam, czy rośnie, czy zaczynają się przerzuty. Jednocześnie mogę podawać różnego rodzaju leki i sprawdzać ich skuteczność. Także obserwować efekty stężenia leku, częstotliwość jego podania. Tym samym wprowadzam do takiego systemu mnóstwo zmiennych i nie muszę tego badać bezpośrednio na człowieku. Mogę to zrobić poza organizmem, w oddzielnym urządzeniu bez jakiejkolwiek szkody ani dla człowieka, ani dla zwierząt. Warto w tym miejscu zaznaczyć, że jedną z głównych idei wykorzystywania technologii Organ-on-a-chip jest minimalizowanie badań na zwierzętach. 

Z jakich metod analitycznych korzystacie?

Jeśli chodzi o zbierane dane, to materiał biologiczny jest o tyle różnorodny, że możemy prowadzić różnego rodzaju analizy. Najprostszą z nich jest analiza mikroskopowa – mikroskopia fluorescencyjna czy elektronowa. Tu daną będzie zdjęcie, które zrobimy. Na jego podstawie można wychwycić bardzo dużo informacji, co do budowy morfologicznej np. wspomnianego przeze mnie nowotworu. Możemy też sprawdzać żywotność komórek danego modelu. W tym celu możemy wybarwić dany model odpowiednimi barwnikami fluorescencyjnymi i ocenić ich intensywność z wykorzystaniem mikroskopii konfokalnej czy też wykonać bezpośredni pomiar z wykorzystaniem spektrofluorymetrów. W badaniach wykorzystujemy również takie techniki analizy jak impedancję, spektrofluorymetrię, RT-PCR czy cytometrię przepływową. Ponadto, możemy wykorzystywać podstawowe techniki bioanalityczne jak np. elektroforeza, Western-Blot czy HPLC-MS. Wszystko zależy od tego co chcemy badać, zmianę jakiego parametru oceniać.

Czy w ramach swojej pracy wykorzystujecie państwo narzędzia data science, sztuczną inteligencję?

Dotychczas bezpośrednio nie wykorzystywaliśmy metod analitycznych z obszaru data science, w tym AI. Jednak podejmowaliśmy próby budowy modelu Organ-on-a-chip z wykorzystaniem modelowania komputerowego, przy współpracy z naukowcami z Politechniki Warszawskiej. Na tą chwilę te działania zostały zawieszone. 

Z czego to wynikało? Czy tego typu technologie są wyzwaniem w pracy nad narzędziami typu organ-on-a-chip?

Myślę, że ogólnie badania biologiczne nie są proste do modelowania matematycznego/cyfrowego. W badaniach tych istnieje tyle czynników i zmiennych, które mają bardzo istotny wpływ na całość eksperymentu, że ich uwzględnienie w tego typu modelu nie jest proste. Jednak pojawia się coraz więcej prób wdrożenia rozwiązań cyfrowych w proces badań biologicznych.  

A czy widzi Pani szansę wykorzystania metod z obszaru data science w przyszłości?

Uważam osobiście, że mają one sens i warto nadal próbować. Jednak do tego potrzebna jest ścisła współpraca naukowców z różnych dziedzin.

Jak taka technologia może wesprzeć badania nad zdrowiem ludzkim?

Najlepszym przełożeniem na organizm ludzki byłoby wykorzystanie komórek biopsyjnych z pacjenta i wyhodowanie ich w naszym narzędziu. To tzw. badania spersonalizowane. Wtedy można byłoby sprawdzić każdy lek, przed podaniem pacjentowi, nie ingerując bezpośrednio w jego organizm. Oczywiście na to potrzeba wiele zgód etycznych i współpracy środowiska lekarskiego.

Na Zachodzie firmy farmaceutyczne same zgłaszają się do biotechnologów, aby za pomocą technologii Organ-on-a-chip tworzyć choroby i badać, z wykorzystaniem tych modeli skuteczność leków. W Polsce to nadal takie laboratoria jak nasze muszą wychodzić z podobnymi propozycjami do biologów, lekarzy czy do grup zajmujących się badaniami leków i szukać zainteresowanych współpracą osób i grup badawczych. Jednak powoli zaczyna się to zmieniać i miejmy nadzieję, że w niedługim czasie badania z wykorzystaniem technologii Organ-on-a-Chip staną się powszechniejszym rodzajem badań in vitro, nie tylko na świecie, ale zwłaszcza w Polsce.

Automatyzacja zadań, analizowanie procesów i optymalizacja kosztów. Wreszcie przewidywanie ryzyka oraz wykrywanie anomalii i potencjalnych zagrożeń, np. ataków cyberprzestępców. To tylko kilka obszarów, w których biznes może wykorzystywać generatywną AI. Jak zastosowanie GAI wpłynie na funkcjonowanie przedsiębiorstw i gdzie czekają zagrożenia?

Wystarczyło kilkanaście miesięcy, żeby Generatywna Sztuczna Inteligencja (GAI) podbiła świat. Dla większości użytkowników, pierwszym kontaktem z takimi narzędziami była premiera ChatGPT w listopadzie 2022 r. Od tej pory niemal wszystkie największe firmy technologiczne opublikowały własne modele GAI. A wyścig zbrojeń między ich twórcami sprawił, że ich możliwości rosną z miesiąca na miesiąc.

Ta rewolucja była jednak skutkiem bardzo długiego procesu badawczego, którego korzenie sięgają nawet… XVII w. Za początek badań nad podstawami sztucznej inteligencji można uznać prace matematyków takich, jak Gottfried Leibniz czy George Boole, którzy opracowali “mechaniczne” metody logicznego rozumowania, stosowane dziś w sztucznie inteligentnych systemach. W 1950 roku legendarny brytyjski matematyk Alan Turing opublikował pracę „Computing Machinery and Intelligence”, w której jako pierwszy stwierdził jasno, że cyfrowe komputery mogą “myśleć”. Położył w ten sposób fundament pod współczesną AI.

Już w latach 60. XX w. powstały pierwsze systemy rozpoznawania obrazu i mowy czy pierwsze czatboty, które można uznać za dalekich przodków dzisiejszych systemów GAI. Dalszy rozwój AI napotkał jednak przeszkodę. Aby działać efektywnie, takie systemy wymagają ogromnej ilości danych i mocy obliczeniowej. Mimo że w kolejnych dekadach dokonano postępów w dziedzinach takich, jak sieci semantyczne, ontologia czy rekurencyjne sieci neuronowe, “Zima AI” trwała, z krótkimi przerwami, do początku XXI. Zakończył ją dopiero gwałtowny rozwój Internetu, oferujący algorytmom ogromną ilość danych do analizy, a przede wszystkim szybki wzrost mocy obliczeniowej komputerów.

Badacze zastosowali też nowatorskie podejścia do problemu. Jednym z nich są tak zwane “Generatywne Sieci Antagonistyczne” (GAN). To model, opracowany w 2014 r. przez Iana Goodfellowa opierający się na dwóch, stale rywalizujących ze sobą sieciach neuronowych, z których jedna stara się generować realistyczne obrazy, a druga odróżniać je od prawdziwych. Dzięki tej rywalizacji, system generuje coraz bardziej realistyczne dane. Innym przełomowym rozwiązaniem okazały się tzw. transformatory. To sieci zdolne do “samo-uwagi”, czyli oceny relatywnej wagi poszczególnych danych. Pozwalają one na przetwarzanie języka naturalnego, ułatwiając tłumaczenie maszynowe, generowanie tekstu czy tworzenie odpowiedzi na pytania.

Skutkiem tych przełomów było powstanie pierwszych systemów dostępnych dla każdego użytkownika. ChatGPT, pierwszy powszechnie dostępny wielki model językowy (LLM) firmy OpenAI, w ciągu kilku dni od premiery w listopadzie 2022 r. wykorzystywało już milion użytkowników. W ciągu dwóch miesięcy było ich już 100 milionów.

GAI w służbie biznesowi

Generatywna AI szybko znalazła zastosowania w biznesie. GAI pozwala usprawnić aplikacje biznesowe poprzez automatyzację zadań, uczenie się zachowań użytkowników czy analizę danych. Umożliwia automatyczne generowanie raportów, przewidywanie trendów czy wykrywanie anomalii.

To wszystko istotnie wpływa na efektywność pracy. Opublikowane w ubiegłym roku badania Sloan School of Management Massachusetts Instutite of Technology wykazało, że pracownicy call center korzystający z opartego na wielkim modelu językowym “asystenta” zwiększyli swoją produktywność średnio o 14 proc. Co ważne, największy wzrost produktywności dotyczył pracowników najmniej doświadczonych. Jak stwierdzili autorzy badania, “technologia ta sprawiła, że pracownicy podwyższyli swoje kwalifikacje, a nie zostali zastąpieni”.

W praktyce, narzędzia GAI mogą zwiększać efektywność pracy na kilka sposobów. Mogą np. ułatwiać gromadzenie wielu źródeł danych w jednej aplikacji. Pozwalają automatyzować proces tworzenia notatek z dokumentów tekstowych, asystować w tworzeniu raportów i prezentacji, mogą wreszcie tworzyć transkrypty i podsumowania spotkań online, co znacząco usprawnia komunikację wewnątrz organizacji.

To jednak zaledwie najbardziej podstawowy sposób wykorzystania tych narzędzi w biznesie. W sektorze zdrowotnym, narzędzia GAI mogą być używane do wsparcia diagnoz pacjentów (np. do analizy badań radiologicznych), układania spersonalizowanych planów leczenia czy projektowania nowatorskich leków. Narzędzia takie, jak GitHub Copilot usprawniają także proces tworzenia oprogramowania. Inteligentny “asystent” pomaga programistom tworzyć, analizować i testować kod, skracając czas trwania procesu i poprawiając jakość gotowego produktu. Wyspecjalizowane modele GAI mogą służyć do analiz scenariuszy, przewidywania ryzyka i modelowania strategii. Przemysł może wykorzystywać je do optymalizacji procesów, ciągów logistycznych czy zużycia energii. Handel – do analizy zachowań i potrzeb kupujących oraz alokacji zasobów.

Bezpieczeństwo, siła i zagrożenia GAI

Szczególnie istotną rolę generatywne modele AI mogą odegrać w finansach i bankowości. W branżach w znacznym stopniu narażonych na działania przestępców, inteligentne narzędzia mogą być wykorzystywane do uczenia się wzorców i wykrywania anomalii. Przykładem wykorzystania GAI w praktyce biznesowej jest zaawansowana analityka i sztuczna inteligencja SAS, która ułatwia wykrywanie oszustw finansowych w czasie rzeczywistym. Techniki uczenia maszynowego identyfikują potencjalnie ryzykowne zjawiska, szybko je analizują i interweniują. Rozwiązania SAS, wprowadzone we włoskim Poste Italiane pozwoliły np. drastycznie zmniejszyć liczbę fałszywych alarmów i zwiększyć zdolność instytucji do radzenia sobie z nietypowymi płatnościami.

To ważne, bo narzędzia GAI są także stosowane przez przestępców. Generatywna sztuczna inteligencja jest wykorzystywana do generowania przekonujących wiadomości phishingowych czy nagrań deepfake, które mogą być stosowane przez przestępców do wyłudzeń i innych oszustw. Obrona przed takimi zagrożeniami wymaga zastosowania zaawansowanych rozwiązań, które ułatwiają wykrywanie potencjalnych ataków cyberprzestępców i ochronę organizacji przed ich konsekwencjami.

Stosowanie narzędzi generatywnej sztucznej inteligencji wiąże się jednocześnie z wyzwaniami, z których powinny sobie zdawać sprawę organizacje i ich pracownicy. Jednym z najlepiej znanych z nich jest problem “halucynacji”, występujący w wielkich modelach językowych. Polega on na tym, że LLM dostrzega w danych pozorne wzorce, na podstawie których produkuje błędne odpowiedzi. To z kolei może prowadzić do podejmowania złych decyzji biznesowych, a w rezultacie utraty zaufania klientów. Badania firmy Vectara wskazują, że w zależności od zastosowanego modelu, publicznie dostępne LLM „halucynują” przy od 3 do 27 proc. odpowiedzi generowanych przez system.

Przyczyna tego zjawiska może leżeć w nietypowym zapytaniu użytkownika, ale często u podstaw halucynacji leżą problemy z danymi, na których wyszkolony został system. W jaki sposób ograniczyć wiążące się z halucynacjami zagrożenia? Poprzez szkolenie systemów AI na wysokiej jakości, reprezentatywnych i dobrze oznakowanych zestawach danych, regularne testowanie oraz walidację modeli i ustalenie ograniczeń, które zapobiegają generowaniu nierealistycznych wyników. W kluczowych zastosowaniach istotne jest także tworzenie hybrydowych systemów decyzyjnych, w których AI działa z ludzkim nadzorem, pozwalającym wykrywać i korygować błędy.

Niedostatecznie zabezpieczone i przetestowane modele generatywnej sztucznej inteligencji mogą również być narażone na ataki z zewnątrz, w ramach których napastnicy wykorzystują luki w oprogramowaniu do zmuszenia modelu do wykonywania szkodliwych działań, np. ujawniania poufnych danych. Tutaj także kluczową metodą zabezpieczenia się przed negatywnymi konsekwencjami jest dokładna weryfikacja, monitorowanie działania modelu i wprowadzanie ograniczeń, które blokują potencjalnie niebezpieczne działania.

Nie zapominajmy o etyce

Stosowanie GAI wiąże się także z wyzwaniami etyczno – prawnymi. Wyszkolone na ograniczonych, niereprezentatywnych zestawach danych modele mogą, zamiast podejmować racjonalne decyzje, wzmacniać jedynie istniejące w danej organizacji tendencje. W 2018 r. Amazon zrezygnował z systemu wykorzystującego AI w procesie rekrutacji nowych pracowników, gdy wyszło na jaw, że model wytrenowany na zestawie danych dotychczasowych kandydatów do pracy, dyskryminował kobiety, które wcześniej stanowiły zdecydowaną mniejszość aplikantów.

Innym problemem są potencjalne naruszenia praw autorskich dokonywane przez takie systemy. To istotny problem, bo większość publicznie dostępnych modeli GAI jest szkolona na ogromnych ilościach danych pobranych z Internetu. Wiąże się to z ryzykiem nieumyślnego naruszenia praw intelektualnych oryginalnych autorów treści, obrazów czy kodu komputerowego. Sposobem na ograniczenie ryzyka jest stosowanie wyspecjalizowanych modeli, szkolonych na dobrze dobranych zestawach danych pozbawionych ryzyka prawnego.

Rozwój rynku narzędzi GAI

Nic nie wskazuje na to, by wyzwania związane z zagrożeniami stanowiły problem nie do przezwyciężenia. Analiza Bloomberg Intelligence pokazuje, że rynek modeli generatywnej sztucznej inteligencji w najbliższych latach czeka ekstremalnie szybki rozwój. Analitycy prognozują, że rynek narzędzi GAI, w 2022 r. wart 40 mld dol., do 2032 roku ma osiągnąć wartość 1,3 bln dolarów. Firma consultingowa McKinsey szacuje, że wykorzystanie generatywnej AI w 63 zastosowaniach biznesowych może przynieść globalnej gospodarce zyski rzędu 2,6 do 4,4 bln dolarów rocznie. Jedną z przyczyn jest fakt, że narzędzia GAI są w stanie zautomatyzować działania, które dziś absorbują 60-70 proc. czasu pracowników.

Nie ma w zasadzie branży, na której generatywna sztuczna inteligencja nie odciśnie w najbliższych latach swojego wpływu. Coraz powszechniejsze jest stosowanie narzędzi wizji komputerowej, wspomagających lekarzy, odpowiadających za bezpieczeństwo autonomicznych pojazdów czy monitorujących stan linii produkcyjnych w fabrykach.

Firma analityczna Gartner przewiduje, że w 2024 r. 40 proc. wszystkich aplikacji biznesowych będzie zawierać “konwersacyjną sztuczną inteligencję”, do 2025 r. 30 proc. firm wprowadzi strategię rozwoju wspieranego przez AI, a do 2026 r. generatywna sztuczna inteligencja zautomatyzuje 60 proc. pracy związanej z projektowaniem stron internetowych czy aplikacji. Aż 15 proc. nowych aplikacji ma być automatycznie generowanych przez AI bez udziału człowieka. W tym samym roku aż 100 mln pracowników ma współpracować ze sztuczną inteligencją.

Oznacza to gwałtowny wzrost efektywności pracowników, spadek kosztów i możliwość dynamicznego reagowania na zmieniające się warunki. Najpierw jednak i firmy, i pracownicy muszą nauczyć się skutecznie wykorzystywać możliwości oferowane przez te nowe narzędzia. Jednocześnie pamiętając, że choć generatywna sztuczna inteligencja posiada szerokie umiejętności, nie jest w stanie wykonywać wszystkich zadań.

– Doskonale wiem, że sztuczna inteligencja może być ogromną szansą na postęp, rozwinięcie działalności czy zdobycie przewagi konkurencyjnej. Jednak wiem też dobrze, że jest to tylko technologia, a wszystko zależy od sposobu jej wdrożenia i wykorzystania przez ludzi – przyznaje Hana Kvartová, dyrektor regionu Europa Centralna w SAS.

Hana Kvartová od ponad 10 lat zajmuje najwyższe stanowiska kierownicze na poziomie lokalnym i regionalnym w SAS. Od stycznia 2020 roku jest Dyrektorką Regionalną SAS na Europę Centralną, a wcześniej przez blisko 7 lat była Country Leaderem na Słowacji oraz w Czechach. Posiada rozległe doświadczenie w kierowaniu zróżnicowanymi, międzynarodowymi zespołami oraz wiedzę w zakresie sprzedaży, doradztwa biznesowego, planowania strategicznego, zarządzania operacjami i komunikacji. Dzisiaj opowiada nam o szansach i zagrożeniach związanych z coraz powszechniejszym wykorzystaniem sztucznej inteligencji w biznesie i innych obszarach naszego życia.

Skrócona angielska nazwa sztucznej inteligencji – AI – została uznana za Słowo Roku 2023 przez wydawcę słownika Collinsa. Czy AI nadal będzie topowym tematem w 2024 roku?

Rzeczywiście nie trzeba być wysokiej klasy ekspertem, ściśle śledzącym technologiczne trendy rynkowe, by orientować się, jaki temat najsilniej rezonuje dziś nie tylko wśród specjalistów z branży IT, ale także znacznie szerzej, pośród przedstawicieli biznesu czy generalnie w społeczeństwach. Jest nim oczywiście sztuczna inteligencja i jej szerokie zastosowanie w gospodarce, w sektorze publicznym, w ochronie zdrowia i wielu innych obszarach naszego życia. U jednych wzbudza on duże nadzieje, u innych obawy, niemniej jest tym, na czym dziś wszyscy skupiamy swoją uwagę i będziemy się zajmować w tym roku.

Jakie powinno być zatem podejście do tego zagadnienia?

Spokojne i wyważone. Doskonale wiem, że jak każda technologia, także sztuczna inteligencja może być ogromną szansą na postęp, rozwinięcie działalności czy zdobycie przewagi konkurencyjnej. Jednak wiem też dobrze, że jest to tylko technologia, a wszystko zależy od sposobu jej wdrożenia i wykorzystania przez ludzi.

Jeszcze kilka lat temu o cyfryzacji mówiliśmy, że nie polega ona jedynie na wdrożeniu odpowiednich rozwiązań, ale jest procesem, który należy zacząć od modyfikacji kultury organizacji tak, by cyfrowa tożsamość stała się jej częścią. Dokładnie to samo dotyczy sztucznej inteligencji. Tak naprawdę nie jest ona samodzielną technologią, która przynosi korzyści sama z siebie. By tak się stało, musi zostać osadzona w strategii organizacji, która zamierza ją wykorzystać.

Nie wystarczy więc po prostu podpiąć model AI pod firmowe systemy, by miał dostęp do danych, i zlecić mu wykonywanie zadań? Oczywiście spłycam to zagadnienie tak postawionym pytaniem, ale chciałbym tu zapytać o wyzwania, które wiążą się z wykorzystaniem AI w różnych organizacjach.

Zdecydowanie nie wystarczy! Po pierwsze musimy wiedzieć, co ta sztuczna inteligencja ma dla nas robić, czego od niej oczekujemy. Kiedy już to określimy, musimy wytrenować dany model na wybranych, reprezentatywnych danych tak, by jego działania były zgodne z naszymi oczekiwaniami. Tu zaś dotykamy istotnej kwestii, czyli jakości danych gromadzonych i przetwarzanych w organizacji. Bez doskonałego zarządzania nimi i zapewnienia ich wysokiej jakości, AI nie odniesie sukcesu w żadnej firmie, bo wyniki jej działań wprost zależą od tego, na jakich danych model został wytrenowany i jakie informacje są mu następnie dostarczane do przetwarzania. Jeśli model AI zostanie wytrenowany na tendencyjnych danych, wyniki jego pracy mogą okazać się mocno chybione.

Wyobraźmy sobie, że chcemy powierzyć sztucznej inteligencji opracowywanie spersonalizowanych planów leczenia pacjentów. Model wytrenowany na tendencyjnych danych może zlecać różne rodzaje leczenia tej samej choroby w tym samym stadium w zależności od płci, statusu ekonomicznego czy rasy pacjenta. Może więc okazać się rasistowski, seksistowski lub stosować tzw. ageizm, a w efekcie jego zalecenia będą szkodliwe dla pacjentów. W branży finansowej z kolei wytrenowany na nieodpowiedniej jakości danych model AI, któremu powierzymy np. ocenę zdolności kredytowej klientów, może mocno zachwiać kondycją finansową firmy, jeśli zacznie przyznawać pożyczki osobom, które nie będą w stanie spłacić zaciągniętych zobowiązań. Chcąc uniknąć tego typu sytuacji musimy zadbać o jakość danych.

Co więcej, w obu przedstawionych przeze mnie przykładach generatywna AI wykorzystuje dane wrażliwe. Ważne jest zatem zapewnienie i przestrzeganie odpowiednich regulacji i etycznych ram prawnych dla stosowania AI, aby uniknąć nadużyć oraz zapewnienie prywatności i bezpieczeństwa danych. Ponadto niezbędna jest edukacja i odpowiednie przygotowanie pracowników do pracy z nowymi technologiami.

Sporo tych wyzwań. Niemniej widzimy, że coraz więcej instytucji, firm, jednostek badawczych itd. prowadzi działania zmierzające do opracowania i wdrożenia różnorodnych modeli sztucznej inteligencji, przeznaczonej do wielu zadań. Co ich do tego skłania?

Mówiąc najprościej: korzyści i przewagi konkurencyjne. Weźmy pod lupę na przykład branżę retail. Wykorzystanie sztucznej inteligencji może wzmocnić odpowiedzialny marketing, pozwalając na prawdziwą personalizację działań sprzedażowych oraz oferty, którą będzie można w pełni dostosować do preferencji klienta. AI, śledząc łańcuchy dostaw, pozwoli także na skrócenie czasu dostaw produktów do nabywców.

Technologie sztucznej inteligencji znajdą zastosowanie również w branży ubezpieczeń. Dzięki nim ubezpieczyciele będą mogli wprowadzić dynamiczną wycenę składek i ocenę ryzyka. Pomogą im one także zautomatyzować i usprawnić przetwarzanie roszczeń, wykrywanie oszustw i nadużyć, obsługę klienta itd. Sektorowi bankowemu poprzez wykorzystanie AI łatwiej będzie np. przeciwdziałać praniu brudnych pieniędzy, a proces ten ponadto ulegnie optymalizacji kosztowej.

W ochronie zdrowia sztuczna inteligencja pozwoli posługiwać się awatarami pacjentów do prowadzenia badań klinicznych i wdrażania indywidualnych planów leczenia. Sięgnie po nią także sektor publiczny, by zwiększyć produktywność, zautomatyzować proste zadania i ograniczyć skutki niedoboru wykwalifikowanych pracowników, którzy coraz rzadziej wybierają karierę w tym obszarze. Sektor ten będzie się jednocześnie mierzył z wyzwaniem zwiększenia bezpieczeństwa w zakresie coraz bardziej powszechnych cyfrowych usług publicznych i tożsamości cyfrowej.

Wreszcie branża produkcyjna, gdzie AI jest nieodzownym elementem inteligentnych fabryk. Wg raportu Society of Manufacturing Engineers z 2022 r. zastosowanie w nich tzw. konserwacji predykcyjnej opartej o sztuczną inteligencję i uczenie maszynowe może zmniejszyć liczbę nieoczekiwanych awarii aż o 90 proc. To zaś przekłada się na wymierną korzyść finansową – zarówno poprzez zmniejszenie liczby kosztownych napraw, jak i w efekcie ograniczenia przestojów generujących straty.

To wszystko brzmi zarówno fascynująco, jak i niepokojąco. Bo z jednej strony korzyści są oczywiste: AI się nie zmęczy, dobrze wytrenowana nie popełni błędów, wyniki jej pracy będą w pełni powtarzalne i uzasadnione. Jednak wychodzi na to, że człowiek przestaje być potrzebny.

Zdecydowanie jestem przeciwna stwierdzeniu, że AI zabierze nam pracę. Nie zabrała jej maszyna parowa podczas pierwszej rewolucji przemysłowej, nie zabrały komputery, teraz też nie musimy się tego obawiać. Oczywiście na rynku pracy nastąpi zmiana – już dziś ją obserwujemy. Wchodzimy w etap powstawania zupełnie nowych zawodów i specjalizacji, a równocześnie obserwujemy, jak AI zastępuje pracowników w czynnościach powtarzalnych, nie wymagających kreatywności. To oczywiście, jak każda zmiana, budzi obawy. Jednak wiem dobrze, że w powyższym obszarze powstanie także wiele nowych miejsc pracy.

Ale z „wymieraniem” zawodów i powstawaniem innych będziemy mieli do czynienia chyba głównie w tych organizacjach, w których sztuczna inteligencja zostanie wdrożona? Tam, gdzie się ona nie pojawi, chyba nie ma się czym przejmować?

Tylko że organizacji, do których nie zostanie wprowadzona sztuczna inteligencja, będzie z roku na rok coraz mniej. Musimy się tu spodziewać efektu śnieżnej kuli. Eksperci od technologii informatycznych dobrze znają zjawisko shadow IT, które polega na używaniu przez pracowników na firmowym sprzęcie oprogramowania, które nie zostało oficjalnie zaimplementowane w organizacji. Dziś ci sami specjaliści zgłaszają zjawisko shadow AI, polegające na wykorzystywaniu w firmach modeli AI, które nie są w nich oficjalnie wdrożone. Źródłem tych zjawisk jest m.in. naturalna chęć każdego z nas do wykonywania swych zadań w sposób jak najprostszy, jak najskuteczniej, przy optymalnym zaangażowaniu środków. A skoro jakieś oprogramowanie czy model AI to oferuje, to pracownik chętnie po niego sięga.

Z drugiej zaś strony wszyscy musimy być gotowi na to, że po AI coraz częściej sięgać będą także cyberprzestępcy, aby dokonać oszustw, wyłudzeń czy włamań do infrastruktury IT. Do ochrony przed nimi trzeba będzie użyć zabezpieczeń także bazujących na modelach AI, co może skutkować swego rodzaju „wyścigiem zbrojeń”. To wszystko razem sprawi zaś, że obszarów nie dotkniętych wpływem algorytmów nie tylko w biznesie, ochronie zdrowia, ale i sektorze publicznym będzie coraz mniej. Każdy z nas coraz częściej w codziennym życiu będzie miał kontakt ze sztuczną inteligencją, a obrona przed nią przypominać będzie walkę z wiatrakami.

Czyli tej zmiany, którą niesie AI, nic już nie zatrzyma?

Obserwując obecną sytuację geopolityczną oraz mając w pamięci to, czego doświadczaliśmy w ostatnich latach, wolałabym, aby nie pojawiły się tego typu przeszkody, ponieważ do głowy przychodzą mi tylko takie czynniki, które mogłyby nas cofnąć w rozwoju o całe dekady lub nawet stulecia. Ale zamiast snuć wizje katastroficzne lepiej pomyśleć o tym, jakie szanse otwiera przed nami sztuczna inteligencja. Może nie tylko usprawnić i przyspieszyć pracę każdego z nas, przynieść przewagi konkurencyjne wielu firmom oraz korzyści ich klientom, ale także doprowadzić do odkryć i innowacji naukowych, na które czeka cały świat. Może poprawić jakość naszego życia, zwiększyć jego komfort i poziom, pozostawiając nam więcej czasu na to, co naprawdę lubimy i co nas interesuje. Sama w sobie jest zaś tylko kolejną technologią – sposób i zakres jej zastosowania zależy tylko od nas.

Artificial intelligence can be a huge opportunity to advance, develop business, or gain a competitive advantage. However, I am also well aware that it is just a technology, and everything depends on how people implement and use it, says Hana Kvartová, director of the Central Europe region at SAS.

Hana Kvartová has held top management positions at SAS’s local and regional levels for over ten years. Since January 2020, she has been SAS Regional Director for Central Europe, and before that, she was the Country Leader in Slovakia and the Czech Republic for nearly seven years. She has extensive experience leading diverse international teams and expertise in sales, business consulting, strategic planning, operations management, and communications. Today, she tells us about the opportunities and risks of the increasingly widespread use of artificial intelligence in business and other areas of our lives.

The abbreviation of Artificial Intelligence (AI) has been named the Word of the Year for 2023 by the Collins Dictionary publisher. Will AI still be a top topic in 2024?

Indeed, one does not have to be a high-level tech expert closely following market trends to know what topic resonates most strongly today, not only among IT professionals but also much more broadly, among business representatives or societies. It is artificial intelligence and its wide application in business, the public sector, health care, and many other areas of our lives. It raises high hopes and fears in some, but it is what we are all focusing on today and will deal with this year.

So, what is your approach to this issue?

Calm and balanced. Like any technology, I know artificial intelligence can be a huge opportunity to advance, grow a business, or gain a competitive advantage. However, I am also well aware that it is only a technology, and everything depends on how people implement and use it.

Just a few years ago, regarding digitization, we said that it is not just about implementing the right solutions but is a process that must start with modifying the organization’s culture so that digital identity becomes part of it. The same applies to artificial intelligence. It is not a standalone technology that brings benefits on its own. For that to happen, it must be embedded in the organization’s strategy that intends to use it.

So, isn’t it enough to hook up an AI model to a company’s systems so it can access data and have it perform tasks? Of course, I’m making it shallow with such a question, but I’d like you to say more about the challenges of using AI in different organizations.

First of all, we need to know what AI is supposed to do for us and what we expect from it. Once we determine this, we need to train the model in question on selected, representative data to align with our expectations. Here, we touch on an important issue – the quality of the data collected and processed in the organization. Without perfect management and ensuring their high quality, AI will not succeed in any company because the results of its activities directly depend on what data the model has been trained on and what information is then provided to it for processing. If an AI model is trained on biased data, the results of its work may be well-matched.

Imagine we want to entrust artificial intelligence to develop personalized patient treatment plans. A model trained on biased data may prescribe different treatments for the same disease at the same stage depending on the patient’s gender, age, economic status, or race. So, it may turn out to be racist, sexist, or apply so-called ageism, and as a result, its recommendations will be harmful to patients. In the financial industry, on the other hand, an AI model trained on inadequate data quality, to which we entrust, for example, the evaluation of a customer’s creditworthiness, can firmly shake the company’s financial condition if it starts granting loans to people who will not be able to repay their debts. To avoid this type of situation, we must consider data quality.

Moreover, in both examples I presented, AI uses sensitive data. It is, therefore, essential to ensure and adhere to an appropriate regulatory and ethical framework for using AI to avoid abuse and ensure data privacy and security. In addition, it is essential to educate and adequately prepare employees to work with new technologies.

A lot of challenges. Nevertheless, we see that more and more institutions, companies, research units, etc., are leading efforts to develop and implement various artificial intelligence models designed for a wide range of tasks. What is driving them to do so?

Simply put, benefits and competitive advantages. Take the retail industry, for example. Artificial intelligence can enhance responsible marketing, allowing true personalization of sales activities and offers that are fully customizable to customer preferences. By tracking supply chains, AI will also enable shorter delivery times for products to buyers.

AI technologies will also find applications in the insurance industry. They will enable insurers to introduce dynamic premium pricing and risk assessment. They will also help them automate and improve claims processing, fraud and abuse detection, customer service, etc. The banking sector, through the use of AI, will find it easier to counter money laundering, for example, and the process will be cost-optimized.

In health care, artificial intelligence will allow the use of patient avatars to conduct clinical trials and implement individualized treatment plans. The public sector will also reach for it to increase productivity, automate simple tasks, and reduce the impact of a shortage of skilled workers increasingly choosing careers in this area. At the same time, the sector will grapple with the challenge of increasing security for increasingly common digital public services and digital identities.

Finally, the manufacturing industry is where AI is an indispensable part of intelligent factories. According to a 2022 report by the Society of Manufacturing Engineers, their use of predictive maintenance based on AI and machine learning can reduce the number of unexpected failures by as much as 90 percent. This, in turn, translates into a measurable financial benefit – both by reducing the number of costly repairs and, as a result, reducing loss-generating downtime.

All that you say sounds both fascinating and disturbing. On the one hand, the benefits are apparent: AI won’t get tired, well-trained AI won’t make mistakes, and the results of its work will be fully reproducible and reasonable. However, it comes out that humans are no longer needed.

I strongly oppose the statement that AI will take away our jobs. The steam engine didn’t take it away during the first industrial revolution; computers didn’t, and we don’t have to fear that now. Of course, there will be a change in the labor market – we are already seeing it. We are entering a stage of the emergence of entirely new professions and specializations. At the same time, AI replaces workers in repetitive activities that do not require creativity. This, of course, like any change, raises concerns. However, I know many new jobs will also be created in the above area.

But with the „extinction” of professions and the emergence of others, we will probably have to deal mainly with those organizations where artificial intelligence will be implemented. Where will it not appear? There is nothing to worry about.

It’s just that the organizations to which artificial intelligence will not be introduced will be fewer and fewer every year. We must expect a snowball effect here. IT experts are familiar with shadow IT, which involves employees using software on company hardware that has yet to be officially implemented in the organization. Today, the same experts report the phenomenon of shadow AI, which involves using AI models in companies that have not been formally implemented. The source of these phenomena is, among other things, the natural desire of each of us to perform our tasks in the simplest, most efficient way possible, with the optimal commitment of resources. And if some software or AI model offers this, the employee is eager to take advantage of it.

On the other hand, we all must be ready that AI will also be increasingly used by cybercriminals looking to commit fraud, phishing, or hacking into IT infrastructure. Security measures also based on AI models will have to be used to protect against them, which may result in an arms race. All this together, in turn, will make areas unaffected by algorithms, not only in business and health care but also in the public sector, increasingly scarce. We will increasingly come into contact with artificial intelligence daily, and defending against it will resemble a tilt at windmills.

So, will this change that AI brings no longer be stopped by anything?

Observing the current geopolitical situation and considering what we have been experiencing in recent years, I prefer not to see such obstacles arise, as I can only think of factors that could set us back in our development by decades or even centuries. But instead of spinning catastrophic visions, it is better to think about what opportunities artificial intelligence offers us. It can improve and speed up everyone’s work, bring competitive advantages to many companies and benefits to their customers, and lead to scientific discoveries and innovations that the world is waiting for. It can improve the quality of our lives, make them more comfortable and more enjoyable, leaving us more time for what we like and what interests us. In turn, it is just another technology – how and to what extent it can be used is up to us.

Udostępnij link

https://www.datasciencerobie.pl/the-state-of-ai-in-2024/