Blog Data Science robię został stworzony po to, aby specjaliści zajmujący się na co dzień danymi, a także zainteresowani pracą w data science i jej entuzjaści, mogli w jednym miejscu znaleźć informacje i ciekawostki na temat najnowszych technologii i ich innowacyjnych zastosowań, sytuacji na rynku pracy, możliwości kształcenia się i rozwoju kompetencji. Na blogu znajdziecie 100 artykułów o różnorodnej tematyce. Wywiady z ekspertami oraz artykuły. W dzisiejszym wpisie przypominamy kilka z tych, które zyskały największą popularność i opisują najbardziej palące zagadnienia, z którymi mierzy się na co dzień zarówno biznes, społeczeństwo, jak i sama branża.


Jeszcze 5 lat temu stanowiska związane z big data, cyberbezpieczeństwem, uczeniem maszynowym czy personalizacją sztucznej inteligencji były uznawane za zawody przyszłości. Dziś wg. raportu LinkedIn, inżynier AI znajduje się wśród 10 najszybciej rozwijających się zawodów w USA. Boom związany z rozwojem sztucznej inteligencji sprawił, że na kierunkach informatycznych polskich uczelni, na jedno miejsce przypada 10 kandydatów. Możemy śmiało powiedzieć, że zainteresowanie zdobywaniem wiedzy i studiami w zakresie uczenia maszynowego i big data obserwujemy również na naszym blogu. To właśnie teksty związane z powyższymi tematami spotkały się z największym zainteresowaniem wśród odbiorców, a są to. 

Rodzaje ML i najpopularniejsze algorytmy. W tym artykule skupiamy się głównie na uczeniu maszynowym, które pomaga rozwiązywać złożone problemy w tak różnych dziedzinach, jak medycyna, bankowość i ubezpieczenia, przemysł czy telekomunikacja. Pokazujemy w nim, że ze względu na różnorodność zagadnień i przypadków, nie istnieje jedno uniwersalne zastosowanie ML, które pomoże rozwiązać dany problem i przedstawiamy kilka narzędzi do wyboru. Przykładem może być uczenie ze wzmocnieniem, które ze wszystkich istniejących technik najbardziej przypomina to, w jaki sposób uczą się ludzie, ponieważ opiera się na metodzie prób i błędów.

Kolejne popularne na blogu artykuły, w których jest bezpośrednio mowa o edukacji  w zakresie data science to Studia big data na polskich uczelniach oraz Studia Analiza Danych i Analityka na polskich uczelniach. Dzisiaj uczelnie w Polsce kształcą studentów na kierunkach takich jak np. Zarządzanie projektami sztucznej inteligencji (Akademia Leona Koźmińskiego), Sztuczna Inteligencja oraz Uczenie maszynowe (Politechnika Gdańska). Politechnika Krakowska  proponuje specjalności związane z AI na kierunkach informatycznych, zaś Politechnika Warszawska oferuje studia podyplomowe MBA AI & Digital Transformation w ramach Szkoły Biznesu. Natomiast jeżeli chodzi o studia w obszarze analizy danych to przykładem może być Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie.

Nie musisz umieć programować, żeby spełnić marzenia o pracy z danymi. To cytat z jednego z najbardziej cenionych artykułów naszego bloga w zakresie edukacji – Mamo, zostałem data scientist. Kim? Danologiem.To właśnie tutaj ukryte są najważniejsze przesłania, które obalają mity dotyczące pracy z danymi. Tak więc, jeżeli wabi Cię praca w data science, to rozpraw się z mitami.

Data Science w biznesie – rozwój firm i bezpieczeństwo danych

Data science odgrywa dziś kluczową rolę w rozwoju firm, wspierając je na wielu płaszczyznach i zapewniając jednocześnie bezpieczeństwo danych. Dzięki ich analizie możliwe jest odkrywanie wzorców i trendów, które mogą być wykorzystane do optymalizacji procesów w przedsiębiorstwie, personalizacji ofert i dopasowania produktów do potrzeb klienta. Data science umożliwia również wykrywanie zagrożeń cybernetycznych oraz ochronę danych osobowych, co wydaje się być kluczowe z punktu widzenia reputacji marek i zaufania klientów.Tematom związanym z bezpieczeństwem i pozytywnym wpływie data science na rozwój firm poświęciliśmy kilka wpisów na blogu, m.in.   

Boty i wirtualni moderatorzy będą zapobiegać cyberprzemocy – to tytuł wywiadu, przeprowadzony ze współtwórcami Samurai Labs, Patrycją Tempską i Gniewoszem Leliwą. Opowiadają w nim o tym jak wykorzystują neuro-symboliczną sztuczną inteligencję do zapobiegania niebezpiecznym zjawiskom, w tym cyberprzemocy w Internecie. Rozwiązania wdrożone przez firmę pozwalają na autonomiczną moderację treści, blokowanie szkodliwych komunikatów zanim dotrą do odbiorcy czy pozytywne modelowanie dyskusji w sieci.  

Do rozmowy o cyberbezpieczeństwie zaprosiliśmy Philipa Kinga, który jest ekspertem w zakresie poufności danych i specjalistą ds. rozwiązań technicznych w Intel Americas.  W wywiadzie pt. Infekowanie danych w modelach AI – nowy niepokojący kierunek cyberataków można dowiedzieć się w jaki sposób zabezpieczyć modele sztucznej inteligencji przed wpływem złośliwych danych — Do trenowania modeli sztucznej inteligencji potrzeba miliardów próbek danych, dlatego celowe wstrzyknięcie do procesu złośliwych informacji może być stosunkowo łatwe. Znaczna część danych wykorzystywanych do szkolenia SI pochodzi bezpośrednio z Internetu, a już niewielka ilość “złych danych” może wypaczyć model. Rezultatem będzie wpływ, który pozostanie niezauważony, dopóki nie stworzy większego problemu — ostrzega Philip King.

Jak firmy mogą wykorzystać data science do rozwoju? O tym piszemy m.in. w artykule pt.

Dzięki analityce kognitywnej szybciej zrozumiesz nawet niepełne dane. To właśnie ta analityka pozwala na porządkowanie, analizę i zrozumienie danych pochodzących z takich źródeł informacji jak, np. e-maile, dokumenty tekstowe, dane z czujników (loT) czy nawet media społecznościowe. Dzięki temu firmy mogą podejmować bardziej świadome decyzje biznesowe i dostosowywać się do potrzeb klientów. 

O tym wjaki sposób analityka danych wpływa na odporność firmy przeczytacie w artykule pod tym samym tytułem.W tekście przywołujemy dane, z których wynika, że aż 97% menedżerów wysokiego szczebla uważa, że wypracowanie odporności biznesowej jest istotnym zadaniem, przed którym stoją ich organizacje. 9 na 10 ankietowanych jest zdania, że analityka danych jest elementem kluczowym w kontekście pomocy w przygotowaniu się na nadchodzące kryzysy. W artykule znajdziecie 5 zasad odporności firmy i poznacie narzędzie, dzięki któremu będziecie mogli sprawdzić czy wasza firma jest odporna.

Data Science od eksploracji danych do zagadnień etycznych

Na blogu Data Science robię pokazujemy różnorodne aspekty data sience. Każdy z nich jest ważny i wart uwagi. Przykładem jest wywiad z dr hab. inż. Tomaszem Trzcińskim, prof. PW z IDEAS NCBR na temat koncepcji zero waste i recykling zasobów, czyli czas na zielone modele uczenia maszynowego. Polega ona na tworzeniu wydajnych modeli, które wykorzystują zasoby i obliczenia w taki sposób, aby minimalizować marnotrawstwo energii, operacji. Uważamy, że to niezwykle potrzebny projekt, bowiem pokazuje, że rozwój technologiczny powinien iść w parze ze zrównoważonym rozwojem. 


Kolejnym istotnym tematem jest etyka sztucznej inteligencji. Jak ważne dziś jest to zagadnienie, pokazuje debata jaka toczy się na poziomie Unii Europejskiej i zatwierdzony, przez Parlament Europejski, akt w sprawie sztucznej inteligencji. O tym jak państwa i organizacje międzynarodowe opracowują zestawy etycznych reguł dla twórców algorytmów AI piszemy w artykule Jak spowodować, żeby sztuczna inteligencja była… etyczna?

Data science to nasza rzeczywistość. Poprzez blog Data Science robię, chcemy ją Wam przybliżać. Opisywać sukcesy i wyzwania jakie stoją przed branżą oraz pokazywać ludzi, którzy ją tworzą. Zapraszamy do śledzenia naszej aktywności i kolejnych wpisów, zarówno tu na blogu jak i profilu LinkedIn.  

– Modele uczenia maszynowego w koncepcji zero waste mają szczególny potencjał w branży medycznej czy w samochodach autonomicznych. Jesteśmy pionierami, pokazujemy, na co należy zwracać uwagę przy ich rozwoju. Biznesowa wartość takich działań jest jak najbardziej realna. Mniejsze firmy nie mogą sobie pozwolić na zużywanie ogromnych mocy obliczeniowych, jak te niezbędne do działania ChatGPT czy innych zadań, w związku z tym naszymi badaniami nad zwiększaniem efektywności demokratyzujemy dostęp do uczenia maszynowego – prof. Tomasz Trzciński z IDEAS NCBR mówi o pracach swojej grupy badawczej i ich potencjale aplikacyjnym.

Dr hab. inż. Tomasz Trzciński, prof. PW kieruje pracami zespołu zajmującego się widzeniem maszynowym CVLab na Politechnice Warszawskiej. Jest liderem grupy badawczej „Uczenie maszynowe zero-waste w wizji komputerowej” w ośrodku badawczo-rozwojowym IDEAS NCBR.

Zero waste kojarzy się bardziej z ekologią niż z computer vision. Na czym polega ta koncepcja w przypadku modeli uczenia maszynowego?

Koncepcja zero waste, z perspektywy grupy badawczej w IDEAS NCBR, którą kieruję, polega na tworzeniu modeli, które przede wszystkim powinny być wydajne i wykorzystywać zasoby i obliczenia w taki sposób, aby minimalizować marnotrawstwo energii, operacji.

Jakiś przykład?

Wyobraźmy sobie, że jesteśmy w środku lasu i przy pomocy kamery w telefonie chcemy rozpoznawać obiekty wokół nas. Rozwijane przez naukowców i inżynierów modele składają się często z miliardów parametrów, jednak możemy przyjąć, że w lesie nie ma sensu wykorzystywać części modelu, która odpowiedzialna jest za analizę wysokich wieżowców czy zwierząt na Antarktydzie. Potrzebny jest nam tylko fragment, dotyczący konkretnego kontekstu, w którym się znajdujemy. Tylko część modelu odpowiedzialna za ten fragment powinna być aktywowana, a co za tym idzie cała operacja powinna zużywać mniej energii. Wtedy możemy mówić o podejściu zero waste. Podobnie działa ludzki mózg. Pewne jego fragmenty są aktywowane do konkretnych czynności, tak aby nie korzystać z pełni jego zakresu do prostych, konkretnych zadań.

Jak powinien zatem działać model uczenia maszynowego, jaki jest cel waszych badań?

Modele uczenia maszynowego w koncepcji zero waste mają szczególny potencjał dla widzenia komputerowego (computer vision). Przykładem może być branża medyczna, kiedy roboty wykorzystywane są przy operacjach. Im wydajniejszy będzie algorytm, tym krótszy będzie czas reakcji robota w trakcie zabiegu, a dzięki temu poprawi się bezpieczeństwo pacjenta i komfort chirurga. Podobnie w przypadku samochodów autonomicznych – kiedy czas analizy danych i reakcji jest zbyt długi, pojazdy takie mogą być niebezpieczne. Poza tym, chcemy, by modele wykorzystywały obliczenia wykonane w poprzednich etapach przetwarzania danych i wiedzę zdobytą podczas wcześniejszych epizodów uczenia, jeśli chodzi o modele uczone w trybie ciągłym. Krótko mówiąc, chodzi o recykling obliczeniowy.

Jak długo trwa projekt?

Badania dotyczące tej tematyki prowadzone są już 1,5 roku. Rozpoczęły się we wrześniu 2022, natomiast sama grupa badawcza zaczęła funkcjonować w pełnym składzie na początku 2023 roku. Dziś w grupie pracuje kilkadziesiąt osób.

Aktualnie w grupie badawczej realizujemy trzy ścieżki. Pierwsza z nich to wspomniana akumulacja wiedzy, czyli badania nad ciągłym uczeniem. Projektem kieruje Bartłomiej Twardowski. Drugi z zespołów zajmuje się wykorzystaniem modeli modularnych, czyli warunkowania, aby nie wykorzystywać całych modeli do pewnych zadań, ale tylko ich fragmentów. I jest jeszcze trzeci zespół, prowadzony przez Bartosza Zielińskiego, profesora Uniwersytetu Jagiellońskiego. Jego zadania związane są z zastosowaniem wypracowanych przez nas ścieżek w konkretnych urządzeniach – robotach, dronach czy platformach o ograniczonej mocy obliczeniowej.

Przy IDEAS NCBR powstał również ELLIS Unit Warsaw — pierwsza jednostka w Polsce będąca częścią ELLIS — europejskiej sieci badawczej promującej doskonałość naukową. Dzięki członkostwu w tej organizacji możemy tworzyć innowacje na poziomie międzynarodowym, być aktywną częścią europejskiego ekosystemu AI. Jednym z projektów, które w zakresie sieci realizujemy w ramach dużego konsorcjum, jest projekt ELIAS. Grant w wysokości 13 mln euro przeznaczony jest na rozwój sustainable AI.

Recykling zasobów brzmi bardzo ciekawie, ale może wystarczyłaby kompresja?

Kompresja to metoda, z którą wiążą się różnego rodzaju ograniczenia odzyskiwanej jakości. Możemy skompresować pełen model, który jest bardziej precyzyjny, zakładając, że wystarczy nam przybliżona odpowiedź. Jednak w naszej grupie badawczej staramy się unikać takiego podejścia. Skupiamy się na tym, aby zmaksymalizować zasoby, skorzystać jak najlepiej z tego, co już jest dostępne.

Recykling pozwala zatem na lepsze wykorzystanie zasobów niż kompresja?

Zdecydowanie tak, ale nie tylko utrata jakości jest problemem. Weźmy pod uwagę akumulację wiedzy w modelach. Aktualnie trenowane modele uczenia maszynowego, w szczególności sieci neuronowe, zapominają, czego zostały nauczone w poprzedniej iteracji, treningu, kiedy uczy się je na jednym zbiorze danych i przechodzi do kolejnego. To jest pewnego rodzaju strata, która nie wynika z tego, że chcieliśmy skompresować ten model, tylko jest to problem fundamentalny, dotyczący tego, jak trenujemy sieci neuronowe.

Dużo bardziej efektywne, zgodne z duchem idei zero waste byłoby budowanie na bazie wcześniejszego modelu i akumulacja wiedzy, czyli kolejnych danych w przypadku zmieniającego się zbioru danych, czy kolejnych zadań, do których staramy się dany model dostosować.

Poproszę o przykłady takiego recyklingu.

Kiedy uczymy się języków romańskich i powiedzmy na początek uczymy się francuskiego, a później włoskiego, a następnie hiszpańskiego, ze względu na podobieństwa w strukturze tych języków jesteśmy w stanie lepiej i szybciej nauczyć się np. języka włoskiego znając język francuski, niż gdybyśmy zaczynali od zera. Nie kompresujemy wiedzy, którą mamy, nie ograniczamy słownictwa, którym jesteśmy w stanie się posługiwać, w języku włoskim, hiszpańskim i francuskim, tylko wykorzystujemy wspólne elementy. Budujemy na bazie tego, co już wcześniej zostało wyliczone, wytrenowane, po to, aby ten recykling zachodził jak najskuteczniej.

Inny przykład pochodzi z opublikowanego przez nas zeszłorocznego artykułu na jednej z najważniejszych konferencji w obszarze informatyki – IJCAI. Jest to metoda aktywnej wizualnej eksploracji. Poprzez nią chcemy najbardziej wydajnie przeanalizować wysokiej jakości, wysokiej rozdzielczości obraz np. z kamery 360 stopni znajdującej się w robocie. Można to robić, analizując cały obraz, ale dużo wydajniejszym podejściem jest analizowanie mniejszych jego fragmentów, jeden po drugim.

W wyniku badań okazało się, że wykorzystując modele, które mają wewnętrzny wskaźnik, swoisty kompas – jak po kolei przemieszczać się po fragmentach obrazu, żeby jakość uzyskiwanych rezultatów na koniec była najwyższa – jesteśmy w stanie wykorzystać to, co w tym modelu wewnętrznie już jest.

Nie musimy tworzyć dodatkowych modułów, tylko bierzemy to czym dysponujemy i zastanawiamy się, czym taki model już dysponuje, jaką ma wiedzę, jaką ma możliwość, żeby nam pomóc zminimalizować energię potrzebną do jego obliczeń.

Jakie są wyzwania przy takim recyklingu zasobów?

Analiza tego, czy nasz proponowany model rzeczywiście jest wydajny, czyli, czy w jakiejś mierze ponownie wykorzystujemy dostępną wiedzę, jest częściowo zależna od kontekstu zadań, do których go trenujemy. Najbardziej ogólnym, wspólnym mianownikiem, jest sprawdzenie ilości operacji, którą musimy wykonać, żeby dojść do danego celu z jakimś określonym prawdopodobieństwem.

Do tego zapewne potrzebne są narzędzia, aby mierzyć taką efektywność. Z jakich korzystacie w swojej pracy badawczej?

Z reguły korzystamy z dostępnych bibliotek, w Pythonie lub w innych językach programowania, które tego typu liczby podają. Biblioteki te pozwalają na zmierzenie liczby FLOPów, czyli operacji wykonywanych przez procesory. Liczbę FLOPów możemy odnieść do energii, która jest potrzebna, aby te operacje wykonać. Ta energia mierzona jest już w postaci pobranych w jednostce czasu watów, czyli kilowatogodzin czy megawatogodzin.

A ile takiej energii potrzeba, ile da się zaoszczędzić?

Żeby zilustrować skalę zapotrzebowania energetycznego, możemy posłużyć się następującym przykładem. Nasz mózg wykorzystuje 600 watogodzin dziennie do tego, żeby funkcjonować, analizować rzeczy wokół nas, uczyć się, pracować. Natomiast trening GPT-3, który jest wcześniejszą iteracją, niż te, które są wykorzystywane dziś w ChatGPT, to był koszt energetyczny rzędu 1300 megawatogodzin. Taką w przybliżeniu ilość energii zużywa 680 4-osobowych gospodarstw domowych w ciągu jednego roku. Może wydawać się, że to stosunkowo niewiele, ale przy obecnej skali inwestycji w AI zużycie energii na trenowanie nowych modeli będzie rosło na całym świecie w ogromnym tempie.

Jaki jest teraz Wasz cel?

Metodologia polega na tym, aby ocenić, ile operacji, ile tych flopów, ile w końcu energii jest potrzebne do wykonania odpowiednich działań. Z jednej strony jest to kwestia energetyczna, natomiast mamy specyficzne metryki dotyczące recyklingu. Zaproponowaliśmy choćby metrykę badającą – jeśli wykorzystalibyśmy jakąś część tego modelu, to w jakim stopniu jesteśmy w stanie uzyskać odpowiedź o wystarczającej precyzji. Innymi słowy – jaki procent modelu wykorzystujemy w stosunku do całego modelu, by uzyskać wystarczający rezultat.

Zero waste i recykling kojarzy się jednak też z ekologicznym podejściem. Jak te badania mogą wpłynąć zarówno na biznes, jak i na postrzeganie budowy modeli uczenia maszynowego?

Nasza motywacja jest dwojaka, ale jak najbardziej zielona, ekologiczna. Po pierwsze, to kwestia kosztów, które przy aktualnym zapotrzebowaniu na moc obliczeniową, możemy zaobserwować w analizie pieniędzy przeznaczanych na startupy działające w generatywnej sztucznej inteligencji. Proszę sobie wyobrazić, że mniej więcej na każdego dolara, który zostaje wydany, aby sfinansować startup, ok. 50-60 centów de facto idzie na infrastrukturę. Efekt? Znacząca część inwestycji w startupy przekłada się na pokrycie kosztów obliczeń. Gdybyśmy mogli te pieniądze przeznaczyć nie na samą infrastrukturę, ale tworzenie lepszych modeli, bardziej etycznych, interpretowalnych, bliższych człowiekowi, to posunęlibyśmy się dużo dalej w rozwoju sztucznej inteligencji.

Druga motywacja wynika wprost z tego, z czym mamy do czynienia w Polsce, a mianowicie ok. 70 proc. energii jest wytwarzanych ze źródeł nieodnawialnych, w szczególności z węgla. Zatem gdybyśmy w Polsce potrzebowali tych 1300 megawatogodzin do wytrenowania GPT-3, to 70 proc. tej liczby pochodziłoby ze spalania węgla. Oznacza to zarówno duże obciążenie infrastruktury, jak i koszty środowiskowe.

A czy jest możliwość, aby modele, które badacie, w przyszłości samodoskonaliły się pod względem oszczędności, recyklingu tych zasobów?

Moim zdaniem to bardzo mocne wyjście w przyszłość i myślenie już o generalnej sztucznej inteligencji. Na dziś takie modele same z siebie raczej nie są w stanie się samodoskonalić pod tym względem. Zgodnie z tzw. scaling law, a więc prawem sugerującym, że wraz z większą ilością danych modele stają się coraz lepsze, modele te są coraz bardziej zasobożerne. Ich jakość natomiast, w szczególności w świecie przemysłowym i akademickim, jest oceniana na podstawie jakości uzyskiwanych rezultatów, a nie na podstawie wydajności energetycznej. W świecie modeli uczenia maszynowego jesteśmy na etapie poprawiania jakości rezultatów, bez względu na zasoby, które musimy w tym celu wykorzystać. Dlatego tak ważne jest wykorzystanie wszystkich zasobów i ich recykling.

A czy możemy dziś mówić już o jakichś modelach uczenia maszynowego, które są zielone, energooszczędne?

Modeli odgórnie klasyfikowanych jako modele uczenia maszynowego zero waste raczej jeszcze nie ma. Co ważne, nie ma też żadnej agencji, która by nadawała np. zielone certyfikaty modelom spełniającym określone parametry. Jednak pojawiają się już modele, które są skrojone specyficznie pod pewne aplikacje, np. w robotyce, w dronach, przy tworzeniu mobilnych platform. Te urządzenia wymagają oszczędności energii, w celu skuteczniejszego i dłuższego działania, stąd można tu mówić o modelach ukierunkowanych na zero waste.

Proszę też zauważyć, że największe koncerny zaczynają już spoglądać nieco inaczej na wykorzystanie energii. Gemini, najnowszy model od Google, został udostępniony w kilku wersjach, w wersji wydajniejszej obliczeniowo, standardowej oraz takiej bez żadnych ograniczeń. Moim zdaniem zaczyna się trend dostosowywania modeli do tych końcowych aplikacji, choć finalnej taksonomii, który model jest, a który nie jest zero waste, na razie nie ma.

Z tego wynika, że Wasze badania są niezwykle innowacyjne?

Wydaje mi się, że jesteśmy w tej kwestii pionierami i nadajemy kierunek, pokazujemy, na co należy zwracać uwagę przy rozwoju modeli uczenia maszynowego. Biznesowa wartość takich działań jest jak najbardziej realna. Mniejsze firmy nie mogą sobie pozwolić na zużywanie tak dużych mocy obliczeniowych dla konkretnych zadań, w związku z tym naszymi badaniami nad zwiększaniem efektywności demokratyzujemy dostęp do uczenia maszynowego.

Eksplozja generatywnej sztucznej inteligencji (GAI), która w ciągu ostatnich kilkunastu miesięcy podbija niemal każdą branżę, stawia wyzwania nie tylko przed autorami, wydawcami czy artystami, ale także przed specjalistami od cyberbezpieczeństwa. Coraz bardziej zaawansowane narzędzia wykorzystywane do prowadzenia działań przestępczych stawiają nowe, trudne wyzwania przed organizacjami narażonymi na wyłudzenia i nadużycia. Sektory takie, jak bankowość, ubezpieczenia, handel i administracja rządowa muszą szybko wdrażać nowe technologie w celu ochrony własnych klientów przed działaniami grup przestępczych. 

Nic tak nie przykuwa uwagi, jak efektowne wideo. Dlatego Sora, nowy model generatywnej sztucznej inteligencji (GAI) zaprezentowany przez OpenAI, zrobił wielki szum w mediach na całym świecie. Kiedy Dall-E, Midjourney czy Stable Diffusion przekształcają komendy tekstowe w realistyczne – czy fantastyczne – obrazy, Sora na bazie poleceń użytkownika tworzy filmy, często trudne do odróżnienia od produkcji Hollywood czy filmów dokumentalnych. 

Sora nie jest jeszcze publicznie dostępna, ale demonstracja jej możliwości była przyczynkiem i do nadziej, i do obaw. Nadziei, bo model może wyzwolić pokłady kreatywności u ludzi niemających dostępu do profesjonalnych narzędzi pozwalających tworzyć filmy. Obaw, bo te same pokłady kreatywności mogą uwolnić cyberprzestępcy, wykorzystujący podobne narzędzia do oszustw na wielką skalę. 

Wykorzystywanie narzędzi typu deepfake – pozwalających na tworzenie zmanipulowanych nagrań prawdziwych ludzi – w wyłudzeniach i innych finansowych przestępstwach nie jest zjawiskiem nowym, ale zagrożenie z nich płynące narasta wraz z rosnącymi możliwościami algorytmów tworzących fałszywki. Według raportu firmy Onfido, tworzącej narzędzia do weryfikowania tożsamości, liczba prób dokonania oszustw za pomocą deepfake’ów wzrosła w 2023 r. aż o 3000 proc. w porównaniu z rokiem poprzednim. 

W jednym z najbardziej spektakularnych przypadków tego rodzaju oszustwa, o którym doniósł w styczniu dziennik South China Morning Post, oddział międzynarodowej korporacji działający w Hongkongu stracił 23,6 mln euro po tym, jak jeden z pracowników dostał polecenie dokonania przelewu od osoby podającej się za jej dyrektora finansowego. Gdy pracownik wyraził sceptycyzm, zaproszono go na wideokonferencję, w której osoba wyglądająca i brzmiąca jak CFO firmy ponowiła żądanie. Tym razem pracownik dał się przekonać i wykonał przelew. 

Zmanipulowane wideo to nie jedyne zagrożenie płynące z generatywnej sztucznej inteligencji. Wielkie modele językowe, takie jak ChatGPT czy Gemini, mogą służyć do tworzenia przekonujących, spersonalizowanych wiadomości phishingowych kierowanych do konkretnych odbiorców. „Mimo że konsumenci są czujni, przestępcy internetowi rozwijają swoją działalność z wykorzystaniem generatywnej sztucznej inteligencji i technologii deepfake” mówi Stu Bradley, wiceprezes ds. przeciwdziałania nadużyciom w SAS. “Wiadomości phishingowe stają się coraz bardziej dopracowane. Imitacje stron internetowych wyglądają łudząco podobnie do oryginałów, a aby podrobić głos konkretnej osoby, wystarczy kilka sekund nagrania audio i łatwo dostępne narzędzia online.”

Ochrona przed przed fraudami 

Ale to tylko jedna strona medalu. Bo generatywna sztuczna inteligencja może też służyć do skutecznej ochrony firm i organizacji przed fraudami. 

Badania przeprowadzone przez SAS wskazują na to, że generatywna sztuczna inteligencja może w najbliższych latach stać się kluczowym elementem zabezpieczeń przed nadużyciami finansowymi. Z przeprowadzonego przez firmę sondażu wynika, że 8 na 10 specjalistów zajmujących się zwalczaniem nadużyć finansowych zamierza wdrożyć generatywną sztuczną inteligencję przed końcem 2025 roku,  zaś trzy na pięć organizacji spodziewa się, że zwiększy swoje budżety na technologię przeciwdziałania oszustwom w ciągu w ciągu najbliższych dwóch lat. 

To ważne, bo coraz bardziej świadomi zagrożeń są sami konsumenci. Aż 9 na 10 respondentów uważa, że firmy powinny robić więcej, aby uchronić swoich klientów przed oszustwami. Ponad 70 proc. respondentów z Polski stwierdziło, że zgodziłoby się na większe opóźnienia i kontrole transakcji w zamian za lepszą ochronę. Jednocześnie, jak wskazuje niedawno opublikowane badanie SAS Faces of Fraud: Consumer Experiences With Fraud and What It Means for Business, 76 proc. Polaków co najmniej raz w 2022 r. spotkało się z próbą oszustwa. Rozpowszechnienie ataków doprowadziło do tego, że niemal 80 proc. badanych zwiększyło swoją czujność podczas dokonywania transakcji internetowych.

Szczególnie narażone na oszustwa online są zwłaszcza organizacje działające w sektorach bankowości, ubezpieczeń, telekomunikacji, handlu i administracji rządowej. To one powinny w pierwszej kolejności zainwestować w zaawansowane rozwiązania, które zwiększają bezpieczeństwo ich samych i ich klientów dzięki wykorzystaniu technik uczenia maszynowego (ML) czy generatywnej sztucznej inteligencji. Pozwalają one wyprzedzać działania cyberprzestępców i zapobiegać atakom i nadużyciom dokonywanym za pomocą wszystkich kanałów. 

Przykładem takiego rozwiązania jest platforma SAS Viya, wykorzystywana przez Departament Gospodarki stanu Goiás w Brazylii. Urząd korzysta z wykorzystującej algorytmy sztucznej inteligencji platformy w celu wykrywania firm unikających płacenia podatków w transporcie towarowym. System, analizujący dane podatkowe w czasie rzeczywistym, w ciągu miesiąca od momentu wdrożenia generował 300 alertów o możliwych niezgodnościach podatkowych. Dzięki lepszej identyfikacji nieprawidłowości – np. sfałszowanych faktur, brakujących elektronicznych poświadczeń wymaganych dla pojazdów do transportu towarów i ładunków przekraczających deklarowaną ilość – kwota nałożonych kar wzrosła o 54 proc. w porównaniu z tym samym miesiącem poprzedniego roku.

“Projekt ten znacznie zmienił wydajność operacyjną departamentu, zapewniając nam większą przejrzystość i wymierne korzyści dla społeczeństwa” – powiedziała Giovana Amorim Zanato, kierownik ds. audytu w Departamencie Gospodarki stanu Goiás. “Połączyliśmy technologię SAS z innymi rozwiązaniami w celu zapobiegania uchylaniu się od płacenia podatków i stworzyliśmy innowacyjną praktykę, która posłuży jako przykład dla innych departamentów stanowych.”

To jednak zaledwie jeden ze sposobów, na jakie sztuczna inteligencja może pomóc zabezpieczać organizacje przed nadużyciami. „Przykład tego, jak szerokie zastosowanie ma sztuczna inteligencja, mogą stanowić sektory bankowości i ubezpieczeń, które zmagają się z ogromną liczbą prób wyłudzeń. Algorytmy AI pomagają oceniać okoliczności zdarzenia w przypadku likwidacji szkód, weryfikować autentyczność dokumentów i zdjęć przesyłanych przez klienta oraz generują rekomendacje działań dla osoby obsługującej proces. AI pomaga też weryfikować powiązania pomiędzy interesariuszami w transakcjach biznesowych. Wykrywanie nadużyć z pomocą AI dotyczy również procesów wewnętrznych, m.in. przy rekrutacji nowych pracowników i ocenie ich aplikacji” – mówi Marta Prus – Wójciuk, Head of Fraud Management Practice, SAS.

Po pierwsze bezpieczeństwo

Oparte na AI i ML rozwiązania wspomagające bezpieczeństwo mogą obejmować także np. analizę wizyjną, czyli tworzenie systemów, które poprzez analizę obrazu mogą wykrywać podejrzane zachowania w czasie rzeczywistym, takie jak nieautoryzowany dostęp do danych. W ochronie danych może pomóc biometria behawioralna, poprzez analizę zachowania użytkownika, w tym analizę sposobu pisania na klawiaturze, poruszania myszą czy rozpoznawanie głosu. Czy wreszcie monitorowanie transakcji w czasie rzeczywistym pod kątem podejrzanych wzorców, co pozwala na błyskawiczne reagowanie na próby oszustwa, identyfikację nieautoryzowanych transferów pieniężnych czy wykrywanie prania pieniędzy. 

Systemy oparte na sztucznej inteligencji mogą także wykorzystywać rozwiązania robotyczne – roboty zintegrowane z systemami AI mogą patrolować obiekty i monitorować ich stan, minimalizując ryzyko kradzieży, aktów wandalizmu, awarii czy wycieków. Zaawansowane algorytmy sztucznej inteligencji mogą wreszcie analizować duże ilości danych, aby przewidywać i zapobiegać cyberatakom.

Wszystko to przekłada się nie tylko na zwiększenie poziomu bezpieczeństwa, ale i na szybsze wykrywanie i reagowanie na zagrożenia, redukcję kosztów związanych z cyberatakami i zwiększenie poziomu zaufania klientów do organizacji. 

„Szybki rozwój narzędzi generatywnej sztucznej inteligencji już ułatwia oszustom i zorganizowanym grupom przestępczym omijanie tradycyjnych metod wykrywania nadużyć. Oznacza to, że organizacje stoją przed wyzwaniem zastosowania najnowszych technologii, aby to zjawisko powstrzymać. Te z nich, które sprostają oczekiwaniom klientów w zakresie bezpieczeństwa, mają największe szanse na zdobycie ich lojalności, a w efekcie budowanie przewagi konkurencyjnej. W dalszej perspektywie oznacza to generowanie wzrostów sprzedaży przy jednoczesnym ograniczeniu strat związanych z nadużyciami” stwierdza Stu Bradley z SAS.

– Wykorzystując technologię Organ-on-a-chip, zbierając dane i tworząc ich kartoteki jesteśmy w stanie powiedzieć kiedy następuje rozwój choroby lub w jakim momencie lek zaczął działać – zauważa dr inż. Agnieszka Żuchowska z Katedry Biotechnologii Medycznej Politechniki Warszawskiej.

Dr Agnieszka Żuchowska jest adiunktem w Katedrze Biotechnologii Medycznej Politechniki Warszawskiej. Odbyła półtoraroczny staż podoktorski w grupie AMBER (Uniwersytet Twente, Holandia). Posiada udokumentowane doświadczenie w zakresie badań biologicznych prowadzonych z wykorzystaniem mikroprzepływowych układów Cell-on-a-chip, Organ-on-a-chip potwierdzone 31 publikacjami.

Jej zainteresowania i wiedza obejmują zastosowanie miniaturowych urządzeń przepływowych w modelowaniu narządów, ich połączeń oraz ich zastosowanie w badaniach przesiewowych leków. Jest ekspertem w zakresie pozyskiwania, wykorzystania i analizy biologicznej kultur przestrzennych sferoid w warunkach normalnych i przepływowych.

Jak można opisać w skrócie technologię Organ-on-a-chip?

Organ-on-a-chip to nowoczesna technologia w dziedzinie bioinżynierii, która umożliwia modelowanie ludzkich organów na mikro skalowanych urządzeniach chipowych. Te niewielkie chipy są zaprojektowane tak, aby naśladować złożoną strukturę i funkcje rzeczywistych organów ludzkich, takich jak serce, płuca, wątroba czy nerki. Są one wykorzystywane głównie do badań biomedycznych, w tym do testowania leków i badania chorób.

Systemy Organ-on-a-chip są wytworzone z biomateriałów, w których znajdują się różnego rodzaju mikrokomory, mikrokanały, w których hodujemy modele komórkowe. Celem jest stworzenie modeli w taki sposób, żeby jak najbardziej odwzorowywały zachowania in vivo, czyli zachowania występujące w organizmie ludzkim. Następnie generujemy w nich warunki przepływowe, czyli takie, które mamy w naszym organizmie.

Dzięki wykorzystaniu technologii Organ-on-a-chip możemy stworzyć każdy stan patologiczny ludzkiego organizmu, i nowotwory, i cukrzycę, choroby sercowe, mózgowe, wątrobowe. Wydaje mi się, że dziś możemy w naszym laboratorium wytworzyć większość stanów chorobowych, jakie znamy.

Czym różni się ona od do tej pory wykorzystywanych narzędzi?

Do tej pory standardowe badania in vitro prowadzone są na hodowlach komórkowych w postaci monowarstwy, czyli komórek płasko rozmieszczonych na płytkach plastikowych. Z taką metodą mamy do czynienia od wieków, jest ona stosowana w większości laboratoriów biologicznych i farmaceutycznych u nas w Polsce. Modele tego typu nie odwzorowują jednak złożoności ludzkiego organizmu. Dlatego złotym standardem są badania prowadzone z udziałem zwierząt. Jednak w tym przypadku pojawiają się problemy różnic fizjologicznych pomiędzy zwierzętami a ludźmi, jak również obawy etyczne. Projektowane i wytwarzane przez nas urządzenia mogłoby z sukcesem zastąpić te badania. W wielu publikacjach naukowych, nie tylko polskich, ale i światowych pokazano, że systemy Organ-on-a-chip dają bardziej wiarygodne wyniki niż modele zwierzęce w przełożeniu na dalsze badania kliniczne prowadzone na ludziach.

W jakim celu wykorzystuje się taką technologię?

Obecnie wszelakie badania biologiczne czy wprowadzania różnego rodzaju substancji terapeutycznych na rynek farmaceutyczny, czy w ogóle jakichkolwiek nowych związków jest prowadzone początkowo na badaniach komórkowych, czyli na hodowlach in vitro, potem przechodzimy przez modele zwierzęce i na końcu są badania kliniczne, które są prowadzone już na ludziach. 

Modele typowo komórkowe mają swoje wady, ponieważ w zupełności nie odwzorowują naszych organizmów ludzkich, są zbytnim ich uproszczeniem. Z kolei modele zwierzęce są żywe, ale oczywiście jest to inny organizm niż organizm ludzki. W tym momencie pojawia się Organ-on-a-chip — połączenie modeli zbudowanych z ludzkich komórek różnego typu, hodowanych w trójwymiarze, o odpowiednim przeskalowaniu w stosunku do ludzkiego organizmu z hodowlą przepływową – imitującą przepływ krwi i limfy, czyli technologii umożliwiającej odwzorowanie ludzkiej fizjologii na wysokim poziomie. Z wykorzystaniem właśnie tych modeli prowadzimy różnego rodzaju badania substancji toksykologicznych, czy nowych leków, ale również odwzorowujemy różne stany patologiczne organów w celu zrozumienia ich mechanizmu i etiologii.

Czym Pani zajmuje się w projekcie tworzonym w katedrze Biotechnologii Medycznej Politechniki Warszawskiej?

Ja głównie zajmuję się projektowaniem tego typu urządzeń, optymalizowaniem wytwarzania w nich różnego rodzaju modeli organowych takich jak wątroba, mózg, nowotwory, a także optymalizowania metody generowania w nich warunków przepływowych. Dodatkowo z wykorzystaniem tych narzędzi prowadzę badania oceny skuteczności działania różnego rodzaju środków terapeutycznych – terapii leczniczych. Ostatecznie moja praca polega także na zbieraniu danych i ich analizie, jak również przekształcaniu tych danych na rzeczywisty wynik.

Jakiego typu dane są zbierane podczas korzystania z Organ-on-a-chip ?

Warto przede wszystkim zauważyć, że to nie są urządzenia, które same zbierają dane czy też badają jakąś próbkę ludzką. Należy pamiętać, że wykorzystując Organ-on-a-chip staramy się odwzorować organ ludzki, który wprowadzamy w jakiś stan patologiczny. To może być nowotwór lub choroby takie jak cukrzyca czy marskość wątroby. Następnie podajemy temu modelowi standardowo wykorzystywane leki w danej chorobie i sprawdzamy poprzez różnorodne sposoby analizy, czy ten organ zmienia się pod kątem morfologicznym i biochemicznym. Analizujemy, czy różnego rodzaju czynniki biologiczne, biochemiczne, które on wydziela — powinien wydzielać, czy i kiedy zachodzi leczenie tego organu bądź dalsze jego uszkodzenie.

Jak wygląda zbieranie takich danych na konkretnym przykładzie?

Załóżmy, że badamy zmianę aktywności metabolicznej komórek budujących wybrany organ. Codziennie badamy tę aktywność metaboliczną, z wykorzystaniem standardowo dostępnych metod bioanalitycznych, a naszym wynikiem jaki otrzymujemy jest np. intensywność fluorescencji. Mając dwa modele, dokonujemy analizy porównawczej. Jedno z urządzeń to standardowa hodowla, gdzie cały czas ten model jest rozwijany, podawane są składniki odżywcze, tworzymy tzw. zdrowy stan takiego modelu. Obok mamy identyczny model, ale bądź wprowadzamy go w stan patologiczny, bądź podajemy mu wybrane związki, których działanie chcemy ocenić np. konkretne leki. 

Następnie w obu modelach sprawdzamy aktywność metaboliczną komórek, po tych dwóch tygodniach. Na koniec zbieramy te dane i porównujemy między sobą z każdego dnia. Dzięki temu możemy sprawdzić, o ile procent aktywność metaboliczna komórek zmieniała się w stosunku do bazowego modelu tzw. kontroli. Takich badań przeprowadzamy dziesiątki, zbieramy te dane w tabele, uśredniamy, prowadzimy analizę statystyczną i ostatecznie uzyskujemy odpowiedź. 

Z pewnością pozyskanych w ten sposób danych są ogromne ilości. Z jakich narzędzi korzystacie, aby móc je we właściwy sposób zebrać, skatalogować?

Tak, to prawda. Podany przeze mnie przykład to tylko jeden z możliwych mierzonych parametrów. Takich parametrów w trakcie pojedynczej hodowli/eksperymentów jest niekiedy 4-6 jednocześnie. Dodatkowo każdy z eksperymentów jest powtarzany minimum 3 krotnie. Zebrane dane grupujemy i analizujemy z wykorzystaniem gotowych programów.

Warto dodać, że poprzez zbieranie danych i tworzenie ich kartotek jesteśmy w stanie powiedzieć, w jakim momencie następuje rozwój choroby, w jakim momencie lek zaczął działać. Dodatkowo jesteśmy w stanie wyciągnąć informację, kiedy np. w przypadku nowotworu rozpoczyna się proces przerzutowania i jakie czynniki na ten proces mają wpływ. Ponadto, poprzez tworzenie połączeń pomiędzy kilkoma organami jesteśmy w stanie wskazać w przypadku przerzutu nowotworowego organ, w którym ten przerzut się pojawi. Z wykorzystaniem technologii Organ-on-a-Chip i zebranych z jej wykorzystaniem baz danych możemy przewidywać, kiedy dany organ wchodzi w konkretny stan patologiczny, a kiedy z niego wychodzi, kiedy następują konkretne zmiany, które badając bezpośrednio w organizmie, nie jesteśmy w stanie stwierdzić.

Czy dane z poszczególnych kartotek można łączyć, tworzyć dzięki temu modele rzadkich chorób?

Tak. Skatalogowane i zebrane dane mogę przynieść nam wiele ważnych i interesujących informacji. Oceniając zmiany wybranych, różnych parametrów jak np. żywotność, zmiany aktywności metabolicznej, ekspresję konkretnych genów czy zmiany stężeń wybranych cytokin, katalogując je a następnie grupując, jesteśmy w stanie wytworzyć tak zwany „odcisk palca”. Oznacza to, że możemy stworzyć charakterystykę danej choroby. Krótko mówiąc możemy stwierdzić, że gdy rozpoczyna się, wspominany wyżej przerzut nowotworowy nasz model wydziela X ilość cytokiny A, jego aktywność metaboliczna jest na poziomie Y, ekspresja genu Z jest na poziomie B.

Czy te dane są zbierane przez jakieś zewnętrzne urządzenia, sensory?

Tak i nie. Analiza modeli Organ-on-a-chip opiera się w największym stopniu na analizie mikroskopowej. Jednak inne parametry wspomniane wyżej jak analiza ekspresji genów czy analiza ilości wybranych cytokin (markerów charakterystycznych dla danego organu/choroby), są oceniane z wykorzystaniem zewnętrznych technik jak RT-PCR, cytometria przepływowa, spektroskopia. Dane generowane są w postaci wyników ilościowych i katalogowane bezpośrednio przez badacza. Oczywiście w urządzeniach Organ-on-a-Chip można zastosować wewnętrzne sensory, zintegrowane w takim urządzeniu. Takie prace są już prezentowane w literaturze zagranicznej, jednak w dalszym ciągu wyniki otrzymane z ich wykorzystaniem nie dają aż tak wiarygodnego odzwierciedlenia jak standardowe metody. Natomiast, ten rodzaj badań jest rozwijany i myślę, że w przeciągu kilku lat będzie to standard w dziedzinie -on-Chip.

Jakie informacje można pozyskać podczas analizy?

Tworząc w tym narzędziu model w stanie patologicznym np. nowotwór, mogę sprawdzić, jak ten nowotwór się zachowuje. Podając odpowiednie czynniki, sprawdzam, czy rośnie, czy zaczynają się przerzuty. Jednocześnie mogę podawać różnego rodzaju leki i sprawdzać ich skuteczność. Także obserwować efekty stężenia leku, częstotliwość jego podania. Tym samym wprowadzam do takiego systemu mnóstwo zmiennych i nie muszę tego badać bezpośrednio na człowieku. Mogę to zrobić poza organizmem, w oddzielnym urządzeniu bez jakiejkolwiek szkody ani dla człowieka, ani dla zwierząt. Warto w tym miejscu zaznaczyć, że jedną z głównych idei wykorzystywania technologii Organ-on-a-chip jest minimalizowanie badań na zwierzętach. 

Z jakich metod analitycznych korzystacie?

Jeśli chodzi o zbierane dane, to materiał biologiczny jest o tyle różnorodny, że możemy prowadzić różnego rodzaju analizy. Najprostszą z nich jest analiza mikroskopowa – mikroskopia fluorescencyjna czy elektronowa. Tu daną będzie zdjęcie, które zrobimy. Na jego podstawie można wychwycić bardzo dużo informacji, co do budowy morfologicznej np. wspomnianego przeze mnie nowotworu. Możemy też sprawdzać żywotność komórek danego modelu. W tym celu możemy wybarwić dany model odpowiednimi barwnikami fluorescencyjnymi i ocenić ich intensywność z wykorzystaniem mikroskopii konfokalnej czy też wykonać bezpośredni pomiar z wykorzystaniem spektrofluorymetrów. W badaniach wykorzystujemy również takie techniki analizy jak impedancję, spektrofluorymetrię, RT-PCR czy cytometrię przepływową. Ponadto, możemy wykorzystywać podstawowe techniki bioanalityczne jak np. elektroforeza, Western-Blot czy HPLC-MS. Wszystko zależy od tego co chcemy badać, zmianę jakiego parametru oceniać.

Czy w ramach swojej pracy wykorzystujecie państwo narzędzia data science, sztuczną inteligencję?

Dotychczas bezpośrednio nie wykorzystywaliśmy metod analitycznych z obszaru data science, w tym AI. Jednak podejmowaliśmy próby budowy modelu Organ-on-a-chip z wykorzystaniem modelowania komputerowego, przy współpracy z naukowcami z Politechniki Warszawskiej. Na tą chwilę te działania zostały zawieszone. 

Z czego to wynikało? Czy tego typu technologie są wyzwaniem w pracy nad narzędziami typu organ-on-a-chip?

Myślę, że ogólnie badania biologiczne nie są proste do modelowania matematycznego/cyfrowego. W badaniach tych istnieje tyle czynników i zmiennych, które mają bardzo istotny wpływ na całość eksperymentu, że ich uwzględnienie w tego typu modelu nie jest proste. Jednak pojawia się coraz więcej prób wdrożenia rozwiązań cyfrowych w proces badań biologicznych.  

A czy widzi Pani szansę wykorzystania metod z obszaru data science w przyszłości?

Uważam osobiście, że mają one sens i warto nadal próbować. Jednak do tego potrzebna jest ścisła współpraca naukowców z różnych dziedzin.

Jak taka technologia może wesprzeć badania nad zdrowiem ludzkim?

Najlepszym przełożeniem na organizm ludzki byłoby wykorzystanie komórek biopsyjnych z pacjenta i wyhodowanie ich w naszym narzędziu. To tzw. badania spersonalizowane. Wtedy można byłoby sprawdzić każdy lek, przed podaniem pacjentowi, nie ingerując bezpośrednio w jego organizm. Oczywiście na to potrzeba wiele zgód etycznych i współpracy środowiska lekarskiego.

Na Zachodzie firmy farmaceutyczne same zgłaszają się do biotechnologów, aby za pomocą technologii Organ-on-a-chip tworzyć choroby i badać, z wykorzystaniem tych modeli skuteczność leków. W Polsce to nadal takie laboratoria jak nasze muszą wychodzić z podobnymi propozycjami do biologów, lekarzy czy do grup zajmujących się badaniami leków i szukać zainteresowanych współpracą osób i grup badawczych. Jednak powoli zaczyna się to zmieniać i miejmy nadzieję, że w niedługim czasie badania z wykorzystaniem technologii Organ-on-a-Chip staną się powszechniejszym rodzajem badań in vitro, nie tylko na świecie, ale zwłaszcza w Polsce.

Automatyzacja zadań, analizowanie procesów i optymalizacja kosztów. Wreszcie przewidywanie ryzyka oraz wykrywanie anomalii i potencjalnych zagrożeń, np. ataków cyberprzestępców. To tylko kilka obszarów, w których biznes może wykorzystywać generatywną AI. Jak zastosowanie GAI wpłynie na funkcjonowanie przedsiębiorstw i gdzie czekają zagrożenia?

Wystarczyło kilkanaście miesięcy, żeby Generatywna Sztuczna Inteligencja (GAI) podbiła świat. Dla większości użytkowników, pierwszym kontaktem z takimi narzędziami była premiera ChatGPT w listopadzie 2022 r. Od tej pory niemal wszystkie największe firmy technologiczne opublikowały własne modele GAI. A wyścig zbrojeń między ich twórcami sprawił, że ich możliwości rosną z miesiąca na miesiąc.

Ta rewolucja była jednak skutkiem bardzo długiego procesu badawczego, którego korzenie sięgają nawet… XVII w. Za początek badań nad podstawami sztucznej inteligencji można uznać prace matematyków takich, jak Gottfried Leibniz czy George Boole, którzy opracowali “mechaniczne” metody logicznego rozumowania, stosowane dziś w sztucznie inteligentnych systemach. W 1950 roku legendarny brytyjski matematyk Alan Turing opublikował pracę “Computing Machinery and Intelligence”, w której jako pierwszy stwierdził jasno, że cyfrowe komputery mogą “myśleć”. Położył w ten sposób fundament pod współczesną AI.

Już w latach 60. XX w. powstały pierwsze systemy rozpoznawania obrazu i mowy czy pierwsze czatboty, które można uznać za dalekich przodków dzisiejszych systemów GAI. Dalszy rozwój AI napotkał jednak przeszkodę. Aby działać efektywnie, takie systemy wymagają ogromnej ilości danych i mocy obliczeniowej. Mimo że w kolejnych dekadach dokonano postępów w dziedzinach takich, jak sieci semantyczne, ontologia czy rekurencyjne sieci neuronowe, “Zima AI” trwała, z krótkimi przerwami, do początku XXI. Zakończył ją dopiero gwałtowny rozwój Internetu, oferujący algorytmom ogromną ilość danych do analizy, a przede wszystkim szybki wzrost mocy obliczeniowej komputerów.

Badacze zastosowali też nowatorskie podejścia do problemu. Jednym z nich są tak zwane “Generatywne Sieci Antagonistyczne” (GAN). To model, opracowany w 2014 r. przez Iana Goodfellowa opierający się na dwóch, stale rywalizujących ze sobą sieciach neuronowych, z których jedna stara się generować realistyczne obrazy, a druga odróżniać je od prawdziwych. Dzięki tej rywalizacji, system generuje coraz bardziej realistyczne dane. Innym przełomowym rozwiązaniem okazały się tzw. transformatory. To sieci zdolne do “samo-uwagi”, czyli oceny relatywnej wagi poszczególnych danych. Pozwalają one na przetwarzanie języka naturalnego, ułatwiając tłumaczenie maszynowe, generowanie tekstu czy tworzenie odpowiedzi na pytania.

Skutkiem tych przełomów było powstanie pierwszych systemów dostępnych dla każdego użytkownika. ChatGPT, pierwszy powszechnie dostępny wielki model językowy (LLM) firmy OpenAI, w ciągu kilku dni od premiery w listopadzie 2022 r. wykorzystywało już milion użytkowników. W ciągu dwóch miesięcy było ich już 100 milionów.

GAI w służbie biznesowi

Generatywna AI szybko znalazła zastosowania w biznesie. GAI pozwala usprawnić aplikacje biznesowe poprzez automatyzację zadań, uczenie się zachowań użytkowników czy analizę danych. Umożliwia automatyczne generowanie raportów, przewidywanie trendów czy wykrywanie anomalii.

To wszystko istotnie wpływa na efektywność pracy. Opublikowane w ubiegłym roku badania Sloan School of Management Massachusetts Instutite of Technology wykazało, że pracownicy call center korzystający z opartego na wielkim modelu językowym “asystenta” zwiększyli swoją produktywność średnio o 14 proc. Co ważne, największy wzrost produktywności dotyczył pracowników najmniej doświadczonych. Jak stwierdzili autorzy badania, “technologia ta sprawiła, że pracownicy podwyższyli swoje kwalifikacje, a nie zostali zastąpieni”.

W praktyce, narzędzia GAI mogą zwiększać efektywność pracy na kilka sposobów. Mogą np. ułatwiać gromadzenie wielu źródeł danych w jednej aplikacji. Pozwalają automatyzować proces tworzenia notatek z dokumentów tekstowych, asystować w tworzeniu raportów i prezentacji, mogą wreszcie tworzyć transkrypty i podsumowania spotkań online, co znacząco usprawnia komunikację wewnątrz organizacji.

To jednak zaledwie najbardziej podstawowy sposób wykorzystania tych narzędzi w biznesie. W sektorze zdrowotnym, narzędzia GAI mogą być używane do wsparcia diagnoz pacjentów (np. do analizy badań radiologicznych), układania spersonalizowanych planów leczenia czy projektowania nowatorskich leków. Narzędzia takie, jak GitHub Copilot usprawniają także proces tworzenia oprogramowania. Inteligentny “asystent” pomaga programistom tworzyć, analizować i testować kod, skracając czas trwania procesu i poprawiając jakość gotowego produktu. Wyspecjalizowane modele GAI mogą służyć do analiz scenariuszy, przewidywania ryzyka i modelowania strategii. Przemysł może wykorzystywać je do optymalizacji procesów, ciągów logistycznych czy zużycia energii. Handel – do analizy zachowań i potrzeb kupujących oraz alokacji zasobów.

Bezpieczeństwo, siła i zagrożenia GAI

Szczególnie istotną rolę generatywne modele AI mogą odegrać w finansach i bankowości. W branżach w znacznym stopniu narażonych na działania przestępców, inteligentne narzędzia mogą być wykorzystywane do uczenia się wzorców i wykrywania anomalii. Przykładem wykorzystania GAI w praktyce biznesowej jest zaawansowana analityka i sztuczna inteligencja SAS, która ułatwia wykrywanie oszustw finansowych w czasie rzeczywistym. Techniki uczenia maszynowego identyfikują potencjalnie ryzykowne zjawiska, szybko je analizują i interweniują. Rozwiązania SAS, wprowadzone we włoskim Poste Italiane pozwoliły np. drastycznie zmniejszyć liczbę fałszywych alarmów i zwiększyć zdolność instytucji do radzenia sobie z nietypowymi płatnościami.

To ważne, bo narzędzia GAI są także stosowane przez przestępców. Generatywna sztuczna inteligencja jest wykorzystywana do generowania przekonujących wiadomości phishingowych czy nagrań deepfake, które mogą być stosowane przez przestępców do wyłudzeń i innych oszustw. Obrona przed takimi zagrożeniami wymaga zastosowania zaawansowanych rozwiązań, które ułatwiają wykrywanie potencjalnych ataków cyberprzestępców i ochronę organizacji przed ich konsekwencjami.

Stosowanie narzędzi generatywnej sztucznej inteligencji wiąże się jednocześnie z wyzwaniami, z których powinny sobie zdawać sprawę organizacje i ich pracownicy. Jednym z najlepiej znanych z nich jest problem “halucynacji”, występujący w wielkich modelach językowych. Polega on na tym, że LLM dostrzega w danych pozorne wzorce, na podstawie których produkuje błędne odpowiedzi. To z kolei może prowadzić do podejmowania złych decyzji biznesowych, a w rezultacie utraty zaufania klientów. Badania firmy Vectara wskazują, że w zależności od zastosowanego modelu, publicznie dostępne LLM „halucynują” przy od 3 do 27 proc. odpowiedzi generowanych przez system.

Przyczyna tego zjawiska może leżeć w nietypowym zapytaniu użytkownika, ale często u podstaw halucynacji leżą problemy z danymi, na których wyszkolony został system. W jaki sposób ograniczyć wiążące się z halucynacjami zagrożenia? Poprzez szkolenie systemów AI na wysokiej jakości, reprezentatywnych i dobrze oznakowanych zestawach danych, regularne testowanie oraz walidację modeli i ustalenie ograniczeń, które zapobiegają generowaniu nierealistycznych wyników. W kluczowych zastosowaniach istotne jest także tworzenie hybrydowych systemów decyzyjnych, w których AI działa z ludzkim nadzorem, pozwalającym wykrywać i korygować błędy.

Niedostatecznie zabezpieczone i przetestowane modele generatywnej sztucznej inteligencji mogą również być narażone na ataki z zewnątrz, w ramach których napastnicy wykorzystują luki w oprogramowaniu do zmuszenia modelu do wykonywania szkodliwych działań, np. ujawniania poufnych danych. Tutaj także kluczową metodą zabezpieczenia się przed negatywnymi konsekwencjami jest dokładna weryfikacja, monitorowanie działania modelu i wprowadzanie ograniczeń, które blokują potencjalnie niebezpieczne działania.

Nie zapominajmy o etyce

Stosowanie GAI wiąże się także z wyzwaniami etyczno – prawnymi. Wyszkolone na ograniczonych, niereprezentatywnych zestawach danych modele mogą, zamiast podejmować racjonalne decyzje, wzmacniać jedynie istniejące w danej organizacji tendencje. W 2018 r. Amazon zrezygnował z systemu wykorzystującego AI w procesie rekrutacji nowych pracowników, gdy wyszło na jaw, że model wytrenowany na zestawie danych dotychczasowych kandydatów do pracy, dyskryminował kobiety, które wcześniej stanowiły zdecydowaną mniejszość aplikantów.

Innym problemem są potencjalne naruszenia praw autorskich dokonywane przez takie systemy. To istotny problem, bo większość publicznie dostępnych modeli GAI jest szkolona na ogromnych ilościach danych pobranych z Internetu. Wiąże się to z ryzykiem nieumyślnego naruszenia praw intelektualnych oryginalnych autorów treści, obrazów czy kodu komputerowego. Sposobem na ograniczenie ryzyka jest stosowanie wyspecjalizowanych modeli, szkolonych na dobrze dobranych zestawach danych pozbawionych ryzyka prawnego.

Rozwój rynku narzędzi GAI

Nic nie wskazuje na to, by wyzwania związane z zagrożeniami stanowiły problem nie do przezwyciężenia. Analiza Bloomberg Intelligence pokazuje, że rynek modeli generatywnej sztucznej inteligencji w najbliższych latach czeka ekstremalnie szybki rozwój. Analitycy prognozują, że rynek narzędzi GAI, w 2022 r. wart 40 mld dol., do 2032 roku ma osiągnąć wartość 1,3 bln dolarów. Firma consultingowa McKinsey szacuje, że wykorzystanie generatywnej AI w 63 zastosowaniach biznesowych może przynieść globalnej gospodarce zyski rzędu 2,6 do 4,4 bln dolarów rocznie. Jedną z przyczyn jest fakt, że narzędzia GAI są w stanie zautomatyzować działania, które dziś absorbują 60-70 proc. czasu pracowników.

Nie ma w zasadzie branży, na której generatywna sztuczna inteligencja nie odciśnie w najbliższych latach swojego wpływu. Coraz powszechniejsze jest stosowanie narzędzi wizji komputerowej, wspomagających lekarzy, odpowiadających za bezpieczeństwo autonomicznych pojazdów czy monitorujących stan linii produkcyjnych w fabrykach.

Firma analityczna Gartner przewiduje, że w 2024 r. 40 proc. wszystkich aplikacji biznesowych będzie zawierać “konwersacyjną sztuczną inteligencję”, do 2025 r. 30 proc. firm wprowadzi strategię rozwoju wspieranego przez AI, a do 2026 r. generatywna sztuczna inteligencja zautomatyzuje 60 proc. pracy związanej z projektowaniem stron internetowych czy aplikacji. Aż 15 proc. nowych aplikacji ma być automatycznie generowanych przez AI bez udziału człowieka. W tym samym roku aż 100 mln pracowników ma współpracować ze sztuczną inteligencją.

Oznacza to gwałtowny wzrost efektywności pracowników, spadek kosztów i możliwość dynamicznego reagowania na zmieniające się warunki. Najpierw jednak i firmy, i pracownicy muszą nauczyć się skutecznie wykorzystywać możliwości oferowane przez te nowe narzędzia. Jednocześnie pamiętając, że choć generatywna sztuczna inteligencja posiada szerokie umiejętności, nie jest w stanie wykonywać wszystkich zadań.

Udostępnij link

https://www.datasciencerobie.pl/co-generatywna-ai-moze-zmienic-w-biznesie/