Trendy data science. Oto 10 najważniejszych w 2022 roku

Trendy data science. Oto 10 najważniejszych w 2022 roku

Analitycy danych w nadchodzących miesiącach zmierzą się z wyzwaniami, które dotyczą automatyzacji, zapewnienia bezpieczeństwa łańcuchów dostaw, a także ochrony środowiska i danych osobowych. Ale to nie jedyne zagadnienia, nad którymi będą pracowali. Przedstawiamy trendy data science o największym wpływie na światową gospodarkę i działalność firm w 2022 roku.

W ostatnich latach obserwowaliśmy rozwój technologii, które sprawiają, że żyjemy w jeszcze bardziej połączonym świecie. Za nami czas dynamicznej cyfryzacji wielu branż i narzędzi ułatwiających podejmowanie decyzji w czasie rzeczywistym. Teraz firmy mocno postawią na kwestie związane z zapewnieniem bezpieczeństwa, przy jednoczesnym poszukiwaniu sposobów na zwiększenie swojej konkurencyjności, głównie za pomocą analityki danych. Poznaj trendy data science w 2022 roku.

1. Etyczna AI

Głównym wyzwaniem 2022 roku jest okiełznanie sztucznej inteligencji i sprawienie, aby algorytmy uczenia maszynowego uwzględniały ludzki system wartości i działały bardziej etycznie. Zadanie to nie jest proste, ponieważ mamy ograniczony wpływ na to, jak będą zachowywały się modele, które tworzone są na podstawie dużych zbiorów danych. Z tego powodu kluczową kwestią jest weryfikacja, czy w wyniku zastosowania AI nie dochodzi do dyskryminacji pewnych grup społecznych, co ma szczególne znaczenie na przykład w przypadku rynku finansowego i szacowania zdolności kredytowej.

2. Demokratyzacja AI i data science

Wraz z rozwojem technologii i przenoszeniem infrastruktury do chmury obliczeniowej, dostęp do zaawansowanych algorytmów, modeli i źródeł danych staje się coraz łatwiejszy. W efekcie z zaawansowanych narzędzi analitycznych może korzystać praktycznie każdy, a w wielu wypadkach dzięki aplikacjom typu no code i low code, analiza danych nie wymaga już znajomości programowania. To oczywiście pociąga za sobą konieczność skupienia się na szkoleniu nowych adeptów analizy danych, aby potrafili wykorzystać potencjał drzemiący w coraz łatwiejszych, a jednocześnie zaawansowanych narzędziach analitycznych.

3. Automatyzacja

Demokratyzacja AI i data science nie byłaby możliwa bez automatyzacji procesów. Do tej pory były one wykonywane przez wyspecjalizowane zespoły zajmujące się przygotowaniem i analizą danych. W nadchodzących miesiącach i latach możemy spodziewać się, że kolejne zadania, które wymagają żmudnej i czasochłonnej pracy, będą przejmowane przez sztuczną inteligencję. Dzięki temu eksperci znajdą czas na wizualizację i ocenę wyników oraz jeszcze bardziej precyzyjne przedstawianie wniosków osobom odpowiedzialnym w przedsiębiorstwach za podejmowanie strategicznych decyzji.

4. Doświadczenie użytkownika

Przewidywanie zachowań klienta jest kluczowe dla zwiększania konkurencyjności. Już nie wystarczy odpowiadać na potrzeby odbiorców – należy je aktywnie kreować. Do tego najlepiej nadadzą się zbierane dane. Silniki rekomendacji są potężnym narzędziem, dzięki nim firmy mogą oferować produkty lepiej dopasowane do konkretnych odbiorców.

Do tej pory pozyskiwanie danych o użytkownikach było relatywnie proste, ale zaczyna się to powoli zmieniać za sprawą zaostrzania polityki dotyczącej ochrony danych osobowych przez kolejne państwa Unii Europejskiej. W styczniu austriacki urząd ochrony danych osobowych stwierdził, że wykorzystanie ciasteczek na stronach internetowych przez Google Analytics łamie zapisy RODO. Niedługo potem francuska Narodowa Komisja ds. Informatyki i Wolności orzekła podobnie. Dlatego wiele wskazuje na to, że twórcy narzędzi i analitycy danych będą musieli znaleźć nowe sposoby pozyskiwania informacji, które uwzględnią prawo użytkowników do prywatności.

5. Rozpoznawanie deep fake'ów i fake newsów

Żyjemy w świecie opartym na danych, których jednak nie możemy traktować bezkrytycznie. Nieprawdziwe i błędne informacje nierzadko rozprzestrzeniają się szybciej od tych rzetelnie sprawdzonych i bazujących na faktach. Z rozwoju portali i aplikacji społecznościowych korzystają też przestępcy i agencje wywiadowcze zajmujące się dezinformacją – dzięki nim mogą łatwo rozpowszechnić wiadomości służące wyłudzeniom pieniędzy czy wpływaniu na wyniki wyborów.

Za pomocą zaawansowanych narzędzi do tworzenia nieprawdziwych informacji powstają realistyczne filmy z nieprawdziwymi wypowiedziami znanych osób (tzw. deep fake'i). Walka z fake newsami i deep fake'ami z pewnością wpisze się w trendy data science 2022 roku. To ogromne wyzwanie nie tylko dla służb państwowych, ale także dla całej branży zajmującej się przetwarzaniem danych – czyli tak naprawdę wszystkich.

6. Zabezpieczenie łańcuchów dostaw

Ubiegły rok pokazał, jak bardzo światowa gospodarka uzależniona jest od przepływu towarów, a jednocześnie jak niewiele potrzeba, by sparaliżować handel na całym globie. Nie tylko globalna pandemia, ale też takie punktowe zdarzenia jak blokada Kanału Sueskiego przez kontenerowiec Ever Given spowodowały poważne zakłócenia w dostawach towarów. Ich skutki można było ograniczyć, jednak wymagałoby to przeanalizowania ogromnej ilości danych na temat łańcuchów dostaw i tras, po których przewożone są produkty. Zapewne tym razem biznes odrobi lekcję i z pomocą nowych technologii powstaną zabezpieczenia i alternatywne plany organizacji dostaw produktów pomiędzy państwami i kontynentami.

7. Blockchain

Technologię blockchain w ostatnich latach wykorzystywano m.in. przy zawieraniu kontraktów pomiędzy klientami i dostawcami energii, a także do śledzenia informacji w łańcuchach dostaw. W przyszłości znajdzie dużo szersze zastosowanie także w innych obszarach, w których istotna jest walidacja danych. Blockchain można traktować jak rozproszoną strukturę danych, która w przeciwieństwie do relacyjnych baz danych zapewnia niezmienność informacji. To powoduje, że na takich wiadomościach można dużo bardziej polegać i łatwiej zarządzać danymi. Dodatkowo technologia łańcuchów blokowych umożliwia łatwe śledzenie pochodzenia informacji, dzięki czemu będzie używana w przetwarzaniu transakcji finansowych, czy w medycynie, do bezpiecznego współdzielenia informacji o pacjentach.

8. Rozpoznawanie obrazów

Sztuczna inteligencja potrafi wykrywać twarze i klasyfikować obiekty pojawiające się w kadrze, dzięki czemu możliwe jest m.in. tworzenie inteligentnych fabryk, w których ludzie pracują razem z autonomicznymi robotami. Technologia computer vision zapewnia bezpieczeństwo, w odpowiednim momencie pozwalając wykrywać potencjalnie groźne sytuacje. Obecnie głównym wyzwaniem w obszarze przetwarzania obrazów jest zapewnienie wydajnych algorytmów do analizy w czasie rzeczywistym danych o wysokiej rozdzielczości.

9. Obliczenia kwantowe

Analiza dużych zbiorów danych wymaga coraz więcej mocy obliczeniowej, z czym coraz gorzej sobie radzą klasyczne komputery bazujące na logice dwuwartościowej. Dlatego obok znanej od kilkudziesięciu lat architektury, naukowcy pracują nad urządzeniami działającymi w alternatywny sposób.

Komputery kwantowe do reprezentacji danych wykorzystują mechanikę kwantową i tzw. kubity. Ewolucja stanu kwantowego takiego układu pozwala na dużo szybsze obliczenia złożonych problemów, takich jak prognozowanie pogody, analiza rynków finansowych czy opracowywanie nowych leków. Mimo że ta technologia wciąż pozostaje na stosunkowo wczesnym etapie rozwoju, to w kolejnych miesiącach i latach będziemy obserwować coraz więcej jej komercyjnych zastosowań oraz to, jak kształtuje trendy data science.

10. Odpowiedzialność biznesu (ESG)

Poza kwestiami związanymi z ochroną danych osobowych, firmy i analitycy danych powinni zwrócić również uwagę, aby ich działania były zgodne z ESG (z ang. Environmental, Social, Corporate Governance), czyli ładem środowiskowym, społecznym i korporacyjnym. Z jednej strony, odpowiedzialność biznesu w tych obszarach ma kluczowe znaczenie z powodów regulacyjnych. Z drugiej zaś uwzględnienie i eksponowanie działań wpisujących się w ideę ESG pozwala budować dobry wizerunek marki.

Udostępnij link

https://www.datasciencerobie.pl/trendy-data-science-w-2022-roku/