Jak spowodować, żeby sztuczna inteligencja była… etyczna?

Jak spowodować, żeby sztuczna inteligencja była… etyczna?

Nie ufamy AI. Państwa i organizacje międzynarodowe opracowują zestawy etycznych reguł dla twórców algorytmów sztucznej inteligencji. Określają w nich, jakich zasad muszą przestrzegać w swoim funkcjonowaniu systemy, poza realizacją celów biznesowych. Światowe Forum Ekonomiczne policzyło, że mamy już blisko 200 osobnych kodeksów etycznych dla SI.

Pierwotną cechą algorytmów komputerowych, a potem algorytmów SI było wykonanie określonego zadania lub rozwiązanie postawionego problemu. Kiedy te informatyczne rozwiązania, wraz z rozwojem mocy obliczeniowych sprzętu, zaproponowały bogate możliwości, zaczął intensywnie korzystać z nich biznes, a także instytucje publiczne. Odpowiedzialność AI w sensie społecznym i gospodarczym rosła - i tak w orbicie problemu zjawiła się etyka.

Etyka AI: Księgi, Akty i Sojusze

Kolejne państwa i organizacje - biznesowe oraz międzynarodowe - uruchomiły dyskusje nad zasadami dla tzw. etycznej sztucznej inteligencji. W Unii Europejskiej powstała “Biała Księga AI”, opisująca ramy polityczne i współpracę sektora publicznego z prywatnym na rzecz tzw. ekosystemu doskonałości, który ma pomóc rozwijać SI służącą ludziom. Potem przygotowano “The Artificial Intelligence Act” sugerujący m.in. kategoryzowanie systemów pod względem nieakceptowalnego oraz wysokiego ryzyka. Światowe Forum Ekonomiczne powołało z kolei Global AI Action Alliance zrzeszające ponad 100 organizacji. Sojusz koncentruje się na rozwoju transparentnych aplikacji, które stosują zasadę human-centric. Również Watykan wystosował manifest dotyczący etycznej SI.

Na krajowym gruncie kwestią zajmuje się rządowa „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”. Przy Kancelarii Premiera działa też Grupa Robocza ds. AI. Regulacja wśród kilku zasadniczych punktów akcentuje istotność ochrony prywatności, odpowiedzialności i dobrego wpływu na społeczeństwo. Eksperci World Economic Forum policzyli, że na świecie powstało dotąd co najmniej 175 kodeksów etycznych dla sztucznej inteligencji.

Zrozumieć AI

Bryan Harris, Executive Vice President i Chief Technology Officer w SAS zaznacza, że dla oceniania etyczności lub nieetyczności AI, krytycznie ważne jest uzmysłowienie sobie, jak algorytmy prowadzą operacje. Menadżer podkreśla - SI bazuje na analizie przeszłości, zatem jeśli historyczne dane są zniekształcone, podobnie będzie z efektem działania sztucznej inteligencji:

- Analityka nie rozumie naszych założonych społecznych celów. Kiedy dążymy do usprawnienia opieki zdrowotnej, wymiaru sprawiedliwości, gospodarki albo chcemy zadbać o środowisko, musimy “poinformować” analitykę o naszych celach. Ponadto, w miarę jak analityka, uczenie maszynowe i sztuczna inteligencja stają się wszechobecne, są podejmowane zautomatyzowane decyzje, które wpływają na wielu ludzi. Organizacje wykorzystujące AI muszą się stale uczyć. Każdy, kto opracowuje technologię, która automatyzuje decyzje za człowieka, powinien ponosić odpowiedzialność za to, by efekty były przejrzyste i sprawiedliwe - przekonuje Bryan Harris.

Nie ma prostej odpowiedzi

Na czym miałaby polegać ta odpowiedzialność i kto konkretnie powinien ją ponosić za ewentualne błędy AI? Dr Dominika Kaczorowska-Spychalska z Uniwersytetu Łódzkiego, która należy do GRAI przy Kancelarii Premiera RP, uważa, że odpowiedź nie jest prosta:

- Z jednej strony odpowiedzialność dotyczy twórców rozwiązań opartych na sztucznej inteligencji, z drugiej firm, które potem te rozwiązania zastosowały w swojej strategii biznesowej czy oferowanych produktach. Nie możemy też zapominać o finalnych użytkownikach np. konsumentach, którzy mogli w niewłaściwy sposób korzystać ze wspomnianych produktów opartych na AI, co np. wynikało z ich niewiedzy. Istotne jest uświadomienie sobie, że różne zastosowania AI obarczone są różnym ryzykiem, co znalazło odzwierciedlenie w unijnym “AI Act” - wyjaśnia ekspertka w wywiadzie opublikowanym w serwisie Data Science robię.

Model odpowiedzialności AI

Niezależnie od tego, jaki ostatecznie powstanie wspólny model odpowiedzialności za skutki działań sztucznej inteligencji, na pewno część tej odpowiedzialności spoczywa na firmach. Chodzi zarówno o dostawców, jak i użytkowników tego typu algorytmów. W SAS istnieje specjalne stanowisko poświęcone etyce danych. Reggie Townsend, który pracuje jako Director of the Data Ethics Practice, jest również członkiem powołanego przez prezydenta USA Komitetu Doradczego ds. Sztucznej Inteligencji.  Firma SAS wypracowała wewnętrzne reguły i wartości dotyczące odpowiedzialnych innowacji. Model etyczny opiera się na sześciu ideach: człowiek w centrum, włączanie, przewidywalność, transparentność, odporność oraz prywatność i bezpieczeństwo.

Więcej o etyce w AI przeczytacie TUTAJ.

Udostępnij link

https://www.datasciencerobie.pl/jak-spowodowac-zeby-sztuczna-inteligencja-byla-etyczna/