Michał Walesa, kancelaria Graś i Wspólnicy, w komentarzu ekspeckim o wprowadzeniu Aktu o Sztucznej Inteligencji w UE.
Z dniem 1 sierpnia 2024 roku wchodzi w życie Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, znane jako Akt o Sztucznej Inteligencji (AI Act). Ten ważny dokument ma na celu ustanowienie jednolitych przepisów dotyczących sztucznej inteligencji (AI) w całej Unii Europejskiej. AI Act ma zapewnić, że rozwój i wykorzystanie AI będą odbywać się w sposób bezpieczny, przejrzysty i zgodny z prawami obywateli. Oto kluczowe aspekty i implikacje tego aktu wyjaśnione w sposób przystępny dla każdego zainteresowanego tematyką AI.
1. Kategoryzacja systemów AI: AI Act dzieli systemy AI na cztery kategorie ryzyka:
minimalne, ograniczone, wysokie i niedopuszczalne. Każda kategoria podlega różnym
regulacjom:
● Minimalne ryzyko: Najmniej restrykcyjna kategoria, obejmuje systemy AI, które nie
stanowią poważnego zagrożenia dla użytkowników. Przykłady obejmują filtry
spamowe w skrzynkach e-mailowych lub proste systemy rekomendacji produktów w
sklepach internetowych.
● Ograniczone ryzyko: Systemy AI, które muszą spełniać podstawowe wymagania
przejrzystości, takie jak chatboty informacyjne czy aplikacje do analizy sentymentu w
mediach społecznościowych. Firmy muszą informować użytkowników, że mają do
czynienia z AI.
● Wysokie ryzyko: Te systemy są najbardziej regulowane. Przykładami są AI używane w
medycynie do diagnostyki, systemy rozpoznawania twarzy stosowane przez organy
ścigania czy systemy zarządzania ruchem w pojazdach autonomicznych. Muszą
przechodzić szczegółowe oceny zgodności, audyty i monitorowanie, aby zapewnić ich
bezpieczne i etyczne działanie.
● Niedopuszczalne ryzyko: Obejmuje systemy AI, które mogą manipulować ludzkimi
zachowaniami w sposób nieetyczny, np. AI używane do podprogowych reklam czy
systemy oceny społecznej, które mogą prowadzić do dyskryminacji. Te systemy są
całkowicie zakazane.
2. Przejrzystość i wyjaśnialność: Rozporządzenie wymaga, aby systemy AI były zrozumiałe dla użytkowników. Firmy muszą dostarczać informacje na temat tego, jak działają ich systemy AI i jakie decyzje podejmują. Przykładowo, jeśli aplikacja medyczna używa AI do diagnozy, pacjent musi wiedzieć, na jakiej podstawie podjęto decyzję. Systemy AI muszą być zaprojektowane tak, aby użytkownicy mogli zrozumieć i, w razie potrzeby, zakwestionować wyniki.
3. Ochrona danych osobowych: AI Act ściśle współgra z ogólnym rozporządzeniem o ochronie danych (RODO). Systemy AI muszą chronić dane osobowe użytkowników, zapewniając ich anonimizację i bezpieczeństwo. Na przykład aplikacje zdrowotne będą
musiały dbać o prywatność danych pacjentów. Firmy będą musiały wdrażać mechanizmy
zabezpieczające przed nieautoryzowanym dostępem do danych i ich niewłaściwym
wykorzystaniem.
4. Nadzór i odpowiedzialność: Firmy dostarczające systemy AI będą musiały regularnie
sprawdzać, czy ich produkty są zgodne z przepisami. Jeśli AI wyrządzi szkodę, firma może być pociągnięta do odpowiedzialności. Obejmuje to obowiązek prowadzenia audytów i oceny ryzyka. Dostawcy będą musieli zapewnić, że systemy AI są monitorowane przez cały okres ich użytkowania i poddawane regularnym przeglądom bezpieczeństwa.
5. Wsparcie dla innowacji: AI Act przewiduje wsparcie finansowe dla badań i rozwoju technologii AI. Komisja Europejska chce wspierać innowacje, tworząc centra doskonałości AI i finansując projekty badawcze. Celem jest stworzenie sprzyjającego środowiska dla rozwoju technologii AI, które będą zgodne z wartościami UE i normami etycznymi.
Korzyści i wyzwania
Korzyści: AI Act ma na celu zwiększenie zaufania do technologii AI poprzez zapewnienie jej
bezpieczeństwa i przejrzystości. To może przyspieszyć wdrażanie AI w różnych dziedzinach,
takich jak medycyna, transport czy edukacja. Jednolite przepisy w całej UE ułatwią również
rozwój i wprowadzanie innowacyjnych rozwiązań. Użytkownicy będą mieli większą pewność,
że systemy AI działają zgodnie z ich interesami i są bezpieczne w użyciu.
Wyzwania: Dostosowanie się do nowych wymogów może być trudne, zwłaszcza dla małych i średnich przedsiębiorstw. Proces certyfikacji, audytów i monitorowania może być kosztowny i czasochłonny, wymagając dodatkowych zasobów i kompetencji. Firmy będą musiały inwestować w szkolenia i rozwój kompetencji swoich pracowników, aby sprostać nowym wymaganiom regulacyjnym.
Podsumowanie
Wejście w życie AI Act od 1 sierpnia 2024 roku to ważny krok w regulacji sztucznej inteligencji na poziomie globalnym. Unia Europejska, poprzez te przepisy, dąży do zapewnienia, że technologie AI są rozwijane i wykorzystywane w sposób etyczny, bezpieczny i zgodny z prawami obywateli. AI Act ma przynieść korzyści zarówno użytkownikom, jak i twórcom technologii, zapewniając przejrzystość, bezpieczeństwo i wsparcie dla innowacji. Dzięki tym regulacjom UE może stać się liderem w dziedzinie etycznej sztucznej inteligencji, promując zrównoważony rozwój technologii na całym świecie.