epoint

W środę 14 czerwca 2023 roku odbyło się głosowanie Parlamentu Europejskiego nad aktem, który ma gruntownie uregulować kwestię sztucznej inteligencji w Unii Europejskiej. Akt o sztucznej inteligencji (AI Act) został przyjęty zdecydowaną większością głosów (499 głosów za 93 wstrzymujących się oraz 29 przeciw), pomimo pewnych kontrowersji z nim związanych. Kontrowersje te dotyczyły umożliwienia organom wykorzystywanie systemów sztucznej inteligencji do identyfikacji ludzi min. W celu zapobiegania atakom terrorystycznym. Komentarz ekspercki autorstwa Anna Stanek, kancelaria Graś i Wspólnicy.

Takie uprawnienie budzi silne kontrowersje, biorąc pod uwagę, że takie wykorzystywanie systemów sztucznej inteligencji narusza podstawowe zasady państwa demokratycznego. Co w szczególności widać na przykładzie Chin, które już od kilku lat stosują tzw. Scoring, czyli klasyfikacja obywateli na podstawie ich zachowań, statusu społecznego czy cech fizycznych. Obawa przed takim wykorzystywaniem systemów sztucznej inteligencji w krajach Unii Europejskiej, doprowadziła do odrzucenia poprawki, umożliwiającej identyfikację obywateli przez organy śledcze. Jak podkreślił Parlament Europejski w swoim stanowisku, nadrzędnym cele AI Akt jest ochrona wartości demokratycznych i ograniczenia negatywnych skutków wykorzystywania sztucznej inteligencji. W związku z tym wykorzystywanie systemów sztucznej inteligencji do identyfikacji obywateli naruszałoby podstawowe zasady demokratycznego państwa.

Co do samej treści aktu, to ustawodawca, głównie skoncentrował się na klasyfikacji systemów sztucznej inteligencji, pod względem stopnia ryzyka. AI Act dzieli systemy sztucznej inteligencji na 4 kategorie. Każda kategoria związana jest z poziomem ryzyka, które wiąże się z korzystaniem z danego systemu sztucznej inteligencji. Z tego względu wyróżnia się kategorię systemów sztucznej inteligencji, która wiąże się z: nieakceptowalnym ryzykiem, wysokim ryzykiem, niskim ryzykiem i ryzykiem minimalnym.

Poprzez nieakceptowalne ryzyko, należy rozumieć takie ryzyko, które stwarza zagrożenie dla obywateli. Do tej kategorii, należy zaliczyć sztuczną inteligencję, która wykorzystuje technologię biometryczną do identyfikacji i kategoryzacji ludzi. W szczególności dotyczy to technologii, która rozpoznaje ludzi w czasie rzeczywistym.

Natomiast sztuczna inteligencja, która charakteryzuje się wysokim stopniem ryzyka, zagraża bezpieczeństwu obywateli i prawom podstawowym. Z tego też względu, będzie ona mogła być wykorzystywana, jedynie po spełnieniu szeregu wymogów oraz będzie podlegała ocenie przez cały okres funkcjonowania.

AI Act kategoryzuje systemy sztucznej inteligencji o wysokim stopniu ryzyka, na:

a) systemy sztucznej inteligencji, do których stosuje się przepisy unijne dotyczące bezpieczeństwa produktów.

b) systemy sztucznej inteligencji, na które nałożono obowiązek rejestracji w unijnej bazie danych. W ramach tej kategorii, systemy sztucznej inteligencji, będą dzielić się na 8 obszarów, takich jak: edukacja szkolna i szkolenie zawodowe, zatrudnienie, zarządzanie pracownikami, zarządzanie i eksploatacja infrastruktury krytycznej, ściganie przestępstw, dostęp do podstawowych usług prywatnych, pomoc prawna, ściganie przestępstw oraz biometryczna identyfikacja i klasyfikacja osób fizycznych.

c) systemy sztucznej inteligencji, które charakteryzują się niskim lub minimalnym ryzykiem, również będą musiały spełnić pewne wymogi. Przede wszystkim jest to wymóg transparentności, tzw. Takie systemy sztucznej inteligencji powinny być na tyle przejrzyste, aby użytkownik mógł rozpoznać, że korzysta ze sztucznej inteligencji oraz umożliwiać użytkownikom podejmowanie świadomych decyzji.

Głównymi podmiotami, których będzie dotyczył AI Act są dostawcy i użytkownicy sztucznej inteligencji. Na dostawców systemów sztucznej inteligencji nałożono wiele obowiązków, które będą uzależnione od tego, jakiego rodzaju ryzyko wiąże się z wykorzystywaniem ich systemów sztucznej inteligencji. Jeżeli system sztucznej inteligencji danego dostawcy, zostanie zaklasyfikowany jako system wysokiego ryzyka, to taki dostawca będzie zobowiązany do rejestracji systemu w danej bazie danych.

Ciekawie wygląda kwestia Chatu GPT, który jest klasyfikowany jako generatywny system sztucznej inteligencji. Generatywne systemy sztucznej inteligencji, tworzą nowe teksty, obrazy, grafiki, na podstawie opisów, podanych przez użytkowników. Takie systemy są problematyczne, z punktu widzenia prawa autorskiego, z tego też względu Chat GPT oraz inne generatywne systemy sztucznej inteligencji zostały zaklasyfikowane jako systemy wysokiego ryzyka. W związku z czym Chat GPT oraz inne generatywne systemy sztucznej inteligencji będą musiały spełnić takie wymogi:

– stworzenie takiego systemu sztucznej inteligencji, który nie będzie publikował treści nielegalnych

– informowania użytkownika, że treść została stworzona przez sztuczną inteligencję

– dokumentowanie przypadku użycia utworów objętych prawami autorskimi

Takie wymogi nałożone na dostawców systemów sztucznej inteligencji, znacznie utrudniają tworzenie tych systemów. Mimo, że wiele największych dostawców takich jak Google czy Facebook, postulowali o wprowadzenie przepisów dotyczących sztucznej inteligencji, ostatecznie obecny kształt AI akt nie jest według nich korzystny dla całej branży. Jak podkreślali przedstawiciele największych koncernów zajmujących się sztuczną inteligencją, obecny AI Act w znaczny sposób ogranicza korzystanie i tworzenie systemów sztucznej inteligencji, co może doprowadzić do spowolnienia rozwoju tej technologii.

Z tego względu, Google po przyjęciu AI Act przez Parlament odwołał premierę swojego nowego czatbota Al Bard w Unii Europejskiej. Czy taka decyzja doprowadzi do złagodzenia AI Act?

Obecny kształt AI Act nie jest ostateczny, ponieważ po jego przyjęciu, rozpoczną się negocjację z Radzą oraz pomiędzy państwami członkowskimi w sprawie ostatecznego kształtu AI Act. Czy negocjacje doprowadzą do wprowadzenia znaczących zmian w AI Act, złagodzenia go lub zaostrzenia wymogów stawianym dostawcom systemów sztucznej inteligencji? Na to pytanie ciężko jest odpowiedzieć.

Z pewnością Unii Europejskiej zależy na implementacji takiego aktu o sztucznej inteligencji, który będzie chronił obywateli przed negatywnymi skutkami korzystania z sztucznej inteligencji oraz który będzie przykładem dla innych państw, w jaki sposób regulować problematykę sztucznej inteligencji. Podobnie jak było z RODO, na którym USA bazowało swoje regulacje dotyczące ochrony danych osobowych. Natomiast czy postulaty dostawców systemów sztucznej inteligencji, wpłyną na ostateczny kształt AI Act. Z pewnością Unia powinna wziąć to pod uwagę, nie mniej złagodzenie AI Act wydaje się być mało prawdopodobne.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments