Nowe Technologie

AI Act. Pierwsze na świecie prawo regulujące sztuczną inteligencję. Co sądzi o nim ChatGPT?

Ostatnia aktualizacja: 13.03.2024 13:30
Parlament Europejski przyjął pierwsze na świecie regulacje dotyczące sztucznej inteligencji. Akt o sztucznej inteligencji (AI Act) zawiera kompleksowe przepisy dotyczące najnowszej zdobyczy technologicznej. Zapytaliśmy ChatGPT, co sądzi o tym rozwiązaniu.
Sztuczna inteligencja doczeka się w ramach UE pierwszego na świecie prawa określającego zakres jej stosowania
Sztuczna inteligencja doczeka się w ramach UE pierwszego na świecie prawa określającego zakres jej stosowaniaFoto: SomYuZu/Shutterstock

Głównym założeniem przyjętego prawa jest określenie bezpiecznego oraz zgodnego z prawami podstawowymi i wartościami Unii Europejskiej zakresu funkcjonowania systemów sztucznej inteligencji. Jak podkreśla Parlament Europejski, nowe regulacje mają również sprzyjać inwestycjom w ten sektor.

"W ramach swojej strategii transformacji cyfrowej, UE chce uregulować sztuczną inteligencję (AI) w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja może przynieść wiele korzyści - np. lepszą opiekę zdrowotną, bezpieczniejszy i czystszy transport, bardziej wydajną produkcję oraz tańszą i bardziej zrównoważoną energię" - czytamy na stronie PE.

Sztuczna inteligencja pod nadzorem

Powstały w ramach procedury legislacyjnej Europarlamentu projekt analizuje i klasyfikuje systemy AI, które mogą być używane w różnych aplikacjach, według ryzyka, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą niosły ze sobą mniej lub więcej obowiązków.

Zaznaczono przy tym, że zapisy w prawie pozwolą na bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska stosowanie systemów sztucznej inteligencji. Dodano, że powinny one być nadzorowane przez ludzi, aby zapobiegać szkodliwym skutkom

Niedopuszczalny poziom ryzyka

Nowe przepisy określają przede wszystkim obowiązki dostawców i użytkowników w zależności od poziomu ryzyka reprezentowanego przez sztuczną inteligencję. Została zastosowana czterostopniowa skala.

Reprezentujące najwyższe, niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. W tej grupie znalazły się m.in. zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań. Zakazana ma być także identyfikacja biometryczna w czasie rzeczywistym i kategoryzacja osób fizycznych (scoring - klasyfikacja punktowa obywateli) na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.

Jako przykład, którego nie należy naśladować, podane zostały Chiny, gdzie istnieją systemy oceny obywateli czy masowego nadzoru bądź zdalna biometryczna identyfikacja osób w miejscach publicznych. W tej ostatniej kwestii państwa UE uzyskały jednak swobodę w przypadku niektórych działań dotyczących egzekwowania prawa, takich jak walka z terroryzmem.

Wyjątek mają stanowić przypadki użycia działających ze znacznym opóźnieniem systemów identyfikujących w celu ścigania poważnych przestępstw. Jednak i na nie będzie musiała być zgoda sądu.

Nieustanna kontrola narzędzi

Za systemy wysokiego ryzyka będą uznawane te, które negatywnie wpływają na bezpieczeństwo lub prawa podstawowe. Produkty z tego obszaru będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia. Wśród nich mogą się znaleźć zabawki, samochody, urządzenia medyczne i windy lub systemy służące do zarządzania i eksploatacji infrastruktury krytycznej.

Dwa najniższe poziomy ryzyka związane są z systemami AI tworzącymi nowe treści, czyli tzw. generatywną sztuczną inteligencją, której najbardziej znanym przykładem jest ChatGPT. Takie narzędzia będą musiały spełnić wymogi dotyczące przejrzystości. Przede wszystkim takie teksty, obrazy, filmy będą musiały w czytelny sposób być oznakowane jako treści wygenerowane przez sztuczną inteligencję. Wygenerowane przez instrumenty produkty będą musiały mieć w swoim modelu zastrzeżenie, by chroniły prawa autorskie i nie generowały nielegalnych treści.

Czytaj także: 

Szczegółowej ocenie będą musiały być poddane modele sztucznej inteligencji ogólnego przeznaczenia o dużym oddziaływaniu, które mogą stwarzać ryzyko systemowe. Wśród nich znajdą się zaawansowane modele jak GPT-4. Wszelkie poważne przypadki naruszeń będą rozpatrywane przez Komisję Europejską. 

Impuls do tworzenia prawa

Decydujący wpływ na rozpoczęcie negocjacji miało pojawienie się w 2022 roku systemu ChatGPT, generatora tekstu kalifornijskiej firmy OpenAI. System ten ujawnił światu ogromny potencjał sztucznej inteligencji, ale także pewne ryzyko. Przykładowo - dystrybucja fałszywych zdjęć w sieciach społecznościowych ukazała niebezpieczeństwo manipulacji opinią publiczną.

Kompromis zawarty między Parlamentem Europejskim i Radą UE przewiduje uwzględnienie rozwoju sztucznej inteligencji, ale także ograniczeń uniemożliwiających nadużywania AI. Oznaczenie wygenerowanych treści będzie leżało po stronie twórców.

Czytaj także:

Przepisy przewidują wprowadzenie szczególnego nadzoru nad systemami sztucznej inteligencji, wchodzącymi w interakcję z człowiekiem. Zmusi to do poinformowania użytkownika, że ma kontakt z maszyną.

Porozumienie przewiduje też, że prawodawstwo europejskie zostanie wyposażone w środki nadzoru i sankcje, utworzone zostanie także europejskie biuro ds. sztucznej inteligencji w Komisji Europejskiej. Za najpoważniejsze wykroczenia będą nakładane kary pieniężne w wysokości do 7 proc. obrotu, a dolna granica wynosić będzie 35 mln euro.

Co sądzi o tym ChatGPT?

O przygotowywane rozwiązanie zapytaliśmy jednego z "zainteresowanych", czyli ChatGPT. W podsumowaniu obszernej oceny wirtualne narzędzie oceniło, że "opinie na temat ustawy o sztucznej inteligencji są różne".

"Niektórzy uważają to za niezbędny krok w celu zaradzenia ryzyku związanemu z wdrażaniem sztucznej inteligencji, inni zaś wyrażają obawy dotyczące jej potencjalnego hamującego wpływu na innowacje i konkurencyjność" - czytamy w odpowiedzi dla portalu PolskieRadio24.pl.

"W miarę postępów w procesie legislacyjnym i wdrażaniu konieczne będzie monitorowanie jego wpływu i dostosowywanie go w razie potrzeby, aby osiągnąć równowagę między regulacją a wspieraniem innowacji w zakresie sztucznej inteligencji" - ocenił ChatGPT.

Postępy w tworzeniu przepisów

Pod koniec lutego br. bieżący etap prac nad przepisami opisała w rozmowie z portalem PolskieRadio24.pl brukselska korespondentka Polskiego Radia Beata Płomecka. - Przepisy dotyczące sztucznej inteligencji po trilogach (kształt przepisów ustalany jest w trakcie tzw. trilogów, czyli negocjacji trzech instytucji UE - red.) zostały zatwierdzone podczas posiedzeń komisji PE - powiedziała Płomecka. Europarlamentarne komisje rynku wewnętrznego (IMCO) i wolności obywatelskich (LIBE) zatwierdziły 20 lutego porozumienie w sprawie nowych przepisów.

Kolejnym etapem prac było przygotowanie dokumentów do głosowania podczas sesji plenarnej PE. Teraz tekst przyjętych przepisów zostanie przekazany do Rady UE do zatwierdzenia, gdzie musi zostać ostatecznie zatwierdzony. Przepisy zaczną obowiązywać 24 miesiące po ogłoszeniu w Dzienniku Legislacyjnym UE. Wtedy też staną się prawem unijnym, które będzie musiało zostać zaimplementowane w przepisach krajowych poszczególnych państw członkowskich.

Sabina Treffler

PAP/europarl.europa.eu

wmkor

Ten artykuł nie ma jeszcze komentarzy, możesz być pierwszy!
aby dodać komentarz
brak