×
MACURA | Unikalna wiedza ekspercka

Kancelaria MACURA.
ul. Odyńca 7/13
02-606 Warszawa

T: (+48) 696-011-713
M: monika.macura@kancelariamacura.pl

Zobacz nas na:
powrót
do bloga
more

AI Act a ChatGPT i General Purpose AI

Systemy sztucznej inteligencji generalnego zastosowania (tzw. GPAI), takie jak ChatGPT 3/4, Bart czy też DALL-E 2 w ostatnim czasie zyskały olbrzymią popularność. Mają one bardzo duże możliwości i mogą przynieść wiele korzyści dla społeczeństwa, jak i szeroko pojmowanego biznesu. Ich wykorzystanie budzi jednak wiele wątpliwości natury prawnej, w szczególności w zakresie prywatności, praw autorskich i odpowiedzialności. Ponadto, istotne ryzyka rodzi popularność, skala, wielkość tych modeli i ich potencjał do generowania niebezpiecznych, nieprzewidzianych lub nieprawdziwych treści.

Zagrożenia związane z GPAI

Coraz częściej pojawiają się w debacie publicznej informacje o realnych zagrożeniach związanych z istnieniem i wykorzystaniem tego typu systemów. W szczególności, omawiane duże modele językowe miewają „halucynacje”, w konsekwencji generując błędne lub fałszywe informacje, jednocześnie prezentując je użytkownikowi jako informacje w pełni prawdziwe i prawidłowe.

Należy także zauważyć, że mimo wprowadzenia wewnętrznych polityk, mających na celu zapewnienie generowania jedynie bezpiecznych i zgodnych z prawem treści, pojawiają się luki pozwalające omijać te zabezpieczenia (np. tzw. „DAN” wykorzystywany w ramach ChatGPT).

Tymczasem systemy te bez odpowiedniej kontroli mają dużą zdolność do generowania treści dyskryminujących, nieetycznych czy nawet niebezpiecznych. W konsekwencji istnieje także ryzyko wykorzystywania możliwości systemów generalnego zastosowania do wsparcia działalności nieetycznej lub nawet przestępczej.

Do powyższych ryzyk dochodzą dodatkowo problemy z potencjalną dyskryminacją, wyjaśnialnością, prywatnością czy bezpieczeństwem danych.

Świadomość ryzyk związanych z systemami AI generalnego zastosowania staje się także (tak jak i same systemy GPAI) coraz bardziej medialna. Szeroki echem odbił się otwarty apel podpisany m.in. przez Elona Muska, do czasowego wstrzymania prac na sztuczną inteligencją.

Systemy GPAI budzą również coraz większe zainteresowanie wśród różnego rodzaju organów nadzoru. W tym kontekście nie sposób przejść obok niedawnej, głośnej decyzji włoskiego organu ochrony danych osobowych, który postanowił czasowo zakazać przetwarzania przez OpenAI danych osobowych włoskich użytkowników.

Regulacje prawne w zakresie GPAI

Nie ulega zatem wątpliwości, że tego typu duże modele językowe mogą stwarzać istotne ryzyko m.in pod względem społecznym i etycznym.

Odpowiedzią na przynajmniej część omawianych ryzyk ma być obecnie procedowane na forum Unii Europejskiej rozporządzenie Artificial Intelligence Act (AI Act), (o który to pisałem w artykule AI act- krótki przegląd kluczowych elementów rozporządzenia).

Oczywiście wiele problemów związanych z systemami AI, w tym z systemami GPAI, nie będzie bezpośrednio adresowane przez AI Act. W szczególności należy zwrócić uwagę na odrębną inicjatywę prawodawczą w zakresie odpowiedzialności za AI, którą opisałem w artykule Odpowiedzialność cywilna za sztuczną inteligencję – projekt dyrektywy w sprawie odpowiedzialności AI. Co więcej, już teraz systemy sztucznej inteligencji, w tym i GPAI, podlegają szeregu istniejącym regulacjom prawnym m.in. z zakresu praw autorskich czy prywatności (co na marginesie także budzi wiele problemów i wątpliwości prawnych).

Niemniej to AI Act ma stanowić główne ramy regulacyjne dla zapewniania, że wdrażane i wykorzystywane w Unii Europejskiej systemy sztucznej inteligencji będą godne zaufania – stanowić będą tzw. Trustworthy AI.

Okazało się jednak, że AI Act w pierwotnym kształcie, może nie odpowiadać na problemy i wyzwania związane z modelami AI generalnego zastosowania typu ChatGPT. Tego typu systemy nie mają bowiem jednego, określonego zakresu zastosowania, a tym samym wymykają się przyjętej propozycji definicji systemu AI wysokiego ryzyka, która oparta jest właśnie na kryterium zamierzonego celu użytkowania systemu. Problem ten został dostrzeżony podczas prac nad AI Act w Radzie Unii Europejskiej i w konsekwencji zaproponowana została nowa kategoria systemów określanych jako General Purpose AI.

General purpose AI

W uproszczeniu za GPAI uznany miałby być system AI, który jest przeznaczony przez dostawcę do wykonywania powszechnie stosowanych funkcji, takich jak:

  • rozpoznawanie obrazu i mowy;
  • generowanie dźwięku i obrazu;
  • wykrywanie wzorców;
  • odpowiadanie na pytania;
  • tłumaczenie i inne.

Zgodnie z przyjętymi założeniami system GPAI mógłby być wykorzystywany w wielu kontekstach i być zintegrowany z wieloma innymi systemami AI (w tym systemami wysokiego ryzyka).

Ponadto, w kontekście kwalifikacji danego systemu jako GPAI, bez znaczenia miałby pozostawać fakt, jak taki system został wprowadzony na rynek lub do użytku (w tym definicja ta obejmowałaby oprogramowanie typu open-source). Należy zatem zauważyć, że system general purpose AI został zdefiniowany w projekcie AI Act w sposób szeroki.

Wymogi stawiane systemom GPAI

Zgodnie z przedstawioną propozycją, systemy GPAI kwalifikowane miałyby być co do zasady jako AI o ograniczonym ryzyku. Część wymagań związanych z m.in. zakazanymi praktykami, jak i zasadami transparentności miałaby zatem zastosowanie do wszystkich systemów GPAI, niezależnie od potencjalnego celu ich zastosowania.

Natomiast za systemy GPAI podlegające bardziej restrykcyjnym wymogom, uznane zostałaby jedynie te systemy, które mogą stanowić system wysokiego ryzyka lub komponent takiego sytemu.

Wprowadzając odpowiednie regulacje w odniesieniu do AI generalnego zastosowania, uznano zatem że system GPAI podlegać powinien pośrednio wybranym wymogom, przewidzianym dla systemów AI wysokiego ryzyka, jeśli taki system może być wykorzystywany jako system AI wysokiego ryzyka lub też jako element składowy takiego systemu. Wymagania te w stosunku do GPAI miałyby być stosowane w sposób pośredni. Odpowiedni akt wykonawczy określałby bowiem sposób stosowania tych określonych wymagań w odniesieniu do systemów GPAI, biorąc pod uwagę m.in.:

  • specyficzne cechy tych systemów;
  • wykonalność techniczną (technical feasibility);
  • specyfikę łańcucha wartości AI;
  • oraz rozwój rynku i technologii.

Dodatkowo, dostawcy tego typu systemów GPAI mieliby przejść odpowiednią procedurę oceny zgodności, dokonanej na podstawie właściwego, wewnętrznego systemu kontroli, jak również i sporządzić oraz przechowywać odpowiednią dokumentację techniczną. Co istotne, w przypadku bezpośredniego, wyraźnego i dokonanego w dobrej wierze wyłączenia przez dostawcę zastosowania systemu GPAI do celów obejmujących wysokie ryzyko, system taki nie podlegałby omawianym powyżej bardziej restrykcyjnym wymogom.

Przyszły kształt AI Act w zakresie regulacji systemów GPAI

Biorąc pod uwagę szereg kontrowersji i rosnące obawy co do ryzyk związanych z systemami GPAI, zaproponowane w AI Act postanowienia obejmujące omawianą problematykę mogą ulec jeszcze zmianom. W szczególności w stosunku do tzw. General Purpose AI ustanowione mogą zostać bardziej restrykcyjne wymagania i obowiązki. Być może GPAI zostanie uznane nawet za sztuczną inteligencję wysokiego ryzyka i tym samym objęte całością najdalej idących wymogów przewidzianych przez AI Act.

Z drugiej strony należy zauważyć, że nie każdy system GPAI wiązać się będzie z wysokim ryzykiem. Stąd zwraca się także uwagę, że jedynie niektóre systemy GPAI, takie jak wspomniany ChatGPT, powinny podlegać tak daleko idącym regulacjom. Nadal prawdopodobny jest zatem scenariusz, w którym to systemy GPAI będą podlegać regulacjom zbliżonym do pierwotnej propozycji Rady Unii Europejskiej.

Wciąż nie ma jednak pewności, jak ostatecznie uregulowana zostanie wspomniana kwestia General Puprose AI. Aby zatem poznać ostateczny kształt regulacji w tym zakresie musimy poczekać na finalną wersję aktu. Pozostaje mieć nadzieję, że przyjęte regulacje będą w odpowiedni sposób wyważone i z jednej strony pozwolą ograniczyć ryzyko powiązane z tego typu systemami, a z drugiej nie spowodują zahamowania innowacji i rozwoju sztucznej inteligencji w Unii Europejskiej.

Wydaje się przy tym, że powoli zbliżamy się do końca procesu prawodawczego nad AI Act i na poziomie Unii Europejskiej istnieje polityczna wola do przyspieszenia prac i sprawnego przyjęcia tych regulacji. W tym kontekście warto zwrócić uwagę, że na 26 kwietnia 2023r. wyznaczono termin głosowania nad raportem połączonych komisji IMCO i LIBE w zakresie AI Act.

czytaj również