Technologiczna rewolucja a prawo: regulacje związane ze sztuczną inteligencją

Jak już wielokrotnie wspominaliśmy w naszych artykułach, sztuczna inteligencja (AI) jest jedną z najbardziej dynamicznie rozwijających się technologii. Jej zastosowanie można znaleźć w coraz szerszym zakresie, od automatyzacji procesów biznesowych po obsługę klientów. AI jest wszechobecna w codziennym życiu każdego z nas – o czym możecie poczytać tutaj

Jednak warto pamiętać, że wraz z rozwojem AI pojawia się również szereg wyzwań natury prawnej. Niektóre z nich to:

  • – Wyzwania związane z ochroną danych osobowych: systemy AI często wykorzystują dane osobowe, co może rodzić ryzyko naruszeń prywatności;
  • – Wyzwania związane z odpowiedzialnością: w przypadku, gdy system AI wyrządzi jakąś szkodę, trudno może być ustalić, kto ponosi za to odpowiedzialność;
  • – Wyzwania związane z dyskryminacją: systemy AI mogą być wykorzystywane w sposób dyskryminujący, np. w stosunku do osób o określonym pochodzeniu etnicznym lub płci.

To tylko kilka z przykładów problematycznych kwestii prawnych związanych ze sztuczną inteligencją. Krajowe i międzynarodowe organizacje rządowe starają się uregulować ten obszar, choć to zadanie nie należy do najłatwiejszych ze względu chociażby na tempo rozwoju tej dziedziny. Pojawiają się opinie, że firmy zajmujące się AI powinny wstrzymać się z jej rozwojem na kilka miesięcy, żeby regulacje prawne mogły “dogonić” ten rozwój. Twierdził tak np. Elon Musk, który już w 2017 roku apelował, że należy wprowadzić regulacje prawne w zakresie sztucznej inteligencji. Niektórzy natomiast w tym czasie twierdzili, że ten obszar jest jeszcze na to za mało rozwinięty. Jednak po kilku latach wiadomo, że sztuczna inteligencja powinna być uregulowana prawnie, żeby mogła być wykorzystywana bezpiecznie i odpowiedzialnie. Przede wszystkim ważne jest bezpieczeństwo ludzi, ponieważ bez ustandaryzowanego stanu prawnego AI może być wykorzystana przykładowo do manipulowania ludźmi lub tworzenia dezinformacji. 

Według 2023 AI Index Report, widoczny jest wzrost ilości projektów ustaw regulujących wykorzystanie sztucznej inteligencji – w 127 badanych krajach w 2016 roku sztuczna inteligencja była wspomniana w projektach ustaw zaledwie raz, a w 2022 roku tego wyrażenia użyto 37 razy.

Zapraszamy do dalszej części artykułu, w której dowiecie się, jakie kroki poczyniono w kierunku prawnego usystematyzowania obszaru sztucznej inteligencji.

Regulacje międzynarodowe

Wiele międzynarodowych organizacji tworzy zbiory zasad, które mają na celu wsparcie rozwoju sztucznej inteligencji i jej odpowiedzialnego wykorzystania. Zasady takich organizacji są wytycznymi dla ich państw członkowskich wskazującymi na to, jak AI powinno być rozwijane.

Jedną z pierwszych organizacji założonych w celu (między innymi) regulowania kwestii sztucznej inteligencji jest GPAI – The Global Partnership on Artificial Intelligence. Samo GPAI zostało założone w czerwcu 2020 roku, jednak plan stworzenia takiej organizacji został przedstawiony w grudniu 2018 roku przez Francję i Kanadę. Obecnie w skład tej organizacji wchodzi 29 członków (w tym Polska). GPAI jest wspierana przez Organizację Współpracy Gospodarczej i Rozwoju (ang. The Organisation for Economic Co-operation and Development – OECD). Celem GPAI jest wspomaganie międzynarodowej współpracy, stworzenie globalnego punktu odniesienia dla kwestii związanych ze sztuczną inteligencją oraz promowanie zaufania do AI. GPAI działa w czterech płaszczyznach: odpowiedzialna AI, zarządzanie danymi, przyszłość pracy oraz innowacje i komercjalizacja.

Różne inne organizacje również stworzyły zbiory zasad dotyczące sztucznej inteligencji. Wspomniana już Organizacja Współpracy Gospodarczej i Rozwoju (OECD) wprowadziła w maju 2019 roku OECD AI Principles. Jest to zbiór zasad promujący wykorzystanie sztucznej inteligencji w sposób zgodny z założeniami demokracji, odpowiedzialny, szanujący prawa człowieka. Niedługo po tym (w czerwcu 2019) swój zbiór zasad wprowadziła także grupa G20. Światowe Forum Ekonomiczne we wrześniu 2019 roku wydało AI Government Procurement Guidelines. Podmioty Organizacji Narodów Zjednoczonych (np. UNICRI, UNESCO) również zajmują się kwestią uregulowania wykorzystania sztucznej inteligencji. Jedną z inicjatyw Międzynarodowego Związku Telekomunikacyjnego (który także jest organizacją działającą w ramach ONZ) jest platforma AI for Good, działająca na rzecz rozwiązania globalnych problemów związanych ze sztuczną inteligencją.

W miarę jak rozwijające się technologie sztucznej inteligencji stają się coraz bardziej wpływowe i powszechne, pojawia się coraz większa potrzeba wprowadzenia regulacji prawnych w celu kontrolowania i kształtowania tego obszaru. Jak widać w powyższych przykładach, globalne organizacje zdają sobie sprawę z tej potrzeby i działają aktywnie, aby opracować zbiory zasad, które promują odpowiedzialne i zrównoważone wykorzystanie sztucznej inteligencji.

Unia Europejska

Unia Europejska również pracuje nad uregulowaniem pod względem prawnym wykorzystania sztucznej inteligencji. 21 kwietnia 2021 zaproponowano pierwsze ramy Artificial Intelligence Act (AI Act), czyli aktu ws. sztucznej inteligencji, a 14 czerwca 2023 roku przedstawiono wersję projektu do negocjacji z państwami członkowskimi UE. Szacuje się, że do końca 2023 roku zostanie osiągnięte porozumienie w sprawie ostatecznego kształtu tej ustawy oraz że wejdzie ona w życie w 2024 roku. Przepisy zawarte w tym akcie są uważane za najbardziej kompleksowe na świecie, a jeśli cała procedura ich wprowadzenia w życie zakończy się powodzeniem, to wyznaczy to nowe, globalne standardy nadzorowania wykorzystania sztucznej inteligencji.

Co ciekawe, podstawowa informacja w projekcie rozporządzenia, czyli definicja sztucznej inteligencji, jest bardzo szeroka i według prawników może stwarzać najwięcej problemów w interpretacji – według unijnych przepisów, systemy sztucznej inteligencji to systemy, które są (w różnym stopniu) autonomiczne, a więc zdolne do wykonywania różnych czynności bez pomocy człowieka. Zrezygnowano z określenia, na jakich technikach może się opierać sztuczna inteligencja, aby stworzyć obszerny zakres technologii, które będą podlegały przepisom zawartym w AI Act.

Według informacji na stronie Parlamentu Europejskiego, główną motywacją dla stworzenia aktu ws. sztucznej inteligencji jest uczynienie technologii na niej opartych bezpiecznymi, przejrzystymi, identyfikowalnymi, niedyskryminującymi i przyjaznymi dla środowiska – w tym celu systemy AI powinny być nadzorowane przez ludzi.

AI Act nakłada obowiązki na dostawców usług lub produktów opartych na sztucznej inteligencji według grup ryzyka: grupa systemów AI o niedopuszczalnym ryzyku, grupa systemów AI o wysokim ryzyku oraz grupa systemów AI o ograniczonym ryzyku.

Systemy o niedopuszczalnym ryzyku to takie, które stwarzają zagrożenie dla ludzi. Zostaną one całkowicie zakazane. Przykłady takich systemów to technologie manipulujące zachowaniem ludzi (np. zabawki zachęcające dzieci do niebezpiecznych zajęć), systemy klasyfikujące lub oceniające ludzi oraz systemy identyfikujące ludzi w czasie rzeczywistym za pomocą technologii biometrycznych (systemy identyfikujące z opóźnieniem będą mogły być używane do ścigania przestępców jedynie po zgodzie sądu).

Grupa systemów sztucznej inteligencji o wysokim ryzyku obejmuje systemy, które wpływają na bezpieczeństwo lub podstawowe prawa ludzi. Według informacji zawartej na stronie Parlamentu Europejskiego, ta grupa dzieli się na dwie podgrupy:

1) Systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. To np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) Systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych:

  • – Biometryczna identyfikacja i kategoryzacja osób fizycznych.
  • – Zarządzanie i eksploatacja infrastruktury krytycznej.
  • – Edukacja i szkolenie zawodowe.
  • – Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia.
  • – Dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych.
  • – Ściganie przestępstw.
  • – Zarządzanie migracją, azylem i kontrolą granic.
  • – Pomoc w interpretacji prawnej i stosowaniu prawa.

Systemy o wysokim ryzyku będą podlegały kontroli przed wprowadzeniem na rynek i przez cały okres ich utrzymania.

Systemy o ograniczonym ryzyku powinny być przejrzyste – użytkownik musi się dowiedzieć, że ma do czynienia ze sztuczną inteligencją, dopiero po uzyskaniu tej świadomości powinien zdecydować, czy chce korzystać z takiego systemu. Systemy o ograniczonym ryzyku to np. systemy generujące lub modyfikujące obrazy lub treści audio i video.

Na stronie Parlamentu Europejskiego podana jest też informacja odnosząca się ściśle do generatywnej sztucznej inteligencji, czyli np. dużych modeli językowych. Systemy oparte na tej technologii będą musiały spełniać kilka warunków przejrzystości:

  • – Użytkownik powinien być informowany o tym, że treść jest generowana przez sztuczną inteligencję;
  • – Modele będą musiały być zaprojektowane tak, aby nie generowały nielegalnych treści;
  • – Producenci będą zobowiązani do publikowania podsumowań dotyczących danych objętych prawem autorskim, na których modele będą trenowane.

Akt w sprawie sztucznej inteligencji zakłada także kary za niedostosowanie się do przepisów. W zależności od stopnia naruszenia tego prawa, kary mogą wynosić od 10 do 40 milionów euro lub od 2% do 7% rocznego światowego obrotu firmy. Kwoty są wysokie, ważne jest więc, aby firmy związane w jakikolwiek sposób ze sztuczną inteligencją rozumiały wszelkie przepisy zawarte w akcie.

Wprowadzenie w życie przez Unię Europejską aktu w sprawie sztucznej inteligencji to ambitny i skomplikowany projekt. Ważne jest prawne uregulowanie wykorzystania AI, jednak specjaliści obawiają się przyszłych skutków tak rozbudowanych przepisów. Po pierwsze, jak już wspomnieliśmy, definicja sztucznej inteligencji będzie bardzo szeroko zakrojona, co może prowadzić do problemów z interpretacją, co według unijnego prawa jest sztuczną inteligencją, a co nie jest. Po drugie, pojawiają się opinie, że nadzór ludzki np. nad modelami językowymi będzie w najlepszym wypadku utrudniony – takie modele są uczone na podstawie danych pozyskanych ze zbyt wielu źródeł, aby mogły być one skontrolowane przez ludzi (jeśli w ogóle to będzie możliwe, to potrzeba będzie do tego wielu pracowników i tysięcy przepracowanych godzin). Dodatkowo, chociaż architektura modeli językowych jest znana i wiadomo, na jakiej zasadzie one działają (polecamy nasz artykuł na ten temat), to czasami nie do końca wiadomo, jak dany model dochodzi do jakiegoś wniosku, co także utrudnia kontrolowanie modelu przez człowieka. To tylko niektóre z powodów, dla których producenci technologii sztucznej inteligencji obawiają się, czy w ogóle będą w stanie spełnić wymagania aktu o AI.

Często komentowaną implikacją unijnego prawa dotyczącego sztucznej inteligencji jest jeden z obecnie zakwalifikowanych jako niedopuszczalnych systemów – system identyfikacji biometrycznej w czasie rzeczywistym. Takie systemy miały być dopuszczone do użytku i to na podstawie decyzji administracyjnych (czyli niepotrzebna by była do tego zgoda sądu), lecz właśnie 14 czerwca 2023 zrezygnowano z takiej kwalifikacji. Osoby będące za tym, aby zakazać używania takich systemów, tłumaczyły swoje poglądy tym, że te systemy mogą być wykorzystywane do represjonowania ludzi, np. na demonstracjach. Co więcej, Niemcy chcą zakazu używania takich systemów nie tylko przez instytucje państwowe, ale także przez podmioty prywatne.

Wśród ludzi zajmujących się sztuczną inteligencją pojawiają się również opinie, że jednym z efektów wprowadzenia w życie europejskiego aktu ws. AI będzie stworzenie jeszcze większej biurokracji dla firm zajmujących się tą technologią. AI Act może również wpływać na tempo rozwoju sztucznej inteligencji w państwach UE – niektórzy obawiają się jego spowolnienia, a tym samym “bycia w tyle” za innymi państwami pod względem rozwoju.

Regulacje poszczególnych państw

Rozpowszechnienie w ostatnim czasie sztucznej inteligencji, w tym generatywnej sztucznej inteligencji, spowodowało, że nie tylko międzynarodowe organizacje, ale też poszczególne państwa zaczęły działać w kierunku usystematyzowania prawnego tej dziedziny. Warto w tym miejscu zaznaczyć, że poszczególne kraje podchodzą do tego w zróżnicowany sposób.

Niektóre z państw po prostu czekają, żeby zobaczyć, jak dalej będą się rozwijały technologie sztucznej inteligencji. W takich przypadkach, jeśli przyjmują jakąkolwiek politykę, to jest ona dość ogólnikowa. Jest tak na przykład w Izraelu, gdzie opublikowano projekt przepisów dotyczących AI. Projekt ten jest uznawany za mało precyzyjny, ponieważ nie ma w nim ściśle określonych norm, a ogólne zasady. Przykładowo, stwierdzono tam, że rozwój i wykorzystanie AI powinno być zgodne z podstawowymi prawami publicznymi, godnością i prywatnością człowieka. Niejasno stwierdza się też, że należy podejmować środki zgodnie z przyjętymi zasadami zawodowymi, aby zapewnić, że produkty AI są wykorzystywane w bezpieczny sposób. Podobne podejście przyjęte jest w Japonii. Dodatkowo, w tym kraju dostosowane są inne, poprzednie ustawy, tak aby znalazły zastosowanie również w przypadku AI – na przykład tamtejsze prawo dotyczące praw autorskich zostało w 2018 roku skorygowane tak, aby treści objęte tym prawem mogły być używane do analizy danych. 

Ciekawe podejście do sztucznej inteligencji przyjęły Włochy. W marcu 2023 w tym kraju tymczasowo zablokowano dostęp do ChatGPT ze względu na wykorzystywanie danych obywateli tego narodu i dostęp do nieodpowiednich treści dla nieletnich. OpenAI musiało wprowadzić zmiany sugerowane przez włoski rząd (np. wprowadzić weryfikację wieku użytkowników i dodać opcję rezygnacji ze zbierania danych użytkowników przez ChatGPT). Włoska polityka skupia się na kwestiach związanych z ewentualnym zastąpieniem niektórych zawodów przez zautomatyzowane procesy, w tym przez sztuczną inteligencję. Od czasu zablokowania ChatGPT, ten kraj przeznaczył około 33 miliony euro na wsparcie pracowników, których stanowiska są zagrożone przez transformację cyfrową, w tym przez sztuczną inteligencję.

Są też kraje, które starają się wprowadzić lub są w trakcie wprowadzania szczegółowych przepisów dotyczących AI. Najbardziej zaawansowane w tym aspekcie są Chiny, które są w trakcie wprowadzania szeregu regulacji, np. Planu Rozwoju Sztucznej Inteligencji do 2030 roku czy Rozporządzenia o zarządzaniu sztuczną inteligencją. Chiny szczególnie celują w uregulowanie kwestii związanych z algorytmicznymi rekomendacjami, manipulacją obrazami lub video, rozpoznawaniem biometrycznym, bezpieczeństwem danych i treścią generowaną przez AI. Innym krajem, który pracuje nad uregulowaniem sztucznej inteligencji jest Brazylia. Tamtejszy projekt przepisów jest podobny do tego stworzonego przez Unię Europejską (również zakłada 3 grupy ryzyka związanego z AI). Nie możemy pominąć także Stanów Zjednoczonych – stan prawny sztucznej inteligencji w USA jest wciąż w fazie rozwoju. Obecnie nie ma tam jednego obszernego i uniwersalnego aktu, lecz istnieje szereg innych stosowanych praw (np. National AI Research and Development Strategic Plan), jednak Biały Dom pracuje nad Blueprint for the Development, Use and Deployment of Automated Systems (Blueprint for an AI Bill of Rights). Dokument ten określa pięć zasad, które powinny być przestrzegane przy rozwoju, używaniu i wdrażaniu zautomatyzowanych systemów, w tym systemów AI. Nie jest to prawnie wiążący dokument, ale stanowi ważny krok w kierunku opracowania kompleksowych regulacji dotyczących AI w USA. Może on posłużyć jako podstawa do tworzenia nowych przepisów lub modyfikowania już istniejących w celu zapewnienia, że zautomatyzowane systemy są wykorzystywane w sposób bezpieczny, etyczny i odpowiedzialny. Uznaje się, że będzie to najbardziej obszerny zbiór zasad dla wykorzystania sztucznej inteligencji w Stanach Zjednoczonych, porównywalny do europejskiego aktu ws. sztucznej inteligencji.

Polska

Jeśli chodzi o naszą ojczyznę, to oczywiście po wejściu w życie europejskich przepisów będą one obowiązywały także w Polsce. Oprócz tego, Polska jest w trakcie tworzenia Polityki rozwoju AI, która będzie wspierała międzynarodowe regulacje, np. te stworzone przez UE i OECD. Według Serwisu Rzeczypospolitej Polskiej, Polska chce wykorzystać szanse, jakie daje sztuczna inteligencja dla gospodarki. Oszacowano, że dzięki rozwojowi AI PKB będzie wzrastać o 2.65 punktów procentowych każdego roku, a do 2030 roku 49% czasu pracy w Polsce zostanie zautomatyzowane, co przełoży się na lepiej płatne miejsca pracy. 

Dokument Polityka rozwoju AI w Polsce zawiera ponad 200 działań, które mają wspierać różne aspekty stosowania sztucznej inteligencji – łącznie ze wsparciem finansowym i zmianami regulacyjnymi. W tym dokumencie podzielono działania i cele, które będą miały wpływ na obszar sztucznej inteligencji w Polsce w perspektywie krótkoterminowej (do 2023 r.), średnioterminowej (do 2027 r.) i długoterminowej (po 2027 r.). Działania i cele podzielono na 6 obszarów: społeczeństwo, innowacyjne firmy, nauka, edukacja, współpraca międzynarodowa i sektor publiczny. Według serwisu RP dokument ma wspierać nie tylko międzynarodowe, prawne czy technologiczne aspekty rozwoju AI, ale też etyczne. 19 stycznia 2022 roku powołano zespół zadaniowy do spraw realizacji Polityki rozwoju AI w Polsce

Podsumowanie

Sztuczna inteligencja to szybko rozwijająca się technologia, która ma potencjał do transformacji wielu dziedzin życia. Rozwój AI niesie za sobą zarówno korzyści, jak i zagrożenia, dlatego ważne jest, aby prawnie zapewnić jej bezpieczne wykorzystanie. Regulacja prawna AI jest w toku zarówno w zakresie prawa międzynarodowego, jak i krajowego. Państwa na całym świecie pracują nad wprowadzeniem przepisów prawnych, które zapewnią, że AI jest wykorzystywana w sposób etyczny i bezpieczny dla społeczeństwa. Warto mieć na uwadze fakt, że rozwój regulacji prawnych dotyczących AI jest procesem ciągłym. Wraz z dynamicznym rozwojem tej technologii, regulacje te będą musiały być dostosowywane do nowych wyzwań i zagrożeń.