i
Ta strona została przetłumaczona maszynowo przez serwis eTranslation Komisji Europejskiej, aby ułatwić Ci zrozumienie treści tekstu w języku obcym. Zapoznaj się z warunkami korzystania z serwisu.
Lista tych najczęściej zadawanych pytań (FAQ) została opracowana na podstawie pytań otrzymanych podczas webinariów AI Pact oraz zgłoszeń od zainteresowanych stron. Lista ta będzie regularnie aktualizowana w razie potrzeby.
Termin „agent sztucznej inteligencji” jest często stosowany w sposób niespójny w debacie publicznej, częściowo ze względu na rozmyte i wciąż zmieniające się rozgraniczenie między agentami sztucznej inteligencji a innymi rodzajami sztucznej inteligencji. Istnieje jednak powszechna zgoda co do tego, że agent sztucznej inteligencji musi mieć możliwość odbierania i przetwarzania danych wejściowych ze swojego środowiska oraz wykonywania działań opartych na tym przetwarzaniu, które mogą wchodzić w interakcje z jego środowiskiem lub wpływać na nie (np. wydawanie wywołań funkcyjnych). Termin „agentyczna sztuczna inteligencja” jest czasami używany do opisania bardziej wyrafinowanych konfiguracji, które integrują wiele czynników sztucznej inteligencji. Niemniej jednak dokładny związek między tymi dwoma pojęciami wciąż ewoluuje.
Zazwyczaj agent sztucznej inteligencji będzie zawierał co najmniej model sztucznej inteligencji ogólnego przeznaczenia (GPAI) i będzie stanowił system sztucznej inteligencji, ponieważ zwykle będzie miał jakąś formę interfejsu, który jest uważany za element systemu (motyw 97 aktu w sprawie sztucznej inteligencji). Trudno jest sformułować bardziej precyzyjne stwierdzenie niż „zazwyczaj”, ponieważ termin „agent sztucznej inteligencji” nie jest prawnie zdefiniowany i jest używany potocznie w odniesieniu do różnych rodzajów artefaktów. W związku z tym, chociaż podmioty zajmujące się sztuczną inteligencją nie są odrębną kategorią sztucznej inteligencji na podstawie aktu w sprawie sztucznej inteligencji, definicje systemu sztucznej inteligencji zawarte w art. 3 ust. 1 aktu w sprawie sztucznej inteligencji i modelu sztucznej inteligencji ogólnego przeznaczenia zawarte w art. 3 pkt 63 aktu w sprawie sztucznej inteligencji są wystarczające, aby objąć nimi podmioty zajmujące się sztuczną inteligencją. Oznacza to, że przepisy mające zastosowanie do systemów sztucznej inteligencji i modeli sztucznej inteligencji ogólnego przeznaczenia na podstawie aktu w sprawie sztucznej inteligencji mają również zastosowanie do agentów sztucznej inteligencji.
Wśród przepisów dotyczących systemów sztucznej inteligencji szczególnie istotne są zawarte w akcie w sprawie sztucznej inteligencji zakazy szkodliwych manipulacji i wykorzystywania podatności (art. 5 ust. 1 lit. a) i b) aktu w sprawie sztucznej inteligencji), których przestrzeganie może wymagać zabezpieczeń przy projektowaniu i opracowywaniu agentów sztucznej inteligencji w celu uniknięcia zakazanych praktyk, co do których istnieje uzasadnione prawdopodobieństwo, że spowodują znaczne szkody. Począwszy od dnia 2 sierpnia 2026 r., jeżeli agent sztucznej inteligencji klasyfikuje się jako system sztucznej inteligencji wysokiego ryzyka, podlega on również dodatkowym wymogom, które zapewniają jego bezpieczeństwo i wiarygodność w odniesieniu do zamierzonego zastosowania (rozdział III aktu w sprawie sztucznej inteligencji). Ponadto jeżeli agent sztucznej inteligencji ma wchodzić w interakcje z osobami fizycznymi lub generować treści, zastosowanie będą miały zasady przejrzystości (art. 50 aktu w sprawie sztucznej inteligencji) – opracowywany jest kodeks postępowania mający na celu wdrożenie tych zasad.
Jeżeli chodzi o modele sztucznej inteligencji ogólnego przeznaczenia, na których zazwyczaj opierają się czynniki sztucznej inteligencji, czynniki takie jak poziom autonomii lub wykorzystanie modelu jako narzędzia mogą mieć decydujące znaczenie dla wyznaczenia modelu jako modelu o ryzyku systemowym (art. 51 ust. 1 lit. b) załącznika XIII lit. e) do aktu w sprawie sztucznej inteligencji). Ponadto dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym podlegają obowiązkom w zakresie zarządzania ryzykiem, które obejmują względy dotyczące autonomicznych zdolności modelu i jego agentycznego wykorzystania (uruchomione na przykład w działaniu 5.1 pkt 7, dodatku 1.3.1, pkt 5 i 7, dodatku 1.3.3, pkt 1, 4 i 12 lub dodatku 3.2 akapit drugi, rozdział kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia dotyczący bezpieczeństwa i ochrony).
Biorąc pod uwagę, że zmiany związane z agentami sztucznej inteligencji są niedawne i szybko ewoluują, rozważania regulacyjne Komisji Europejskiej są dopiero wstępne na tym etapie. Urząd ds. Sztucznej Inteligencji nadal uważnie monitoruje te zmiany i w razie potrzeby rozważy opracowanie strategii przeciwdziałania potencjalnym zagrożeniom stwarzanym przez podmioty zajmujące się sztuczną inteligencją. Na przykład niedawne zaproszenie do składania ofert przez Urząd ds. Sztucznej Inteligencji dotyczące pomocy technicznej w zakresie bezpieczeństwa sztucznej inteligencji obejmuje część poświęconą ocenie bezpieczeństwa i ochrony agentów sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji wszedł w życie 1 sierpnia 2024 r. Jest to następstwem stopniowego rozpoczęcia stosowania, przy czym niektóre części mają już zastosowanie, takie jak niektóre zakazy, umiejętność korzystania ze sztucznej inteligencji i przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia. Pozostałe części ustawy mają być stosowane w dniach 2 sierpnia 2026 r. i 2 sierpnia 2027 r.
Ten progresywny rozwój pozwala nam korzystać z doświadczeń zebranych podczas stosowania pierwszej części przepisów. Komisja jest zdecydowana stale uczyć się i intensyfikować swoje wysiłki. Jest to szczególnie ważne w kontekście szybko rozwijającej się technologii, takiej jak sztuczna inteligencja.
Konsultacje z zainteresowanymi stronami w 2025 r. ujawniły wyzwania związane z wdrażaniem, którymi należy się zająć, aby można było skutecznie wdrożyć akt w sprawie sztucznej inteligencji. W niniejszym wniosku proponuje się zmiany legislacyjne w tym zakresie i uzupełnia się bieżące wysiłki na rzecz ułatwienia przestrzegania aktu w sprawie AI, takie jak uruchomienie punktu obsługi ds. aktu w sprawie AI.
Komisja zobowiązała się do jasnego, prostego i sprzyjającego innowacjom wdrożenia aktu w sprawie sztucznej inteligencji, jak określono w planie działania na rzecz sztucznej inteligencji na kontynencie oraz w strategii dotyczącej stosowania sztucznej inteligencji. Wniosek Komisji dostosowuje akt w sprawie sztucznej inteligencji do tego podejścia poprzez:
Powiązanie, w przypadku gdy przepisy mają zastosowanie, z dostępnością wsparcia
- Powiązanie stosowania przepisów dotyczących sztucznej inteligencji wysokiego ryzyka z dostępnością narzędzi wsparcia, takich jak normy. Komisja dostosowuje harmonogram stosowania zasad wysokiego ryzyka do maksymalnie 16 miesięcy.
Wprowadzenie uproszczenia:
- rozszerzenie niektórych uproszczonych sposobów wypełniania obowiązków prawnych przez MŚP na małe spółki o średniej kapitalizacji, takich jak uproszczona dokumentacja techniczna;
- Zobowiązanie Komisji i państw członkowskich do rozwijania umiejętności korzystania ze sztucznej inteligencji i zapewnienia ciągłego wsparcia przedsiębiorstwom poprzez wykorzystanie istniejących wysiłków (takich jak repozytorium praktyk Urzędu ds. Sztucznej Inteligencji w zakresie umiejętności korzystania ze sztucznej inteligencji) zamiast egzekwowania nieokreślonych obowiązków operatorów, przy jednoczesnym utrzymaniu obowiązków szkoleniowych dla podmiotów wdrażających wysokiego ryzyka.
- zniesienie obowiązku opracowania zharmonizowanego planu monitorowania po wprowadzeniu do obrotu, co zapewni przedsiębiorstwom większą elastyczność;
- Zmniejszenie obciążeń związanych z rejestracją systemów sztucznej inteligencji wykorzystywanych w obszarach wysokiego ryzyka do zadań, których nie uznaje się za obarczone wysokim ryzykiem.
Poprawa skuteczności zarządzania aktem w sprawie sztucznej inteligencji:
- scentralizowanie nadzoru nad systemami AI opartymi na modelach AI ogólnego przeznaczenia z Urzędem ds. AI w celu zmniejszenia fragmentacji zarządzania dla twórców tych modeli i systemów;
- Koncentracja nadzoru nad sztuczną inteligencją osadzoną w bardzo dużych platformach internetowych i wyszukiwarkach internetowych na szczeblu Komisji poprzez powierzenie tego nadzoru Urzędowi ds. Sztucznej Inteligencji.
Rozszerzenie środków wspierających przestrzeganie przepisów:
- umożliwienie dostawcom i podmiotom wdrażającym przetwarzania szczególnych kategorii danych osobowych w celu zapewnienia wykrywania i korygowania stronniczości, z zastrzeżeniem odpowiednich zabezpieczeń;
- Szersze wykorzystanie piaskownic regulacyjnych w zakresie AI i testów w warunkach rzeczywistych, tak aby więcej innowatorów mogło skorzystać z tych narzędzi. Obejmuje to ustanowienie piaskownicy regulacyjnej na szczeblu UE od 2028 r. w celu wspierania testów w warunkach rzeczywistych.
Usprawnienie procedur i funkcjonowania aktu w sprawie sztucznej inteligencji:
- Wyjaśnienie wzajemnych zależności między aktem w sprawie sztucznej inteligencji a innymi przepisami UE. Uproszczenie procedur w celu zwiększenia terminowej dostępności jednostek oceniających zgodność.
Zgodnie z pierwszymi szacunkami Komisji oczekuje się, że proponowane środki dotyczące sztucznej inteligencji zmniejszą koszty przestrzegania przepisów ponoszone przez przedsiębiorstwa w całej UE.
Jednocześnie, rozszerzając korzyści przyznane MŚP na kraje południowego regionu Morza Śródziemnego, Komisja ułatwia ich wdrożenie dodatkowym 8 250 przedsiębiorstwom w Europie.
Ogólnie rzecz biorąc, wnioski przedstawione przez Komisję pomogą przedsiębiorstwom wywiązać się ze swoich zobowiązań. Otwierają one również więcej możliwości innowacji w UE, co jeszcze bardziej ułatwia wdrażanie ram regulacyjnych mających na celu stworzenie jednolitego rynku godnej zaufania sztucznej inteligencji.
We wniosku uznaje się wyzwanie, jakie opóźnienie norm i innych narzędzi wsparcia powoduje dla wdrożenia aktu w sprawie sztucznej inteligencji.
Harmonogram przepisów dotyczących sztucznej inteligencji wysokiego ryzyka jest dostosowany do dostępności norm i innych narzędzi wsparcia. Po potwierdzeniu przez Komisję, że są one wystarczająco dostępne, przepisy zaczną obowiązywać po okresie przejściowym.
Elastyczność ta ma datę końcową: przepisy dotyczące sztucznej inteligencji wysokiego ryzyka w obszarach wrażliwych, takich jak zatrudnienie i egzekwowanie prawa (załącznik III), będą miały zastosowanie maksymalnie 16 miesięcy później niż pierwotnie przewidywano, natomiast przepisy dotyczące sztucznej inteligencji wysokiego ryzyka wbudowanej w produkty takie jak wyroby medyczne (załącznik I) będą miały zastosowanie maksymalnie 12 miesięcy później.
We wniosku proponuje się również sześciomiesięczny okres przejściowy dla dostawców, którzy muszą z mocą wsteczną włączyć rozwiązania techniczne do swoich generatywnych systemów sztucznej inteligencji, aby zapewnić ich wykrywalność.
Unijny akt w sprawie sztucznej inteligencji jest pierwszym na świecie kompleksowym aktem w sprawie sztucznej inteligencji. Jego celem jest promowanie innowacji i wykorzystania sztucznej inteligencji, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych, w tym demokracji i praworządności.
Wykorzystanie systemów sztucznej inteligencji ma duży potencjał, aby przynieść korzyści społeczne, wzrost gospodarczy oraz zwiększyć innowacje w UE i globalną konkurencyjność. W niektórych przypadkach szczególne cechy niektórych systemów sztucznej inteligencji mogą jednak stwarzać ryzyko związane z bezpieczeństwem użytkowników, w tym bezpieczeństwem fizycznym, i prawami podstawowymi. Niektóre potężne modele sztucznej inteligencji, które są szeroko stosowane, mogą również stwarzać ryzyko systemowe.
Prowadzi to do niepewności prawa i potencjalnie wolniejszego wdrażania technologii sztucznej inteligencji przez organy publiczne, przedsiębiorstwa i obywateli ze względu na brak zaufania. Rozbieżne reakcje regulacyjne ze strony organów krajowych mogą grozić rozdrobnieniem rynku wewnętrznego.
W odpowiedzi na te wyzwania konieczne było podjęcie działań ustawodawczych w celu zapewnienia dobrze funkcjonującego rynku wewnętrznego systemów i modeli sztucznej inteligencji, na którym odpowiednio uwzględniono zarówno korzyści, jak i ryzyko.
Akt w sprawie sztucznej inteligencji stosuje się stopniowo, a jego pełne wdrożenie nastąpi do 2 sierpnia 2027 r.
Zakazy, definicje i przepisy dotyczące umiejętności korzystania ze sztucznej inteligencji zaczęły obowiązywać 2 lutego 2025 r.;
Przepisy dotyczące zarządzania i obowiązków w odniesieniu do modeli AI ogólnego przeznaczenia zaczęły obowiązywać 2 sierpnia 2025 r.;
Obowiązki dotyczące systemów wysokiego ryzyka wymienionych w załączniku III, wymogi w zakresie przejrzystości (art. 50), a także środki wspierające innowacje będą miały zastosowanie od dnia 2 sierpnia 2026 r. Jest to również data rozpoczęcia egzekwowania aktu w sprawie AI;
Obowiązki dotyczące systemów sztucznej inteligencji wysokiego ryzyka, które klasyfikują się jako systemy wysokiego ryzyka, ponieważ są wbudowane w produkty regulowane, wymienione w załączniku I (wykaz unijnego prawodawstwa harmonizacyjnego), wejdą w życie w dniu 2 sierpnia 2027 r.
Akt w sprawie sztucznej inteligencji opracowano jako elastyczne i dostosowane do przyszłych wyzwań rozporządzenie, które umożliwia dostosowanie przepisów do szybkiego tempa rozwoju technologicznego, a także potencjalnych zmian w wykorzystaniu systemów sztucznej inteligencji i pojawiających się zagrożeń.
Chociaż zasadniczo akt w sprawie sztucznej inteligencji można zmienić wyłącznie w drodze procedury ustawodawczej, w niektórych przypadkach Komisja jest uprawniona do zmiany niektórych części aktu w sprawie sztucznej inteligencji. Na przykład Komisja może dostosować następujące części aktu w sprawie sztucznej inteligencji:
Wykaz przypadków użycia wysokiego ryzyka w załączniku III. Komisja jest zobowiązana do przeprowadzania corocznego przeglądu w celu oceny, czy konieczne są zmiany w wykazie.
Próg, powyżej którego uznaje się, że modele AI ogólnego przeznaczenia mają duże możliwości oddziaływania i są klasyfikowane jako stwarzające ryzyko systemowe.
Komisja regularnie ocenia również, czy potrzebne są inne zmiany w akcie w sprawie AI, i składa sprawozdania Parlamentowi Europejskiemu i Radzie. Taka regularna ocena jest przewidziana bezpośrednio w akcie w sprawie sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji nie ma zastosowania do wszystkich rozwiązań w zakresie sztucznej inteligencji, a jedynie do tych, które spełniają definicję „systemu sztucznej inteligencji” w rozumieniu art. 3 ust. 1 aktu w sprawie sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji opiera się na podejściu opartym na analizie ryzyka i wprowadza przepisy dotyczące systemów sztucznej inteligencji w oparciu o poziom ryzyka, jakie mogą one stwarzać. Zakazane są wszelkie praktyki związane ze sztuczną inteligencją stwarzające niedopuszczalne ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych zapisanych w Karcie praw podstawowych (np. systemy sztucznej inteligencji wykorzystywane do wykrywania emocji pracowników w miejscu pracy, z wyjątkiem względów medycznych i bezpieczeństwa; niektóre praktyki w zakresie punktacji społecznej). systemy sztucznej inteligencji o wysokim ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych muszą spełniać określone wymogi, aby zapewnić ich bezpieczeństwo i wiarygodność (np. systemy sztucznej inteligencji wykorzystywane w zarządzaniu kontrolą graniczną; organy ścigania lub pojazdy autonomiczne mogą być przykładami systemów sztucznej inteligencji wysokiego ryzyka). Niektóre systemy sztucznej inteligencji muszą spełniać wymogi przejrzystości (np. deepfake'i będą musiały być oznakowane jako generowane przez sztuczną inteligencję; chatboty powinny informować, że dana osoba nie komunikuje się z człowiekiem). Wszystkie pozostałe systemy sztucznej inteligencji pozostają nieuregulowane i mogą być wprowadzane do obrotu, oddawane do użytku lub wykorzystywane w UE bez żadnych wymogów – w momencie przygotowywania wniosku dotyczącego aktu w sprawie sztucznej inteligencji szacowano, że wyniosą one 85 %.
Akt w sprawie sztucznej inteligencji nie ma automatycznie zastosowania do wszystkich systemów sztucznej inteligencji wprowadzonych do obrotu przed datą rozpoczęcia jego stosowania. Zamiast tego obowiązki w zakresie zgodności są stopniowo wprowadzane w zależności od kategorii i tego, czy system podlega znacznym modyfikacjom.
Akt w sprawie sztucznej inteligencji będzie miał zastosowanie od dnia 31 grudnia 2030 r. do systemów sztucznej inteligencji, które są elementami wielkoskalowych systemów informatycznych ustanowionych aktami prawnymi wymienionymi w załączniku X i które zostały wprowadzone do obrotu lub oddane do użytku przed dniem 2 sierpnia 2027 r. W przypadku gdy takie wielkoskalowe systemy informatyczne zostaną poddane ocenie lub akty prawne wymienione w załączniku X zostaną zastąpione lub zmienione przed dniem 31 grudnia 2030 r., uwzględnia się akt w sprawie sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji będzie miał również zastosowanie do systemów sztucznej inteligencji wysokiego ryzyka, które wprowadzono do obrotu lub oddano do użytku przed dniem 2 sierpnia 2026 r., tylko w przypadku gdy systemy te zostaną znacząco zmodyfikowane. Akt w sprawie sztucznej inteligencji będzie miał również zastosowanie od dnia 31 grudnia 2030 r. do systemów sztucznej inteligencji wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed dniem 2 sierpnia 2026 r. i są (przeznaczone do wykorzystania) przez organy publiczne.
Ponadto akt w sprawie sztucznej inteligencji będzie miał zastosowanie od dnia 2 sierpnia 2027 r. do modeli sztucznej inteligencji ogólnego przeznaczenia, które wprowadzono do obrotu przed dniem 2 sierpnia 2025 r.
Przepisy dotyczące zakazanych praktyk w zakresie sztucznej inteligencji (art. 5) mają jednak zastosowanie do wszystkich systemów sztucznej inteligencji, bez uwzględnienia daty ich wprowadzenia do obrotu.
Koncentrując się w szczególności na fazie budowy systemu sztucznej inteligencji, w motywie 12 aktu w sprawie sztucznej inteligencji doprecyzowano, że „techniki, które umożliwiają wnioskowanie podczas budowy systemu sztucznej inteligencji, obejmują podejścia oparte na uczeniu maszynowym, które uczą się na podstawie danych, jak osiągnąć określone cele, oraz podejścia oparte na logice i wiedzy, które wywodzą się z zakodowanej wiedzy lub symbolicznej reprezentacji zadania, które ma zostać rozwiązane”. Techniki te należy rozumieć jako „techniki sztucznej inteligencji”.
Oprócz różnych podejść do uczenia maszynowego, które są często rozumiane jako technika sztucznej inteligencji, drugą kategorią technik sztucznej inteligencji, o której mowa w motywie 12 aktu w sprawie sztucznej inteligencji, są „podejścia oparte na logice i wiedzy, które wywodzą się z zakodowanej wiedzy lub symbolicznej reprezentacji zadania, które ma zostać rozwiązane”. Zamiast uczyć się na danych, te systemy sztucznej inteligencji uczą się na podstawie wiedzy, w tym zasad, faktów i relacji zakodowanych przez ludzkich ekspertów.
W oparciu o wiedzę zakodowaną przez ekspertów ludzkich systemy te mogą być „uzasadnione” za pomocą silników dedukcyjnych lub indukcyjnych lub przy użyciu operacji takich jak sortowanie, wyszukiwanie, dopasowywanie i łączenie w łańcuchy. Wykorzystując wnioskowanie logiczne do wyciągania wniosków, systemy takie stosują logikę formalną, wstępnie zdefiniowane reguły lub ontologie do nowych sytuacji. Podejścia oparte na logice i wiedzy obejmują na przykład reprezentację wiedzy, programowanie indukcyjne (logiczne), bazy wiedzy, mechanizmy wnioskowania i dedukcji, rozumowanie (symboliczne), systemy eksperckie oraz metody wyszukiwania i optymalizacji.
W akcie w sprawie sztucznej inteligencji dokonano rozróżnienia między systemem sztucznej inteligencji zdefiniowanym w art. 3 ust. 1 a modelem sztucznej inteligencji ogólnego przeznaczenia zdefiniowanym w art. 3 pkt 63.
Akt w sprawie sztucznej inteligencji odnosi się do modeli sztucznej inteligencji jako do tych, które „są zasadniczymi komponentami systemów sztucznej inteligencji. Nie stanowią one same w sobie systemów sztucznej inteligencji. Modele sztucznej inteligencji wymagają dodania kolejnych elementów, takich jak na przykład interfejs użytkownika, aby stały się systemami sztucznej inteligencji. Modele sztucznej inteligencji są zazwyczaj zintegrowane z systemami sztucznej inteligencji i stanowią ich część” (motyw 97). „Duże generatywne modele sztucznej inteligencji są typowym przykładem modelu sztucznej inteligencji ogólnego przeznaczenia, ponieważ umożliwiają elastyczne generowanie treści, takich jak tekst, dźwięk, obrazy lub wideo, które mogą z łatwością pomieścić szeroki zakres odrębnych zadań” (motyw 99).
W akcie w sprawie sztucznej inteligencji zdefiniowano system sztucznej inteligencji jako „system oparty na maszynach, który został zaprojektowany do działania na różnych poziomach autonomii i który może wykazywać zdolność adaptacyjną po wdrożeniu oraz który – w odniesieniu do wyraźnych lub dorozumianych celów – na podstawie otrzymanych danych wejściowych wnioskuje, w jaki sposób generować wyniki, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne” (art. 3 ust. 1 motyw 12).
Więcej informacji można znaleźć w wytycznych w sprawie definicji systemu sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji opiera się na podejściu opartym na analizie ryzyka i klasyfikuje systemy sztucznej inteligencji do czterech różnych kategorii ryzyka: niedopuszczalne ryzyko, wysokie ryzyko, ryzyko związane z przejrzystością oraz ryzyko minimalne lub żadne.
W odniesieniu do niedopuszczalnej kategorii ryzyka w akcie w sprawie sztucznej inteligencji wymieniono konkretne praktyki, które są zakazane (art. 5 aktu w sprawie sztucznej inteligencji). Systemy sztucznej inteligencji wysokiego ryzyka zdefiniowano zgodnie z art. 6 aktu w sprawie sztucznej inteligencji w związku z załącznikiem I (wykaz unijnego prawodawstwa harmonizacyjnego) i załącznikiem III do aktu w sprawie sztucznej inteligencji. Załącznik III obejmuje osiem obszarów, w których wykorzystanie sztucznej inteligencji może być szczególnie wrażliwe, i zawiera wykaz konkretnych przypadków użycia dla każdego obszaru, które współprawodawca ocenił jako stwarzające znaczne zagrożenie dla zdrowia, bezpieczeństwa i praw podstawowych. W przypadku niektórych systemów sztucznej inteligencji, w których przejrzystość jest szczególnie ważna, przewidziano przepisy dotyczące przejrzystości. Wszystkie pozostałe systemy sztucznej inteligencji uznaje się za systemy sztucznej inteligencji „minimalnego ryzyka lub braku ryzyka”, a akt w sprawie sztucznej inteligencji nie przewiduje dla nich żadnych obowiązków. Dobrowolnie dostawcy tych systemów mogą zdecydować się na stosowanie wymogów dotyczących godnej zaufania sztucznej inteligencji i przestrzeganie dobrowolnych kodeksów postępowania.
W zależności od poziomu ryzyka obowiązki i wymogi związane z konkretnymi systemami sztucznej inteligencji będą się różnić.
Dostawcy systemów sztucznej inteligencji wysokiego ryzyka muszą zapewnić, aby ich system sztucznej inteligencji wysokiego ryzyka spełniał wymogi aktu w sprawie sztucznej inteligencji przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku. Przykłady takich wymogów obejmują wprowadzenie systemu zarządzania ryzykiem, rejestrowanie rejestrów oraz zapewnienie danych jakościowych i zarządzania danymi, a także nadzór ze strony człowieka. Ponadto dostawcy będą musieli zarejestrować swój system w bazie danych UE i dołączyć do systemu instrukcje jego stosowania dla podmiotów wdrażających.
Dostawcy systemów obarczonych ryzykiem związanym z przejrzystością, takich jak chatboty, towarzysze społeczni wykorzystujący sztuczną inteligencję lub deepfake, muszą przestrzegać pewnych obowiązków w zakresie przejrzystości. Obejmuje to na przykład informowanie osób fizycznych, że wchodzą one w interakcję z systemem sztucznej inteligencji, lub zapewnienie, aby treści generowane przez sztuczną inteligencję mogły zostać wykryte jako takie. Wdrażający systemy, które mogą generować treści lub nimi manipulować, muszą ujawnić, że treści są generowane przez sztuczną inteligencję.
Akt w sprawie sztucznej inteligencji nie nakłada obowiązków na systemy sztucznej inteligencji o minimalnym ryzyku, ale państwa członkowskie mogą ułatwić opracowywanie dobrowolnych kodeksów postępowania dla systemów sztucznej inteligencji, które nie są systemami wysokiego ryzyka.
Zasadniczo ewolucja systemu sztucznej inteligencji nie ma skutków prawnych. W przypadku systemów sztucznej inteligencji wysokiego ryzyka należy jednak przewidzieć takie zmiany i uwzględnić je w ramach zarządzania ryzykiem i związanych z nimi obowiązkach w zakresie zgodności. W przypadku gdy system sztucznej inteligencji przechodzi istotne modyfikacje, może to wywołać skutki prawne, w tym potrzebę ponownej oceny zgodności na podstawie aktu w sprawie sztucznej inteligencji.
Akt w sprawie sztucznej inteligencji nie wymaga szczególnego zarządzania wewnętrznego w przedsiębiorstwie.
Zgodnie z art. 17 ust. 1 lit. m) dostawcy systemów sztucznej inteligencji wysokiego ryzyka powinni jednak wprowadzić system zarządzania jakością, który powinien obejmować ramy rozliczalności określające obowiązki kierownictwa i innych pracowników w odniesieniu do wszystkich aspektów związanych z systemem zarządzania jakością wymienionych w art. 17 aktu w sprawie sztucznej inteligencji.
Portal Komisji Europejskiej „Funding & Tenders” jest głównym miejscem, w którym można znaleźć wszelkie możliwości finansowania z UE, w tym te związane ze sztuczną inteligencją. Wśród programów finansowania szczególne znaczenie mają programy „Horyzont Europa” i „Cyfrowa Europa”. W ramach programu „Horyzont Europa” istnieją różne obszary zainteresowania, a mianowicie klaster 4 i Europejska Rada ds. Innowacji. Istotne mogą być również inne obszary, takie jak oddolna Europejska Rada ds. Badań Naukowych.
Inicjatywa przewodnia GenAI4EU oferuje szerokie możliwości rozwoju i wdrażania wiarygodnej, generatywnej sztucznej inteligencji w strategicznych sektorach Europy. Przy zaangażowaniu prawie 700 mln euro istnieje wiele możliwości, aby pomóc Europie stać się bardziej konkurencyjną i innowacyjną. Specjalna strona internetowa zawiera przegląd poszczególnych zaproszeń do składania wniosków dostępnych w ramach programu „Horyzont Europa” i programu „Cyfrowa Europa”.
Pojęcie umiejętności korzystania ze sztucznej inteligencji, o którym mowa w art. 4 aktu w sprawie sztucznej inteligencji, opiera się na definicji pojęcia podanej w art. 3 pkt 56 aktu w sprawie sztucznej inteligencji, zgodnie z którą: „umiejętność korzystania z sztucznej inteligencji” oznacza umiejętności, wiedzę i zrozumienie, które umożliwiają dostawcom, podmiotom wdrażającym i zainteresowanym osobom, z uwzględnieniem ich odpowiednich praw i obowiązków w kontekście niniejszego rozporządzenia, świadome wdrażanie systemów sztucznej inteligencji, a także zdobywanie wiedzy na temat możliwości i zagrożeń związanych ze sztuczną inteligencją oraz możliwych szkód, jakie może ona wyrządzić.
Zapoznaj się z pełnym FAQ na temat umiejętności korzystania ze sztucznej inteligencji tutaj.
Nie ma jednego podejścia, które działałoby na wszystkich. Zależy to od rodzaju systemu sztucznej inteligencji, którym zajmuje się przedsiębiorstwo, oraz od wiedzy danego personelu. Nie ma jednak obowiązku przeprowadzania szkoleń zewnętrznych ani zewnętrznej certyfikacji.
Proszę zapoznać się z dalszymi informacjami na temat umiejętności korzystania ze sztucznej inteligencji – pytania i odpowiedzi.
Akt w sprawie sztucznej inteligencji nie wymaga, aby przedsiębiorstwa wyznaczały urzędników ds. sztucznej inteligencji. W akcie w sprawie sztucznej inteligencji wymaga się jednak, aby dostawcy i podmioty wdrażające systemy sztucznej inteligencji zapewniali, w jak największym stopniu, wystarczający poziom umiejętności w zakresie sztucznej inteligencji swoich pracowników i innych osób zajmujących się obsługą i użytkowaniem systemów sztucznej inteligencji w ich imieniu.
Komisja opublikowała żywe repozytorium w celu wspierania uczenia się i wymiany na temat umiejętności korzystania ze sztucznej inteligencji ,pytania i odpowiedzi na temat umiejętności korzystania ze sztucznej inteligencji , a także nagrane webinarium na temat umiejętności korzystania ze sztucznej inteligencji . Repozytorium zostanie rozbudowane. Istnieje wiele bezpłatnych kursów szkoleniowych online. Wybór zależy od indywidualnych umiejętności danego personelu.
Zakazy określone w art. 5 aktu w sprawie sztucznej inteligencji obejmują pewne praktyki manipulacyjne, punktową ocenę społeczną, predykcyjną policję opartą wyłącznie na profilowaniu, skrobanie internetu i materiałów telewizji przemysłowej w celu utworzenia lub rozszerzenia baz danych rozpoznawania twarzy, rozpoznawanie emocji w edukacji i miejscu pracy, kategoryzację biometryczną w celu wywnioskowania wrażliwych atrybutów, takich jak opinia polityczna lub orientacja seksualna, oraz zdalną identyfikację biometryczną w czasie rzeczywistym do celów egzekwowania prawa w przestrzeni publicznej (z pewnymi ograniczonymi wyjątkami).
Więcej informacji można znaleźć w wytycznych dotyczących zakazanych praktyk w zakresie sztucznej inteligencji.
Zakazy określone w art. 5 obejmują pewne praktyki manipulacyjne, punktową ocenę społeczną, predykcyjną policję opartą wyłącznie na profilowaniu, skrobanie internetu i materiałów telewizji przemysłowej w celu utworzenia lub rozszerzenia baz danych rozpoznawania twarzy, rozpoznawanie emocji w edukacji i miejscu pracy, kategoryzację biometryczną w celu wywnioskowania wrażliwych atrybutów, takich jak poglądy polityczne lub orientacja seksualna, oraz zdalną identyfikację biometryczną w czasie rzeczywistym na potrzeby egzekwowania prawa w przestrzeni publicznej (z pewnymi ograniczonymi wyjątkami).
Wytyczne wydano w lutym 2025 r.
Komisja przygotowuje obecnie wytyczne dotyczące klasyfikacji systemów sztucznej inteligencji wysokiego ryzyka, które powinny zostać opublikowane w lutym 2026 r.
Zakazane jest wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów sztucznej inteligencji do wnioskowania o emocjach osoby fizycznej w miejscach pracy i instytucjach edukacyjnych. Zakaz ten nie ma jednak zastosowania do wykorzystywania systemu sztucznej inteligencji, gdy system sztucznej inteligencji ma zostać wprowadzony do obrotu lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.
Załącznik III obejmuje osiem obszarów i zawiera wykaz konkretnych przypadków użycia dla każdego z nich, które współprawodawca UE ocenił jako stwarzające wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych.
W uproszczeniu obszary te wymieniono jako punkty w załączniku III (np. pkt 1 – dane biometryczne, pkt 2 – infrastruktura krytyczna, pkt 3 – kształcenie i szkolenie zawodowe itp.). Przypadki użycia są wymienione w każdym obszarze. Na przykład pkt 6 załącznika III obejmuje obszar egzekwowania prawa, który obejmuje pięć przypadków użycia (lit. a)–e)).
Aby system sztucznej inteligencji został sklasyfikowany jako system wysokiego ryzyka, musi on wchodzić w zakres jednego z obszarów załącznika III i odpowiadać jednemu z wymienionych w nim przypadków użycia. Innymi słowy, nie wszystkie systemy sztucznej inteligencji wykorzystywane w danym obszarze (takie jak egzekwowanie prawa) są automatycznie uznawane za systemy wysokiego ryzyka; kwalifikują się tylko te objęte szczególnymi przypadkami użycia określonymi w załączniku III.
W art. 16 aktu w sprawie sztucznej inteligencji przedstawiono przegląd obowiązków, których dostawcy systemów sztucznej inteligencji wysokiego ryzyka muszą przestrzegać, aby zapewnić zgodność z aktem w sprawie sztucznej inteligencji.
Przed wprowadzeniem swojego systemu sztucznej inteligencji wysokiego ryzyka lub oddaniem go do użytku dostawcy takich systemów muszą zapewnić, aby ich system sztucznej inteligencji wysokiego ryzyka był zgodny z art. 8–15 aktu w sprawie sztucznej inteligencji i został poddany ocenie zgodności. Zgodność tę należy wykazać na uzasadniony wniosek właściwego organu krajowego.
Po przeprowadzeniu tej oceny zgodności dostawcy muszą sporządzić deklarację zgodności UE i umieścić oznakowanie CE na systemie (lub na jego opakowaniu lub dokumentacji towarzyszącej), a także podać swoje dane kontaktowe dotyczące systemu sztucznej inteligencji wysokiego ryzyka, aby można było się z nimi skontaktować. Dostawcy muszą również zarejestrować swój system sztucznej inteligencji wysokiego ryzyka w unijnej bazie danych.
Ponadto dostawcy muszą przestrzegać art. 17–20 aktu w sprawie sztucznej inteligencji poprzez ustanowienie systemu zarządzania jakością, przechowywanie dokumentacji przez 10 lat, prowadzenie automatycznie generowanych rejestrów przez system sztucznej inteligencji wysokiego ryzyka oraz podejmowanie niezbędnych działań naprawczych i dostarczanie informacji związanych z tymi działaniami.
Ponadto dostawcy systemów sztucznej inteligencji wysokiego ryzyka muszą zapewnić, aby ich system spełniał odpowiednie wymogi dostępności.
Dane lokalizacyjne zwykle nie są biometryczne. W związku z tym nie wchodzi on w zakres przypadków użycia wysokiego ryzyka wymienionych w załączniku III pkt 1 ani w zakres zakazanych praktyk określonych w art. 5 ust. 1 lit. g).
Większość biometrycznych systemów sztucznej inteligencji nie jest zakazana na mocy aktu w sprawie sztucznej inteligencji. Zakazane praktyki w zakresie sztucznej inteligencji dotyczące systemów biometrycznych są ograniczone i obejmują w szczególności: rozpoznawanie emocji w miejscu pracy, niektóre systemy kategoryzacji biometrycznej oraz zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa. Są one objęte ściśle określonymi wyjątkami.
Istnieją jednak pewne dodatkowe zasady, które mają zastosowanie do dozwolonych systemów biometrycznych. W szczególności niektóre zastosowania biometryczne uznaje się za zastosowania wysokiego ryzyka (systemy zdalnej identyfikacji biometrycznej, niektóre systemy sztucznej inteligencji przeznaczone do kategoryzacji biometrycznej oraz systemy sztucznej inteligencji przeznaczone do rozpoznawania emocji). W akcie w sprawie sztucznej inteligencji określono szczegółowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka. Wymogi te dotyczą między innymi zarządzania danymi i danymi, dokumentacji i prowadzenia rejestrów, przejrzystości i przekazywania informacji użytkownikom, nadzoru ze strony człowieka, solidności, dokładności i bezpieczeństwa.
Wykorzystanie systemów sztucznej inteligencji do weryfikacji biometrycznej – tj. potwierdzenia, że dana osoba jest tym, za kogo się podaje – nie jest zakazane na mocy aktu w sprawie sztucznej inteligencji i nie należy do kategorii systemów wysokiego ryzyka.
Więcej informacji można znaleźć w wytycznych dotyczących zakazanych praktyk w zakresie sztucznej inteligencji.
W unijnym akcie w sprawie sztucznej inteligencji podkreślono znaczenie nadzoru ze strony człowieka nad systemami sztucznej inteligencji wysokiego ryzyka. Oznacza to, że systemy te muszą być zaprojektowane i opracowane tak, aby ludzie mogli je monitorować podczas ich użytkowania. Należy wprowadzić odpowiednie narzędzia i środki, aby pomóc ludziom w skutecznym nadzorowaniu sztucznej inteligencji, zapewniając zapobieganie wszelkim zagrożeniom dla zdrowia, bezpieczeństwa lub praw podstawowych lub ich minimalizowanie. Gdy system jest w użyciu, nadzór ze strony człowieka obejmuje również odpowiednie środki, które mają zostać wdrożone przez podmiot wdrażający. Środki te powinny być opisane w instrukcji obsługi oraz być skuteczne i współmierne do ryzyka, poziomu autonomii systemu i kontekstu korzystania z systemu sztucznej inteligencji wysokiego ryzyka.
Podmioty wdrażające powinny wdrożyć środki nadzoru przez człowieka i powierzyć to zadanie osobom fizycznym, które posiadają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie.
Akt w sprawie sztucznej inteligencji wprowadza szereg środków wsparcia dostosowanych do małych i średnich przedsiębiorstw (MŚP). Obejmują one możliwość przygotowania uproszczonej dokumentacji technicznej i wdrożenia uproszczonych systemów zarządzania jakością w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka. MŚP otrzymują również bezpłatny dostęp do piaskownic regulacyjnych w zakresie AI, co umożliwia im testowanie i rozwijanie systemów AI w kontrolowanym środowisku. Ponadto na mocy art. 62 Komisja Europejska i organy krajowe są zobowiązane do zapewnienia MŚP szczególnych środków wsparcia. Ich interesy są dodatkowo reprezentowane poprzez specjalną kategorię członkostwa w forum doradczym, zapewniając uwzględnienie ich potrzeb w procesie regulacyjnym. Ponadto MŚP korzystają ze szczególnej uwagi przy nakładaniu kar, co odzwierciedla ich szczególną pozycję na rynku i potencjalny wpływ sankcji.
W przypadku gdy model sztucznej inteligencji ogólnego przeznaczenia jest zintegrowany z systemem sztucznej inteligencji lub stanowi jego część, powstały w ten sposób system należy uznać za system sztucznej inteligencji ogólnego przeznaczenia, jeżeli dzięki tej integracji zyskuje on zdolność do realizacji wielu celów. Systemy sztucznej inteligencji ogólnego przeznaczenia mogą być wykorzystywane bezpośrednio lub wbudowane w inne systemy sztucznej inteligencji.
Ze względu na ich wszechstronność systemy sztucznej inteligencji ogólnego przeznaczenia mogą być wykorzystywane jako samodzielne systemy sztucznej inteligencji wysokiego ryzyka lub jako komponenty innych systemów sztucznej inteligencji wysokiego ryzyka. Aby zapewnić sprawiedliwy podział obowiązków w całym łańcuchu wartości AI, dostawcy systemów AI ogólnego przeznaczenia powinni ściśle współpracować z dostawcami odpowiednich systemów AI wysokiego ryzyka, chyba że w niniejszym rozporządzeniu określono inaczej. Współpraca ta powinna umożliwić dostawcom systemów sztucznej inteligencji wysokiego ryzyka wypełnianie ich obowiązków wynikających z niniejszego rozporządzenia i ułatwić interakcje z właściwymi organami ustanowionymi na mocy rozporządzenia.
Chociaż podmioty zajmujące się sztuczną inteligencją nie stanowią odrębnej kategorii na mocy aktu w sprawie sztucznej inteligencji, mogą być zmuszone do spełnienia wymogów dotyczących systemów sztucznej inteligencji lub obowiązków dostawców modeli sztucznej inteligencji ogólnego przeznaczenia. Szczególnie istotne są zawarte w akcie w sprawie sztucznej inteligencji zakazy szkodliwej manipulacji lub wykorzystywania podatności, które mogą wymagać zabezpieczeń technicznych przy projektowaniu agentycznego systemu sztucznej inteligencji. Jeżeli system sztucznej inteligencji pośredniczącej klasyfikuje się jako system wysokiego ryzyka, podlega on dodatkowym wymogom zapewniającym jego bezpieczeństwo i wiarygodność.
Ponadto jeżeli system sztucznej inteligencji pośredniczącej ma wchodzić w interakcje z osobami fizycznymi lub generować treści, zastosowanie mają zasady przejrzystości (aby uzyskać więcej informacji, zob. te najczęściej zadawane pytania ininiejsze konsultacje). Jeżeli chodzi o modele AI ogólnego przeznaczenia, czynniki takie jak poziom autonomii lub wykorzystanie modelu jako narzędzia mogą mieć decydujące znaczenie dla uznania go za model obarczony ryzykiem systemowym. Dostawcy modeli AI ogólnego przeznaczenia obarczonych ryzykiem systemowym podlegają obowiązkom w zakresie zarządzania ryzykiem, które obejmują kwestie dotyczące autonomicznych zdolności modelu i jego agentycznego wykorzystania.
Biorąc pod uwagę, że zmiany są niedawne i szybko ewoluują, rozważania regulacyjne Komisji Europejskiej są na tym etapie jedynie wstępne, również w świetle faktu, że rozumienie tego, co stanowi agenta AI, jest bardzo zróżnicowane. Komisja Europejska nadal ściśle monitoruje rozwój podmiotów zajmujących się sztuczną inteligencją i w razie potrzeby rozważy działania w tym zakresie. Na przykład niedawne zaproszenie do składania ofert przez Urząd ds. Sztucznej Inteligencji dotyczące pomocy technicznej w zakresie bezpieczeństwa sztucznej inteligencji obejmuje specjalną część poświęconą ocenie bezpieczeństwa i ochrony agentów sztucznej inteligencji.
Akt w sprawie AI reguluje między innymi modele AI ogólnego przeznaczenia wprowadzane do obrotu w Unii, w tym ich opracowywanie i stosowanie. Więcej informacji na temat warunków, na jakich model sztucznej inteligencji uznaje się za model ogólnego przeznaczenia, można znaleźć w pytaniu „Kiedy model kwalifikuje się jako model sztucznej inteligencji ogólnego przeznaczenia?” oraz w sekcji 2.1 wytycznych w sprawie zakresu obowiązków dotyczących modeli sztucznej inteligencji ogólnego przeznaczenia.
„Wprowadzenie do obrotu” oznacza pierwsze dostarczenie systemu sztucznej inteligencji lub modelu sztucznej inteligencji ogólnego przeznaczenia do celów dystrybucji lub wykorzystania na rynku unijnym w ramach działalności handlowej, odpłatnie lub nieodpłatnie (art. 3 ust. 9 pkt 10 aktu w sprawie sztucznej inteligencji). Niektóre przykłady tego, co stanowi wprowadzenie do obrotu, można znaleźć w sekcji 3.1.2 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia.
Otwarte wydanie może stanowić wprowadzenie do obrotu. W szczególności komercyjna dostawa modelu może być bezpłatna (art. 3 ust. 10 aktu w sprawie sztucznej inteligencji). Dostawcy otwartego modelu sztucznej inteligencji ogólnego przeznaczenia, który nie stwarza ryzyka systemowego, są jednak zwolnieni z niektórych obowiązków. Więcej informacji można znaleźć w pytaniu „W jaki sposób akt w sprawie AI ma zastosowanie do modeli AI ogólnego przeznaczenia udostępnianych jako otwarte oprogramowanie?” oraz w sekcji 4 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia.
Wykorzystanie wewnętrzne modelu AI ogólnego przeznaczenia stanowi wprowadzenie do obrotu przynajmniej wtedy, gdy jest ono niezbędne do dostarczenia produktu lub usługi osobom trzecim na rynku unijnym lub gdy wpływa na prawa osób fizycznych w Unii. Dalsze przykłady przedstawiono w sekcji 3.1.2 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia.
Modele sztucznej inteligencji, które są specjalnie opracowywane i oddawane do użytku wyłącznie do celów badań naukowych i rozwoju, nie wchodzą w zakres aktu w sprawie sztucznej inteligencji (art. 2 ust. 6 aktu w sprawie sztucznej inteligencji).
W art. 3 pkt 63 aktu w sprawie AI zdefiniowano „model AI ogólnego przeznaczenia” jako „model AI, w tym w przypadku gdy taki model AI jest trenowany z wykorzystaniem dużej ilości danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres odrębnych zadań niezależnie od sposobu wprowadzania modelu do obrotu i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla, z wyjątkiem modeli AI, które są wykorzystywane do działań w zakresie badań, rozwoju lub prototypowania przed wprowadzeniem ich do obrotu”. Definicja ta zawiera ogólny wykaz czynników decydujących o tym, czy dany model jest modelem sztucznej inteligencji ogólnego przeznaczenia. Nie określono jednak szczegółowych kryteriów, które potencjalni dostawcy mogą stosować do oceny, czy ich model jest modelem AI ogólnego przeznaczenia.
W sekcji 2.1 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia przedstawiono orientacyjne kryterium: model uznaje się za model sztucznej inteligencji ogólnego przeznaczenia, jeżeli zasoby obliczeniowe wykorzystywane do jego szkolenia przekraczają 10 ^ 23 operacji zmiennoprzecinkowych i może generować język (tekst lub dźwięk), tekst na obraz lub tekst na wideo. Ten próg obliczeniowy odpowiada typowej ilości obliczeń stosowanych do trenowania modeli o miliardzie parametrów na dużych zbiorach danych. Ponadto wybrane metody umożliwiają elastyczne generowanie treści, które mogą pomieścić szeroki zakres różnych zadań. Nie jest to jednak reguła absolutna – modele spełniające to kryterium mogą wyjątkowo nie kwalifikować się jako modele AI ogólnego przeznaczenia, jeżeli nie mają znaczącego uogólnienia, natomiast modele poniżej tego progu mogą nadal być modelami AI ogólnego przeznaczenia, jeżeli wykazują znaczny uogólnienie i mogą kompetentnie wykonywać szeroki zakres zadań.
Model AI ogólnego przeznaczenia klasyfikuje się jako model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli spełnia jeden z dwóch poniższych warunków.
Po pierwsze, jeśli ma możliwości, które pasują lub przewyższają możliwości najbardziej zaawansowanych modeli. Akt w sprawie sztucznej inteligencji zakłada, że modele trenowane z wykorzystaniem skumulowanej ilości zasobów obliczeniowych, która przekracza 10^25 operacji zmiennoprzecinkowych, mają takie możliwości (art. 51 ust. 2 aktu w sprawie sztucznej inteligencji). Próg ten ustala się na podstawie faktu, że wykorzystanie tej ilości obliczeń wskazuje, że model może mieć znaczący wpływ na rynek Unii ze względu na jego zasięg lub potencjalny negatywny wpływ na zdrowie publiczne, bezpieczeństwo, ochronę, prawa podstawowe lub społeczeństwo. Komisja Europejska dostosowuje ten próg w razie potrzeby w celu uwzględnienia rozwoju technologicznego.
Po drugie, Komisja Europejska może wyznaczyć model jako model sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym, z własnej inicjatywy lub po otrzymaniu kwalifikowanego ostrzeżenia od panelu naukowego, jeżeli model ten ma możliwości lub wpływ równoważne z możliwościami lub wpływem najbardziej zaawansowanych modeli (art. 51 ust. 1 lit. b) aktu w sprawie sztucznej inteligencji). Wynika to z faktu, że istnieją modele, które mogą stwarzać ryzyko systemowe pomimo nieosiągnięcia progu obliczeniowego.
W przypadku modelu spełniającego którykolwiek z tych warunków jego dostawca musi spełnić dodatkowe obowiązki, w tym w zakresie oceny i ograniczania ryzyka systemowego (zob. pytanie „Jakie są dodatkowe wymogi dotyczące modeli AI ogólnego przeznaczenia obarczonych ryzykiem systemowym?”).
Od dostawców modeli przeszkolonych w zakresie operacji zmiennoprzecinkowych o łącznej wartości obliczeniowej poniżej 10^25 nie oczekuje się powiadamiania Komisji Europejskiej o swoim modelu i przestrzegania obowiązków w zakresie bezpieczeństwa i ochrony, chyba że Komisja Europejska wyznaczyła ich model jako stwarzający ryzyko systemowe.
Szkolenie modelu AI ogólnego przeznaczenia (z ryzykiem systemowym lub bez niego) wymaga znacznej alokacji zasobów obliczeniowych z góry. W związku z tym dostawcy mogą wiedzieć, czy ich model będzie spełniał orientacyjne kryterium stanowiące model sztucznej inteligencji ogólnego przeznaczenia, podane w sekcji 2.1 wytycznych w sprawie zakresu obowiązków dotyczących modeli sztucznej inteligencji ogólnego przeznaczenia, lub łączny próg obliczeń szkoleniowych określony w art. 51 ust. 2 aktu w sprawie sztucznej inteligencji, przed zakończeniem szkolenia (motyw 112 aktu w sprawie sztucznej inteligencji). W szczególności oczekuje się, że dostawcy oszacują, czy ich model będzie modelem sztucznej inteligencji ogólnego przeznaczenia (wyszkolonym z wykorzystaniem ponad 10^23 operacji zmiennoprzecinkowych obliczeń skumulowanych) oraz modelem sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym (wyszkolonym z wykorzystaniem ponad 10^25 operacji zmiennoprzecinkowych obliczeń skumulowanych) przed rozpoczęciem dużej operacji poprzedzającej szkolenie.
Jeżeli model przekroczy łączny próg obliczeń szkoleniowych wynoszący 10^25 operacji zmiennoprzecinkowych, określony w art. 51 ust. 2 aktu w sprawie sztucznej inteligencji, lub dostawca wie, że model przekroczy ten próg, dostawca ma dwa tygodnie na powiadomienie Komisji Europejskiej (art. 52 aktu w sprawie sztucznej inteligencji). Aby uzyskać więcej informacji na temat zgłoszenia, zob. pytanie „Jeżeli model sztucznej inteligencji ogólnego przeznaczenia przekracza próg obliczeniowy dla takich modeli o ryzyku systemowym, czy zawsze uznaje się, że ma on ryzyko systemowe?”.
Dostawcy mogą wybrać metodę obliczania/szacowania skumulowanego obliczenia szkolenia w operacjach zmiennoprzecinkowych. W załączniku do wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia zaproponowano dwa możliwe podejścia: oparte na architekturze i sprzęcie; a także ogólne zasady dotyczące tego, co należy uwzględnić/wykluczyć w obliczeniach. Obliczenia wykorzystywane do generowania danych syntetycznych – sztucznie stworzonych danych treningowych wytworzonych przez algorytmy (w tym inne modele), a nie zebranych ze źródeł rzeczywistych – muszą być uwzględniane w łącznych obliczeniach obliczeń treningowych, dodatkowo do obliczeń stosowanych do trenowania na danych syntetycznych, jeżeli dane syntetyczne nie są publicznie dostępne. Jednak skumulowane obliczenia szkoleniowe modelu macierzystego (tj. modelu generującego dane syntetyczne) nie muszą być uwzględniane w obliczeniach/oszacowaniach.
Dostawcy mogą zakwestionować automatyczną klasyfikację jako model AI ogólnego przeznaczenia o ryzyku systemowym, gdy osiągają próg obliczeniowy określony w art. 51 ust. 2 aktu w sprawie AI. Mogą na przykład obalić domniemanie, że ich model ma możliwości o dużym wpływie, przedstawiając dowody na to, że możliwości ich modelu nie odpowiadają możliwościom zarejestrowanym w najbardziej zaawansowanych modelach lub je przewyższają. W sekcji 2.3 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia przedstawiono dalsze wytyczne dotyczące tego, jak to zrobić. Jeżeli Komisja Europejska zaakceptuje argumenty dostawcy, model przestanie być klasyfikowany jako ryzyko systemowe, zmniejszając tym samym obowiązki dostawcy w odniesieniu do tego konkretnego modelu od momentu akceptacji.
Zgodnie ze wspólnym i proporcjonalnym stosowaniem aktu w sprawie sztucznej inteligencji oraz prawem dostawcy do dobrej administracji Komisja Europejska może uwzględnić nowe informacje przekazane przez dostawcę po zgłoszeniu, gdy tylko staną się one dostępne. Ponadto decyzja Komisji Europejskiej o przyjęciu lub odrzuceniu argumentów dostawcy może uwzględniać niepewność w przekazywanych informacjach i określać warunki ewentualnej przyszłej ponownej oceny. Obowiązki dostawców modeli AI ogólnego przeznaczenia o ryzyku systemowym mają jednak zastosowanie od momentu, w którym model spełnia warunek określony w art. 51 ust. 1 lit. a) aktu w sprawie AI (tj. zdolności o dużym wpływie, zakładane poprzez osiągnięcie progu obliczeniowego).
Ogólnie rzecz biorąc, nie. Środki bezpieczeństwa można stosować w celu ograniczenia ryzyka systemowego wynikającego z modelu AI ogólnego przeznaczenia dostawcy obarczonego ryzykiem systemowym. Środki łagodzące nie zmieniają jednak faktu, że model wiąże się z (dopuszczalnym) ryzykiem systemowym. Jeżeli model nie stwarza ryzyka systemowego, nawet bez wdrożonych środków bezpieczeństwa i ochrony, dostawcy mogą zakwestionować automatyczną klasyfikację zgodnie z art. 52 ust. 2 aktu w sprawie sztucznej inteligencji (zob. pytanie „Jeżeli model AI ogólnego przeznaczenia przekracza próg obliczeniowy dla takich modeli o ryzyku systemowym, czy zawsze uznaje się, że ma ryzyko systemowe?”).
Komisja Europejska uważa, że wszelkie późniejsze prace nad modelem na dalszych etapach jego dużego cyklu przedszkolnego stanowią część tego samego cyklu życia modelu, a zatem część tego samego modelu, jeżeli są prowadzone przez tego samego dostawcę lub w imieniu tego samego dostawcy (zob. sekcja 2.2 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia).Inne względy mają zastosowanie, jeżeli inny podmiot modyfikuje model (zob. pytanie „Jeżeli model AI ogólnego przeznaczenia jest modyfikowany przez inny podmiot niż pierwotny dostawca, czy podmiot modyfikujący staje się dostawcą?” oraz sekcja 3.2 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia).
Takie rozumienie modelu zostało wybrane przez Komisję Europejską po dokładnym rozważeniu. We współczesnym rozwoju sztucznej inteligencji powszechne jest wprowadzanie niewielkich iteracyjnych zmian w modelach sztucznej inteligencji po wprowadzeniu ich na rynek. Dostawcy często przeprowadzają również bardziej znaczące szkolenia po szkoleniu w odniesieniu do swojego modelu już wprowadzonego do obrotu, a wynikający z nich zmieniony model jest wprowadzany do obrotu pod nową nazwą, potocznie nazywaną „nowym modelem”. Ponieważ nasze rozumienie technologii wciąż ewoluuje, obecnie trudno jest określić dobrą granicę w tym, co liczy się jako istotna lub nieistotna modyfikacja w celu rozgraniczenia kolejnych wersji modelu na odrębne modele. W związku z tym na razie Komisja Europejska uważa, że każda wersja modelu pochodząca z tego samego dużego szkolenia wstępnego prowadzonego przez tego samego dostawcę jest tym samym modelem, aby zapewnić pewność prawa. W związku z tym nie każde „uwolnienie”, które jest oznaczone jako takie przez dostawców, jest koniecznie nowym modelem do celów aktu w sprawie sztucznej inteligencji, zgodnie z interpretacją zawartą w wytycznych. Niepubliczne szczegóły techniczne dotyczące procesu szkolenia mogą być potrzebne do ustalenia, czy „uwolnienie” stanowi nowy model.
Ponieważ modele wprowadzone do obrotu przed dniem 2 sierpnia 2025 r. muszą być zgodne z aktem w sprawie sztucznej inteligencji dopiero od dnia 2 sierpnia 2027 r. (art. 111 ust. 3 aktu w sprawie sztucznej inteligencji), możliwe jest, że ten okres przejściowy nadal ma zastosowanie do „uwolnienia”, które ma miejsce obecnie.
W odróżnieniu od przepisów dotyczących systemów sztucznej inteligencji, które obejmują wiele różnych ról, takich jak dostawca, podmiot wdrażający, importer lub dystrybutor, przepisy dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia regulują wyłącznie „dostawcę”. „Dostawcą” w tym kontekście jest każdy, kto opracowuje model AI ogólnego przeznaczenia lub który opracował model AI ogólnego przeznaczenia i wprowadza go do obrotu pod własną nazwą lub znakiem towarowym, odpłatnie lub nieodpłatnie (art. 3 ust. 3 aktu w sprawie AI). Co ważne, termin „wprowadza go do obrotu” odnosi się do pierwszej komercyjnej dostawy modelu do celów dystrybucji lub wykorzystania na rynku unijnym (art. 3 ust. 9 pkt 10 aktu w sprawie sztucznej inteligencji).
Na przykład pracodawca, który udziela swoim pracownikom licencji na model już dostępny na rynku unijnym, nie byłby uznawany za dostawcę tego modelu ani nie byłby zobowiązany do weryfikacji jego zgodności z przepisami aktu w sprawie sztucznej inteligencji. Jeżeli jednak podmiot działający na niższym szczeblu łańcucha dostaw zintegruje model, który został już udostępniony na rynku unijnym, ze swoim systemem sztucznej inteligencji, może podlegać obowiązkom wynikającym z przepisów aktu w sprawie sztucznej inteligencji dotyczących systemów sztucznej inteligencji.
Komisja Europejska uważa, że modyfikator niższego szczebla staje się dostawcą zmodyfikowanego modelu AI ogólnego przeznaczenia tylko wtedy, gdy modyfikacja prowadzi do istotnej zmiany ogólnego charakteru modelu, jego zdolności lub ryzyka systemowego. Orientacyjnym kryterium jest to, że obliczenia szkoleniowe wykorzystane do modyfikacji są większe niż jedna trzecia obliczeń szkoleniowych pierwotnego modelu (zob. załącznik do wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia w odniesieniu do sposobu rozumienia „obliczeń szkoleniowych”). Jeżeli jednak nie można oczekiwać, że modyfikator niższego szczebla będzie znał tę wartość i nie może jej oszacować, próg należy zastąpić w następujący sposób.
Jeżeli model pierwotny jest modelem sztucznej inteligencji ogólnego przeznaczenia o ryzyku systemowym, próg należy zastąpić jedną trzecią progu dla modelu, co do którego zakłada się, że ma zdolności o dużym wpływie (tj. obecnie 10^25 operacji zmiennoprzecinkowych). W przeciwnym razie należy go zastąpić jedną trzecią progu dla modelu uznawanego za model AI ogólnego przeznaczenia (tj. obecnie 10^23 operacje zmiennoprzecinkowe, zob. sekcja 2.1 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia).
Próg ten opiera się na założeniu, że model, który jest modyfikowany przy użyciu tej ilości obliczeń, będzie wykazywał istotną zmianę, co uzasadnia objęcie modyfikatora niższego szczebla obowiązkami dostawców lub modeli AI ogólnego przeznaczenia i potencjalnie modeli AI ogólnego przeznaczenia o ryzyku systemowym. Chociaż obecnie niewiele modyfikacji może spełniać to kryterium, liczba modyfikatorów niższego szczebla, które stają się dostawcami modeli AI ogólnego przeznaczenia, może z czasem rosnąć wraz ze wzrostem obliczeń stosowanych do modyfikacji modeli. Kryterium to jest zatem przede wszystkim perspektywiczne i zgodne z podejściem opartym na analizie ryzyka określonym w akcie w sprawie sztucznej inteligencji. W związku z tym podejście Komisji Europejskiej może się zmienić w przyszłości w miarę rozwoju technologii i rynku.
Więcej informacji można znaleźć w sekcji 3.2 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia.
W akcie w sprawie sztucznej inteligencji uznano, że podmiotem, który szkoli model, może nie być ten, który jest odpowiedzialny umownie, ekonomicznie lub technicznie za opracowanie (zob. definicja dostawcy stwierdzająca „opracował” w art. 3 ust. 3 aktu w sprawie sztucznej inteligencji). Kwestia, pod czyim kierownictwem model jest szkolony, wymaga indywidualnej oceny, która może uwzględniać między innymi stosunki umowne. Niektóre przykłady przedstawiono w sekcji 3.1.1 wytycznych w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia.
Dostawcy modeli AI ogólnego przeznaczenia muszą (art. 53 aktu w sprawie AI):
sporządza i prowadzi dokumentację techniczną dotyczącą modelu, w tym informacje na temat procesu opracowywania, w celu przekazania jej na żądanie Urzędowi ds. AI; właściwe organy krajowe mogą również zwrócić się do Urzędu ds. Sztucznej Inteligencji o wystąpienie w ich imieniu z wnioskiem o udzielenie informacji, jeżeli informacje te są im niezbędne do wykonywania zadań nadzorczych;
dostarczanie informacji i dokumentacji dostawcom systemów sztucznej inteligencji niższego szczebla, aby pomóc im zrozumieć możliwości i ograniczenia modelu oraz wywiązać się z własnych obowiązków;
wdraża politykę zgodności z unijnym prawem autorskim i prawami pokrewnymi, w tym identyfikuje i respektuje zastrzeżenia praw za pomocą najnowocześniejszych technologii; publikuje wystarczająco szczegółowe streszczenie treści wykorzystanych do szkolenia modelu; jeżeli mają siedzibę poza UE, wyznaczają upoważnionego przedstawiciela w Unii przed wprowadzeniem ich modelu do obrotu.
Dostawcy mogą wykazać zgodność z przepisami za pomocą kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia, który został oceniony jako odpowiedni, lub za pomocą odpowiednich alternatywnych środków.
Oprócz standardowych obowiązków spoczywających na dostawcach wszystkich modeli AI ogólnego przeznaczenia dostawcy modeli AI ogólnego przeznaczenia o ryzyku systemowym muszą (art. 55 aktu w sprawie AI):
przeprowadza ocenę modelu przy użyciu znormalizowanych protokołów i najnowocześniejszych narzędzi, w tym przeprowadza i dokumentuje badania kontradyktoryjne w celu identyfikacji i ograniczania ryzyka systemowego;
ocenia i ogranicza ewentualne ryzyko systemowe na poziomie Unii, w tym jego źródła, które może wynikać z opracowania, wprowadzenia do obrotu lub stosowania tych modeli;
bez zbędnej zwłoki śledzi, dokumentuje i zgłasza Urzędowi ds. Sztucznej Inteligencji oraz, w stosownych przypadkach, organom krajowym istotne informacje na temat poważnych incydentów i możliwych środków naprawczych;
zapewniają odpowiednią ochronę cyberbezpieczeństwa zarówno modelu, jak i jego infrastruktury fizycznej, aby zapobiec nieuprawnionemu dostępowi, kradzieży lub wyciekowi.
Dostawcy takich modeli mogą wykazać zgodność poprzez przestrzeganie kodeksu postępowania w zakresie AI ogólnego przeznaczenia lub wykazać alternatywne odpowiednie środki zgodności. Jeżeli usługodawcy zdecydują się zastosować alternatywne środki, muszą przedstawić Komisji Europejskiej do oceny argumenty przemawiające za tym, dlaczego takie środki są odpowiednie.
Dostawcy modeli AI ogólnego przeznaczenia udostępnionych jako otwarte oprogramowanie mogą być zwolnieni z niektórych obowiązków (art. 53 ust. 2 i art. 54 ust. 6 aktu w sprawie AI), w szczególności:
wymóg prowadzenia dokumentacji technicznej dla organów;
wymóg dostarczania dokumentacji dostawcom systemów sztucznej inteligencji niższego szczebla;
wymóg wyznaczenia upoważnionego przedstawiciela (w przypadku dostawców spoza UE).
Wyłączenia te wymagają, aby model AI ogólnego przeznaczenia:
jest udostępniany na podstawie bezpłatnej i otwartej licencji, umożliwiającej dostęp, wykorzystanie, modyfikację i dystrybucję bez monetyzacji;
jego parametry, w tym wagi, architektura i informacje o użytkowaniu, są publicznie dostępne;
nie jest modelem AI ogólnego przeznaczenia o ryzyku systemowym – dostawcy modeli AI ogólnego przeznaczenia o ryzyku systemowym muszą wywiązywać się ze wszystkich obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia, niezależnie od tego, czy model ten jest udostępniany jako otwarte oprogramowanie.
Wyłączenia te uznają, że modele oparte na otwartym oprogramowaniu przyczyniają się do badań naukowych i innowacji, zapewniając jednocześnie przejrzystość dzięki ich otwartemu charakterowi. Dostawcy, których modele spełniają powyższe wymogi otwartego oprogramowania, nie są jednak zwolnieni z obowiązku dotyczącego polityki w zakresie praw autorskich ani z wymogu publikowania podsumowania danych treningowych (art. 53 ust. 1 lit. c) lit. d) aktu w sprawie sztucznej inteligencji), ponieważ ich otwarty charakter niekoniecznie udostępnia informacje na temat danych wykorzystywanych do szkolenia lub modyfikacji modelu ani na temat sposobu zapewnienia zgodności z prawem autorskim.
W sekcji 4 wytycznych Komisji Europejskiej w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia zawarto dalsze wytyczne dotyczące wyłączenia ze stosowania otwartego oprogramowania.
Kodeks postępowania w zakresie AI ogólnego przeznaczenia jest dobrowolnym narzędziem, przygotowanym przez niezależnych ekspertów w ramach procesu z udziałem wielu zainteresowanych stron, zaprojektowanym, aby pomóc przemysłowi w wypełnianiu obowiązków wynikających z aktu w sprawie AI w odniesieniu do dostawców modeli AI ogólnego przeznaczenia, zapewniając, aby modele AI ogólnego przeznaczenia wprowadzane do obrotu w Europie były bezpieczne i przejrzyste, w tym te o największej mocy.
Określono w nim sposób, w jaki dostawcy modeli AI ogólnego przeznaczenia i modeli AI ogólnego przeznaczenia o ryzyku systemowym mogą wykazać zgodność z obowiązkami określonymi w akcie w sprawie AI w art. 53 i 55 aktu w sprawie AI.
Kodeks składa się z trzech rozdziałów: Przejrzystość i prawo autorskie, zarówno w odniesieniu do wszystkich dostawców modeli AI ogólnego przeznaczenia, jak i bezpieczeństwo i ochrona, istotne tylko dla ograniczonej liczby dostawców najbardziej zaawansowanych modeli, którzy podlegają obowiązkom wynikającym z aktu w sprawie AI w odniesieniu do dostawców modeli AI ogólnego przeznaczenia o ryzyku systemowym. Każdy dostawca (lub potencjalny przyszły dostawca) modelu sztucznej inteligencji ogólnego przeznaczenia może podpisać kod, wypełniając formularz sygnatariusza i przesyłając go na adres EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Formularz powinien być podpisany przez osobę posiadającą wystarczające uprawnienia, aby związać usługodawcę z kodeksem (np. kadrę kierowniczą wyższego szczebla). Więcej informacji na temat procesu podpisywania można znaleźć w tych Q&A.
Więcej informacji na temat tego, które modele sztucznej inteligencji są „modelami ogólnego przeznaczenia” i na jakich warunkach klasyfikuje się je jako „ryzyko systemowe”, można znaleźć w pozostałych pytaniach oraz w sekcji 2 wytycznych w sprawie zakresu obowiązków dotyczących modeli sztucznej inteligencji ogólnego przeznaczenia. Aby dowiedzieć się więcej, przeczytaj o Kodeksie praktyk AI ogólnego przeznaczenia w tych Q&A.
Komisja Europejska będzie regularnie monitorować i oceniać realizację celów kodeksu postępowania (kodeksu) w zakresie sztucznej inteligencji ogólnego przeznaczenia. Mechanizm aktualizacji jest dalej rozwijany w przeprowadzonej przez Komisję Europejską ocenie adekwatności kodeksu.
W szczególności Komisja Europejska rozważy ułatwienie formalnej aktualizacji kodeksu co najmniej raz na dwa lata, na przykład w oparciu o pojawienie się norm, istotny rozwój technologiczny lub zmiany w krajobrazie ryzyka.
Aby monitorować realizację celów kodeksu, Komisja Europejska pozostanie w wymianie z sygnatariuszami, aby zrozumieć, gdzie konieczne jest wsparcie wdrażania, i może współpracować z właściwymi organami krajowymi, dostawcami niższego szczebla, posiadaczami praw i innymi podmiotami. Ponadto kodeks nie wpływa na odpowiedzialność Komisji Europejskiej za wydanie wytycznych dotyczących stosowania aktu w sprawie sztucznej inteligencji, które mogą mieć znaczenie dla pojęć zawartych w kodeksie. W szczególności w przypadku bezpośredniego zagrożenia wystąpieniem nieodwracalnej szkody na dużą skalę lub w celu zaradzenia jej negatywnym skutkom Komisja Europejska rozważy, czy oprócz odpowiednich działań w zakresie egzekwowania prawa właściwe są szybkie wytyczne dotyczące stosowania aktu w sprawie sztucznej inteligencji lub szybka aktualizacja kodeksu uzgodniona przez sygnatariuszy. Wytyczne w sprawie zakresu obowiązków dotyczących modeli AI ogólnego przeznaczenia będą regularnie poddawane przeglądowi i w stosownych przypadkach aktualizowane.
Zgodnie z art. 53 ust. 1 lit. a) i sekcją 1 pkt 2 lit. e) załącznika XI do aktu w sprawie AI dostawcy modeli AI ogólnego przeznaczenia muszą dokumentować znane lub szacowane zużycie energii przez ich model. Jeśli nie jest znana, szacunki te mogą opierać się na wykorzystanych zasobach obliczeniowych. Ponadto Komisja Europejska jest uprawniona do przyjęcia aktu delegowanego w celu szczegółowego określenia metod pomiaru i obliczeń, które dostawcy powinni stosować do pomiaru lub szacowania zużycia energii w swoich modelach, aby umożliwić porównywalną i weryfikowalną dokumentację. W odniesieniu do okresu do czasu przyjęcia takiego aktu delegowanego wzór formularza dokumentacji w związku z rozdziałem dotyczącym przejrzystości kodeksu postępowania (kodeksu) w zakresie sztucznej inteligencji ogólnego przeznaczenia zawiera wytyczne dotyczące sposobu, w jaki dostawcy mogą wykazać zgodność z tym wymogiem, w części „Zużycie energii (w trakcie szkolenia i wyciągania wniosków)”.
W szczególności, jeżeli sygnatariusz kodeksu nie zna zużycia energii podczas szkolenia swojego modelu, zobowiązuje się do zgłoszenia szacunkowej ilości, chyba że brakuje mu krytycznych informacji na temat obliczeń lub sprzętu, które uniemożliwiają mu dokonanie oszacowania. W takim przypadku Sygnatariusz zobowiązuje się do udokumentowania brakujących informacji. Do celów oszacowania zużycia energii Urząd ds. Sztucznej Inteligencji wykorzysta dostępne informacje na temat zasobów obliczeniowych wykorzystywanych do szkolenia w celu uzyskania szacunków. W tym celu Urząd ds. Sztucznej Inteligencji będzie opierać się na wiedzy na temat tego, jakich kluczowych informacji brakuje dostawcy, dostępnych zasobach naukowych, a także na wstępnych wynikach trwającego badania Komisji Europejskiej dotyczącego energooszczędnej i niskoemisyjnej sztucznej inteligencji, oraz na wiedzy fachowej panelu naukowego.
Dostawcy modeli AI ogólnego przeznaczenia o ryzyku systemowym muszą bez zbędnej zwłoki śledzić, dokumentować i zgłaszać Urzędowi ds. AI oraz, w stosownych przypadkach, właściwym organom krajowym istotne informacje na temat poważnych incydentów i możliwych środków naprawczych w celu zaradzenia im (art. 55 ust. 1 lit. c) aktu w sprawie AI). Komisja Europejska uważa, że obowiązek ten obejmuje poważne naruszenia cyberbezpieczeństwa związane z modelem lub jego infrastrukturą fizyczną, w tym (samo)eksfiltrację parametrów modelu i cyberataki, ze względu na ich możliwy wpływ na obowiązki przewidziane w art. 55 ust. 1 lit. b) i d) aktu w sprawie sztucznej inteligencji. Oprócz tego Komisja Europejska uznaje „poważny incydent” w kontekście rozdziału V aktu w sprawie sztucznej inteligencji za każdy incydent lub nieprawidłowe działanie modelu sztucznej inteligencji ogólnego przeznaczenia, które bezpośrednio lub pośrednio prowadzi do któregokolwiek ze zdarzeń wymienionych w odpowiedniej definicji systemów sztucznej inteligencji w art. 3 pkt 49 lit. a)–d) aktu w sprawie sztucznej inteligencji. Rozdział „Bezpieczeństwo i ochrona” kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia, w drodze zobowiązania nr 9, stanowi sposób wykazania zgodności z tym obowiązkiem.
Komisja Europejska oczekuje, że dostawcy będą przestrzegać obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia określonych w akcie w sprawie AI, który wszedł w życie w sierpniu 2025 r. Niektóre z nich są proste – na przykład powiadomienie Urzędu ds. Sztucznej Inteligencji, gdy dostawca trenuje model sztucznej inteligencji ogólnego przeznaczenia z ryzykiem systemowym w art. 52 aktu w sprawie sztucznej inteligencji. Oczekuje się, że dostawcy będą wysyłać te powiadomienia bez dalszej zwłoki. Inne obowiązki są bardziej złożone. W przypadku tych dostawców dostawcy mogą wykazać zgodność za pomocą kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia (kodeksu) lub poprzez wykazanie alternatywnych odpowiednich środków zgodności.
Komisja Europejska rozumie, że w szczególności w odniesieniu do bardziej złożonych obowiązków niektórzy dostawcy mogą nie być w stanie w pełni wdrożyć środków przewidzianych w kodeksie lub podobnie odpowiednich środków wykazania zgodności do sierpnia 2025 r. W przypadku gdy usługodawca nie wywiąże się od razu w pełni ze wszystkich zobowiązań wynikających z kodeksu, Komisja Europejska uzna je za działające w dobrej wierze i będzie gotowa do współpracy w celu znalezienia sposobów zapewnienia pełnej zgodności. W szczególności Komisja Europejska zachęca do ścisłej nieformalnej współpracy z dostawcami podczas szkolenia ich modeli AI ogólnego przeznaczenia o ryzyku systemowym, aby ułatwić przestrzeganie przepisów i zapewnić terminowe wprowadzanie na rynek. Ponadto Komisja Europejska oczekuje proaktywnej sprawozdawczości ze strony dostawców modeli AI ogólnego przeznaczenia obarczonych ryzykiem systemowym, czy to w ramach zobowiązań wynikających z kodeksu, czy też w ramach alternatywnych sposobów wykazania zgodności. Jest to szczególnie ważne w pierwszym roku, w którym Komisja Europejska skoncentruje się na wymianie technicznej na szczeblu roboczym, aby jak najszybciej ułatwić dostawcom pełną zgodność z przepisami.
Piaskownice regulacyjne w zakresie sztucznej inteligencji są bezpiecznymi i kontrolowanymi środowiskami do eksperymentowania, opracowywania, szkolenia i testowania innowacyjnych systemów sztucznej inteligencji. Właściwe organy nadzorujące piaskownice mogą udzielać wskazówek i porad dotyczących interpretacji przepisów aktu w sprawie sztucznej inteligencji i innych odpowiednich przepisów unijnych lub krajowych. Każdy dostawca posiadający system sztucznej inteligencji objęty zakresem aktu w sprawie sztucznej inteligencji może ubiegać się o udział w piaskownicy regulacyjnej w zakresie sztucznej inteligencji.
Do dnia 2 sierpnia 2026 r. państwa członkowskie powinny wprowadzić piaskownice regulacyjne w zakresie AI, po czym (potencjalni) dostawcy będą mogli ubiegać się o uczestnictwo w piaskownicach. W każdym państwie członkowskim dostępna będzie co najmniej jedna piaskownica regulacyjna w zakresie AI.
Do dnia 2 sierpnia 2026 r. państwa członkowskie powinny wprowadzić piaskownicę regulacyjną w zakresie AI o zasięgu krajowym.
Każdy dostawca posiadający system sztucznej inteligencji objęty zakresem aktu w sprawie sztucznej inteligencji może ubiegać się o udział w piaskownicy regulacyjnej w zakresie sztucznej inteligencji. Oznacza to, że piaskownice regulacyjne w zakresie sztucznej inteligencji mogą (między innymi) nadzorować konkretne projekty dotyczące sztucznej inteligencji w celu spełnienia wymogów i obowiązków określonych w akcie w sprawie sztucznej inteligencji, w tym w odniesieniu do oceny zgodności systemów sztucznej inteligencji wysokiego ryzyka, zgodności interaktywnych i generatywnych systemów sztucznej inteligencji z wymogami w zakresie przejrzystości określonymi w art. 50 aktu w sprawie sztucznej inteligencji, lub w celu umożliwienia identyfikacji, testowania i wdrażania skutecznych środków zapobiegawczych i łagodzących, aby zapewnić, że konkretne przypadki graniczne systemów sztucznej inteligencji nie stanowią zakazanych praktyk.
Oczekuje się, że piaskownice regulacyjne w zakresie AI i punkt obsługi ds. aktu w sprawie AI będą wzajemnie się uzupełniać. Piaskownice regulacyjne w zakresie AI opracowano z myślą o bardziej szczegółowych i złożonych pytaniach i wyzwaniach regulacyjnych, a celem punktu obsługi ds. aktu w sprawie AI jest udzielanie odpowiedzi na bardziej ogólne pytania dotyczące aktu w sprawie AI. Wyzwania regulacyjne, których dotyczyły piaskownice regulacyjne w zakresie AI, oraz pytania, na które udzielono odpowiedzi w piaskownicach regulacyjnych w zakresie AI, mogą również wspierać cel punktu obsługi ds. aktu w sprawie AI, wykorzystując wyciągnięte wnioski, wytyczne i odpowiedzi przedstawione w piaskownicach regulacyjnych w zakresie AI.