i
Ta strona została przetłumaczona maszynowo przez serwis eTranslation Komisji Europejskiej, aby ułatwić Ci zrozumienie treści tekstu w języku obcym. Zapoznaj się z warunkami korzystania z serwisu.
Znajdź dokumenty prawne i polityczne, a także materiały komunikacyjne, takie jak arkusze informacyjne, związane z unijnym aktem w sprawie sztucznej inteligencji.
Komisja rozpoczęła konsultacje z zainteresowanymi stronami w celu wsparcia wdrożenia spoczywającego na dostawcach modeli AI ogólnego przeznaczenia obowiązku identyfikowania i przestrzegania zastrzeżeń praw wyrażonych przez podmioty praw.
Konsultacje potrwają do 9 stycznia 2026 r.
Więcej informacji na temat tych konsultacji można również znaleźć w odpowiedziach na pytania &.
Narzędzie sygnalistów w ramach aktu w sprawie sztucznej inteligencji umożliwia osobom fizycznym bezpieczne składanie zgłoszeń i przyczynia się bezpośrednio do zapewnienia przejrzystości i wiarygodności sztucznej inteligencji w Europie.
Sygnaliści odgrywają kluczową rolę w identyfikowaniu potencjalnych naruszeń prawa, które mogłyby zagrozić prawom podstawowym, zdrowiu lub zaufaniu publicznemu i które w przeciwnym razie mogłyby pozostać niewykryte. Zgłaszając potencjalne naruszenia, sygnaliści mogą wspierać Urząd ds. Sztucznej Inteligencji w ich wczesnym wykrywaniu, przyczyniając się tym samym do bezpiecznego i przejrzystego rozwoju technologii sztucznej inteligencji.
Więcej informacji można znaleźć na stronie:
Komisja uruchamia narzędzie dla sygnalistów na potrzeby aktu w sprawie sztucznej inteligencji | Shaping Europe’s digital future
AI Act Whistleblower Tool | Shaping Europe’s digital future
Sprawdź również nasze najczęściej zadawane pytania: Komisja
Europejska | FAQs
W ramach cyfrowego pakietu zbiorczego przedstawionego 19 listopada 2025 r. Komisja zaproponowała uproszczenie obowiązujących przepisów dotyczących sztucznej inteligencji, cyberbezpieczeństwa i danych.
Jeżeli chodzi o akt w sprawie sztucznej inteligencji, Komisja proponuje powiązanie rozpoczęcia stosowania przepisów regulujących systemy sztucznej inteligencji wysokiego ryzyka z dostępnością narzędzi wsparcia, w tym niezbędnych norm.
Harmonogram stosowania przepisów wysokiego ryzyka dostosowuje się do maksymalnie 16 miesięcy, tak aby przepisy zaczęły obowiązywać po potwierdzeniu przez Komisję dostępności niezbędnych norm i narzędzi wsparcia, co zapewni przedsiębiorstwom narzędzia wsparcia, których potrzebują.
Zobacz wszystkie szczegóły w materiałach prasowych:
Komunikat prasowy Prostsze unijne przepisy cyfrowe i nowe portfele cyfrowe w celu zaoszczędzenia miliardów dla przedsiębiorstw;Pakiet
cyfrowy | Kształtowanie cyfrowej przyszłości Europy
Zestawienie informacji: Strona internetowa poświęcona
pakietowi cyfrowemu dotyczącemu aktu w sprawie sztucznej inteligencji: Akt w sprawie sztucznej inteligencji | Kształtowanie cyfrowej przyszłości Europy
Publikacja tego wzoru promuje spójną i przejrzystą sprawozdawczość oraz pomaga dostawcom wykazać zgodność ze zobowiązaniami określonymi w zobowiązaniu 9 kodeksu praktyk GPAI.
Celem niniejszego kodeksu postępowania będzie wspieranie zgodności z obowiązkami w zakresie przejrzystości określonymi w akcie w sprawie AI w odniesieniu do oznaczania i etykietowania treści generowanych przez AI.
Obowiązki wynikające z art. 50 aktu w sprawie sztucznej inteligencji (obowiązki dostawców i podmiotów wdrażających generatywne systemy sztucznej inteligencji w zakresie przejrzystości) mają na celu zapewnienie przejrzystości treści generowanych lub zmanipulowanych przez sztuczną inteligencję, takich jak deepfake. Artykuł odnosi się do ryzyka oszustwa i manipulacji, wspierając integralność ekosystemu informacyjnego. Te obowiązki w zakresie przejrzystości uzupełnią inne przepisy, takie jak przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka lub modeli sztucznej inteligencji ogólnego przeznaczenia.
Poniżej przedstawiono wytyczne techniczne dotyczące bezpiecznego przekazywania dokumentów Urzędowi ds. AI zgodnie z obowiązkami spoczywającymi na dostawcach modeli AI ogólnego przeznaczenia na mocy aktu w sprawie AI. EU SEND jest wyznaczonym bezpiecznym kanałem przekazywania tych dokumentów Komisji Europejskiej, w tym powiadomień, ponownych ocen, zgłoszeń incydentów i zgłoszeń związanych z kodeksem postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia. Wszystkie transmisje za pośrednictwem EU SEND są szyfrowane i chronione, aby zapewnić poufność, integralność i autentyczność udostępnianych informacji.
Komisja wydała wytyczne w celu wyjaśnienia zakresu obowiązków spoczywających na dostawcach modeli AI ogólnego przeznaczenia na mocy aktu w sprawie AI. Zobowiązania te wchodzą w życie w dniu 2 sierpnia 2025 r. Wytyczne dotyczące zakresu obowiązków dostawców modeli sztucznej inteligencji ogólnego przeznaczenia pomagają podmiotom w ekosystemie sztucznej inteligencji zrozumieć, czy obowiązki te mają do nich zastosowanie i czego się od nich oczekuje, zapewniając im możliwość wprowadzania innowacji z ufnością.