KRiBSI polski organ nadzoru AI 2026

Polska tworzy KRiBSI. Nowy nadzorca AI dla firm

1 kwietnia 2026 roku to data, która może okazać się punktem zwrotnym w historii polskiego rynku sztucznej inteligencji. Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji, który wprowadza do krajowego porządku prawnego unijne rozporządzenie AI Act. W Polsce nadzór nad stosowaniem przepisów będzie sprawować Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji — w skrócie KRiBSI. To nie tylko nowy organ administracji, ale cały system wspierania polskich firm AI i ochrony obywateli przed nieprawidłowo działającymi algorytmami.

Projekt, przygotowany przez Ministerstwo Cyfryzacji pod kierunkiem wicepremiera Krzysztofa Gawkowskiego, trafił do Sejmu z ponad siedmiomiesięcznym opóźnieniem względem terminu narzuconego przez prawo unijne. Mimo to jego znaczenie trudno przecenić — wraz z wejściem w życie Polska zyska jeden z najbardziej rozbudowanych narodowych systemów nadzoru AI w Unii Europejskiej.

Czym jest KRiBSI i dlaczego powstaje teraz?

AI Act — unijne rozporządzenie ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji — zaczął obowiązywać w Unii Europejskiej stopniowo. Od 1 sierpnia 2024 roku obowiązuje już część przepisów, w tym zakaz stosowania szczególnie niebezpiecznych systemów AI oraz regulacje dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Zgodnie z pierwotnymi wymogami rozporządzenia, Polska powinna była mieć działający organ nadzoru już od 2 sierpnia 2025 roku. Tymczasem projekt ustawy wdrożeniowej dopiero teraz — z ponad siedmiomiesięcznym opóźnieniem — został skierowany do Sejmu.

Ministerstwo Cyfryzacji, które przygotowało projekt, podkreśla, że celem ustawy jest zapewnienie „bezpiecznego i sprzyjającego innowacjom środowiska dla rozwoju AI”. Wiceminister cyfryzacji Dariusz Standerski powiedział wprost: „Ustawa o AI to przyspieszenie rozwoju sztucznej inteligencji godnej zaufania. Tworzymy piaskownice regulacyjne, w których przedsiębiorcy będą mogli testować swoje rozwiązania w przyjaznym środowisku i przy wsparciu ekspertów”.

Adam Szłapka, sekretarz stanu w resorcie, dodał na antenie TVN24, że projekt ma kluczowe znaczenie zarówno dla rozwoju innowacji, jak i zwiększenia bezpieczeństwa obywateli. W praktyce oznacza to, że państwo chce pełnić podwójną rolę: strażnika i jednocześnie promotora technologii AI.

Kompetencje nadzorcze — Komisja, która ma realną władzę

KRiBSI nie będzie organem fasadowym. W skład Komisji wejdą: przewodniczący i dwóch zastępców oraz przedstawiciele kluczowych regulatorów — prezesa Urzędu Ochrony Konkurencji i Konsumentów, szefa Urzędu Komunikacji Elektronicznej, Komisji Nadzoru Finansowego oraz Krajowej Rady Radiofonii i Telewizji. To szerokie spektrum kompetencji, które odzwierciedla wielowymiarowy charakter ryzyka związanego z AI.

W zakresie nadzoru Komisja będzie mogła:

  • prowadzić postępowania administracyjne,
  • wydawać decyzje administracyjne,
  • nakładać sankcje administracyjne za naruszenie przepisów,
  • koordynować nadzór nad systemami sztucznej inteligencji w Polsce.

Co istotne, KRiBSI zyskuje również uprawnienia do wydawania nakazów w trybie przyspieszonym. Jeżeli Komisja stwierdzi, że system AI stwarza bezpośrednie ryzyko dla zdrowia, życia lub praw podstawowych obywateli, będzie mogła nakazać wycofanie produktu z rynku z rygorem natychmiastowej wykonalności — bez konieczności czekania na wieloletnie postępowanie sądowe.

Wzmocnienie pozycji nadzorczej polskiego organu to odpowiedź na postulaty środowisk prawniczych i biznesowych, które od miesięcy wskazywały, że bez realnych narzędzi egzekwowania przepisy AI Act pozostaną martwą literą. Więcej o tym, jak wygląda europejski system nadzoru AI, piszemy w naszym artykule AI Act: co oznacza dla polskich firm.

Piaskownice regulacyjne i wiążące opinie — narzędzia wsparcia dla firm

Jedną z najbardziej praktycznych funkcji KRiBSI będzie tworzenie i zarządzanie piaskownicami regulacyjnymi (regulatory sandboxes). To wydzielone środowiska, w których przedsiębiorcy rozwijający systemy AI będą mogli testować swoje rozwiązania pod okiem ekspertów — bez ryzyka natychmiastowych kar za ewentualne naruszenia przepisów, które w normalnym obiegu mogłyby się pojawić.

Z piaskownic regulacyjnych będą mogły korzystać przede wszystkim podmioty tworzące sztuczną inteligencję, które potrzebują wsparcia w osiąganiu zgodności z przepisami. KRiBSI będzie udzielać zgody na odstępstwa od stosowania niektórych przepisów — ale wyłącznie w zakresie niezbędnym do realizacji konkretnego projektu. To podejście wzorowane na podobnych rozwiązaniach funkcjonujących już w Wielkiej Brytanii, Holandii i Finlandii.

Dla polskich startupów i firm technologicznych piaskownice regulacyjne oznaczają realną możliwość sprawdzenia innowacyjnych rozwiązań AI w kontrolowanych warunkach. Zamiast budować produkt na własne ryzyko i obawiać się późniejszych sankcji, przedsiębiorca będzie mógł przedstawić projekt Komisji, uzyskać opinię ekspercką i dostosować rozwiązanie do wymogów, zanim trafi ono na rynek. Co więcej, przedsiębiorca, który działa zgodnie z opinią KRiBSI, będzie miał pewność prawną — nawet jeśli później interpretacja przepisów mogłaby być inna. To rozwiązanie eliminuje ryzyko biznesowe związane z niepewnością prawną, które dotychczas hamowało inwestycje w zaawansowane systemy AI.

Ministerstwo Cyfryzacji zapowiedziało również, że Polska planuje nie tylko kupować technologię AI z zagranicy, ale aktywnie ją tworzyć — w sposób etyczny i zgodny z najwyższymi standardami. Piaskownice regulacyjne KRiBSI mają być jednym z instrumentów realizacji tej strategii. Więcej o perspektywie polskich firm wobec regulacji AI piszemy na łamach naszego portalu. Informacje o szczegółach projektu ustawy można znaleźć w serwisie Rzeczpospolita oraz w relacji TVN24. Szczegółową analizę prawną publikuje Gazeta Prawna.

Prawa obywateli — skarga do Komisji i realna ochrona

Ustawa o systemach sztucznej inteligencji wprowadza konkretne prawa dla obywateli. Każdy, kto uzna, że system AI działał wobec niego nieprawidłowo — na przykład algorytm banku odrzucił wniosek kredytowy w sposób dyskryminujący lub niesprawiedliwy — będzie mógł złożyć skargę do KRiBSI.

Mechanizm jest prosty i przypomina skargę do Urzędu Ochrony Konkurencji i Konsumentów w sprawach konsumenckich. Obywatel składa skargę, Komisja prowadzi postępowanie wyjaśniające, a zespół ekspertów merytorycznych „zajrzy pod maskę” systemu i oceni, czy wszystko odbyło się zgodnie z prawem. Jeśli nie — Komisja będzie mogła nakazać zmianę lub wycofanie systemu.

Co ważne, dostępna będzie jawność działań Komisji. Każdy obywatel będzie mógł zapoznać się z treścią decyzji wydanych przez KRiBSI, a także z wykazem systemów AI, wobec których nałożono kary za naruszenie przepisów. To mechanizm przejrzystości, który pozwoli społeczeństwu na bieżąco oceniać, które firmy i instytucje stosują algorytmy zgodnie z prawem.

Ustawa wprowadza również zasadę, że innowacja w obszarze AI nie może odbywać się kosztem ludzkiego zdrowia, życia czy praw podstawowych. To fundamentalna deklaracja, która — jeśli będzie skutecznie egzekwowana — może zmienić relację między przedsiębiorstwami wdrażającymi AI a ich klientami i obywatelami. O praktycznych aspektach ochrony konsumenta w erze AI piszemy w materiale AI i etyka: granice, które trzeba znać.

Terminy i harmonogram — kiedy przepisy zaczną obowiązywać?

Projekt ustawy został skierowany do Sejmu 1 kwietnia 2026 roku. Przed nim jeszcze droga legislacyjna, która obejmuje prace w komisjach sejmowych, głosowanie, trafi do Senatu i ponownie do Sejmu. Trudno dziś precyzyjnie określić, kiedy ustawa wejdzie w życie, ale — co istotne — organ nadzorczy (KRiBSI) powinien rozpocząć działalność znacznie szybciej, aby nadrobić opóźnienie względem pierwotnego terminu z sierpnia 2025 roku.

Warto śledzić również prace nad tzw. Cyfrowym Omnibusem — poprawkami do AI Act, które Parlament Europejski przegłosował w ostatnich dniach przed Wielkanocą. Jedna z nich dotyczy przesunięcia terminów wejścia w życie dalszej części rozporządzenia. Jeśli poprawki zostaną przyjęte na kolejnych etapach legislacyjnych:

  • wymogi dotyczące systemów wysokiego ryzyka mogą obowiązywać od 2 grudnia 2027 roku,
  • dla systemów objętych unijnymi przepisami sektorowymi (dotyczącymi bezpieczeństwa i nadzoru rynku) — od 2 sierpnia 2028 roku,
  • do 2 listopada 2026 roku dostawcy muszą dostosować się do przepisów oznakowania treści generowanych przez AI.

Dla polskich firm oznacza to dodatkowy margines czasowy — ale nie powód do zwłoki w przygotowaniach. Przepisy dotyczące zakazanych praktyk i modeli GPAI obowiązują już teraz, a Komisja będzie mogła działać w pełnym zakresie po wejściu ustawy w życie. Oznacza to, że firmy, które wdrożyły lub wdrażają systemy AI wysokiego ryzyka, powinny już dziś analizować ich zgodność z wymogami rozporządzenia.

Społeczna Rada ds. Sztucznej Inteligencji — głos obywateli i ekspertów

Przy KRiBSI powstanie również organ opiniodawczo-doradczy — Społeczna Rada ds. Sztucznej Inteligencji, licząca od 9 do 15 członków. W jej skład wejdą eksperci reprezentujący różne perspektywy: naukowcy, praktycy biznesu, przedstawiciele organizacji pozarządowych i inni obywatele zaangażowani w tematykę AI.

Rada będzie opiniować najważniejsze decyzje Komisji, uwzględniając różnorodne interesy społeczne i gospodarcze. Co istotne, opinie Rady będą publicznie dostępne w internecie — co zapewni transparentność procesu decyzyjnego i umożliwi społeczną kontrolę nad działaniami Komisji.

To rozwiązanie nawiązuje do najlepszych praktyk europejskich w zakresie multi-stakeholder governance w obszarze technologii. Podobne ciała doradcze funkcjonują już przy niemieckiej Agencji ds. Innowacji Cyfrowych (DIH) czy francuskiej Misji AI przy Premierze. Polska buduje tym samym model, który łączy egzekwowanie prawa z szeroką deliberacją społeczną. Udział przedstawicieli społeczeństwa obywatelskiego i środowisk naukowych w procesie nadzoru AI to sygnał, że regulacja ta nie będzie zarezerwowana wyłącznie dla dużych korporacji — każdy głos będzie miał szansę zostać wysłuchany w procesie kształtowania polskiego ekosystemu sztucznej inteligencji.

Co oznacza KRiBSI dla polskich firm i przedsiębiorców?

Dla przedsiębiorstw działających na polskim rynku pojawienie się KRiBSI to sygnał o podwójnej naturze. Z jednej strony — Komisja będzie aktywnie egzekwować przepisy AI Act, co oznacza ryzyko sankcji za nieprawidłowe wdrożenia systemów wysokiego ryzyka. Z drugiej — piaskownice regulacyjne i możliwość uzyskania opinii indywidualnej to realne narzędzia wsparcia dla firm, które chcą działać zgodnie z prawem i jednocześnie rozwijać innowacyjne rozwiązania.

Pytanie, które powinni sobie zadać dziś polscy przedsiębiorcy, brzmi: czy nasze systemy AI klasyfikują się jako systemy wysokiego ryzyka w rozumieniu AI Act? Jeśli tak — należy jak najszybciej rozpocząć proces dostosowawczy. Jeśli nie — warto monitorować rozwój regulacji i utrzymywać gotowość do zmian w miarę rozszerzania zakresu obowiązków.

Szczególną uwagę powinny zwrócić firmy z sektora finansowego (stosujące AI w ocenie zdolności kredytowej), ochrony zdrowia (systemy wspierające diagnozowanie), HR (algorytmy rekrutacyjne) i administracji publicznej. To właśnie te obszary AI Act klasyfikuje jako wysokiego ryzyka i to właśnie te podmioty jako pierwsze odczują egzekwowanie przepisów przez KRiBSI.

Na portalu mygpt.pl szczegółowo omawiamy wdrożenia agentów AI w firmach oraz governance operacyjne AI. Warto zacząć od budowania wewnętrznej mapy systemów AI w organizacji — bo Komisja na pewno zapyta o nią jako pierwsza. Równolegle warto śledzić prace nad nowelizacjami i wytycznymi, które KRiBSI będzie wydawać w pierwszych miesiącach działalności — to one będą określać praktyczne standardy egzekwowania przepisów.

Podsumowanie — od teorii do praktyki

Polska powołuje KRiBSI — Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. To nie jest kolejny urząd administracyjny, który powstaje na papierze. To realny organ z realnymi kompetencjami: egzekwowanie przepisów, nakładanie kar, tworzenie piaskownic regulacyjnych i wydawanie wiążących opinii dla przedsiębiorców. Dla obywateli — to możliwość skutecznej ochrony przed algorytmami, które działają w sposób nieprawidłowy lub dyskryminujący.

Dla polskich firm projekt ustawy to zarówno wyzwanie compliance, jak i szansa. Ci, którzy przygotują się wcześniej — zbudują wewnętrzne procedury oceny ryzyka AI, stworzą rejestry systemów i wdrożą mechanizmy nadzoru — będą w najlepszej pozycji, gdy Komisja rozpocznie pełne działanie. Ci, którzy zaczekają na ostatnią chwilę, mogą napotkać problemy zarówno na poziomie regulacyjnym, jak i reputacyjnym.

Ustawa o systemach sztucznej inteligencji wkrótce trafi pod obrady Sejmu. Jeśli przejdzie przez parlament w obecnym kształcie, Polska dołączy do grona krajów UE z w pełni operacyjnym systemem nadzoru AI. Dla przedsiębiorstw, prawników i obywateli to moment, od którego nie ma odwrotu — era regulowanej sztucznej inteligencji w Polsce właśnie się rozpoczyna. Dlatego już dziś warto zacząć audytować własne systemy AI, budować zespoły odpowiedzialne za compliance i śledzić pierwsze decyzje KRiBSI — bo to właśnie na nich będą kształtować się praktyczne standardy polskiego rynku AI.


Artykuł powstał na podstawie oficjalnego komunikatu Ministerstwa Cyfryzacji, doniesień Rzeczpospolitej, TVN24 i Gazety Prawnej. Stan projektu ustawy na kwiecień 2026 roku.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *