AI Act & Compliance

Wersja 1.0 · Aktualizacja: 12 maja 2026

Ta strona opisuje, jak AI Pro Consulting podchodzi do regulacji AI w swojej pracy oraz jak pomagamy klientom dostosować się do AI Act 2026. To nie jest porada prawna — to opis naszej praktyki i metodyki.

1. Co to jest AI Act i kogo dotyczy

AI Act (Rozporządzenie UE 2024/1689) to pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję. Weszło w życie 1 sierpnia 2024 roku. Kluczowy punkt kontrolny dla większości firm: 2 sierpnia 2026 roku — od tej daty szerzej stosowane będą obowiązki dotyczące systemów wysokiego ryzyka i kar administracyjnych.

AI Act dotyczy Twojej firmy, jeśli:

2. Cztery poziomy ryzyka według AI Act

Niedopuszczalne ryzyko

Zakazane

Social scoring, manipulacja behawioralna, masowa identyfikacja biometryczna.

Wysokie ryzyko

Pełna regulacja

HR, scoring kredytowy, edukacja, infrastruktura krytyczna. Wymagana dokumentacja, audyty, nadzór człowieka.

Ograniczone ryzyko

Obowiązek informacyjny

Chatboty, deepfake, generatywna AI. Użytkownik musi wiedzieć, że ma do czynienia z AI.

Minimalne ryzyko

Bez ograniczeń

Filtry antyspamowe, AI w grach, większość zastosowań biurowych. Bez dodatkowych obowiązków.

3. Jak my pracujemy z AI Act

3.1 W naszej firmie

3.2 W projektach klientów

Każde wdrożenie AI u klienta zaczynamy od oceny zgodności:

  1. Klasyfikacja ryzyka — do której kategorii AI Act wpada wdrożenie?
  2. Mapowanie obowiązków — co konkretnie musi zostać udokumentowane, oznaczone, monitorowane?
  3. Procedura nadzoru człowieka — kto, kiedy i jak weryfikuje decyzje algorytmu?
  4. Dokumentacja techniczna — opis modelu, danych treningowych, ograniczeń, znanych ryzyk.
  5. Plan monitoringu — jak wykryjemy model drift, halucynacje, bias po wdrożeniu?

4. Shadow AI — najczęściej ignorowane ryzyko

Według dostępnych raportów rynkowych, około 68% pracowników używa AI poza formalnym nadzorem firmy. W praktyce oznacza to pracę na prywatnych kontach, niezatwierdzonych narzędziach i środowiskach, w których firma nie ma pewności, gdzie dane są przetwarzane, przechowywane i kto ma do nich dostęp.

To jest ryzyko na trzech poziomach:

W ramach audytu (krok 1 naszej współpracy) zawsze inwentaryzujemy Shadow AI w firmie klienta i wdrażamy politykę użycia + zamknięte środowisko Enterprise / lokalny RAG.

5. RODO a AI Act — relacja

AI Act nie zastępuje RODO. Obie regulacje obowiązują równolegle. Jeśli system AI przetwarza dane osobowe, musi spełniać oba zestawy wymagań.

W projektach z danymi osobowymi pracujemy z radcą prawnym (dr hab. Monika Przybylska) — to nie dodatek, to standardowy element wdrożenia.

6. Sankcje — co realnie grozi

Kary są wymierzane administracyjnie, nie sądowo. Brak należytej staranności zarządu w nadzorze nad AI może też skutkować osobistą odpowiedzialnością członków zarządu (art. 293 KSH dla spółek z o.o., art. 483 KSH dla S.A.).

7. Co możesz zrobić już teraz (bez nas)

  1. Zrób inwentaryzację: jakie narzędzia AI używają Twoi pracownicy i do czego.
  2. Zidentyfikuj systemy AI, które mogą wymagać klasyfikacji wysokiego ryzyka, szczególnie w HR, rekrutacji, ocenie pracowników, bezpieczeństwie lub decyzjach wpływających na ludzi.
  3. Wprowadź minimalną politykę: czego nie wolno wprowadzać do publicznych modeli (dane osobowe, dane wrażliwe, dane klienta).
  4. Wyznacz osobę odpowiedzialną za AI w firmie (nawet jeśli na pół etatu) — własną albo zewnętrzną.
  5. Jeśli używasz chatbotów — sprawdź, czy informują użytkownika, że to AI.

8. Kiedy potrzebujesz nas

Możemy pomóc, jeśli:

→ Umów bezpłatną rozmowę

9. Zastrzeżenie

Ten dokument nie jest poradą prawną. Opisuje naszą metodykę i ogólny krajobraz regulacyjny. Konkretne obowiązki Twojej firmy zależą od skali, branży, używanych systemów i danych. W projektach klientów pracujemy z radcą prawnym specjalizującym się w prawie nowych technologii — każdy projekt ma indywidualną analizę zgodności.

Aktualnym oficjalnym źródłem jest pełny tekst rozporządzenia: Rozporządzenie UE 2024/1689 (eur-lex.europa.eu).