Prawne aspekty pracy z AI
Dane, treści, własność, polityka zespołu — minimum, które musisz znać.
Executive summary
- Trzy reżimy regulacyjne w UE, które dotykają każdego użytkownika AI: RODO (dane osobowe), AI Act (klasyfikacja systemów AI wg ryzyka), prawo autorskie (treści wejściowe i generowane).
- RODO + AI: model chmurowy = przetwarzanie danych przez podmiot trzeci. Bez DPA i podstawy prawnej = naruszenie. Dotyczy też anonimizacji, jeśli jest pozorna.
- AI Act (wchodzi etapami 2024–2026): zakazane praktyki (social scoring, manipulacja podprogowa), systemy wysokiego ryzyka (HR, edukacja, kredyt), obowiązki transparentności (oznaczanie treści AI).
- Treści generowane przez AI w UE/PL: w większości przypadków NIE są chronione prawem autorskim (brak twórcy-człowieka). Treść wejściowa ZAWSZE musi mieć podstawę (licencja, public domain, własna).
- Najważniejsze dla zespołu: spisana polityka, DPA z vendorami, klasyfikacja danych, zgody pracowników na nagrania (Meet "take notes"), oznaczanie treści AI publikowanych zewnętrznie.
- To NIE jest porada prawna — to mapa, gdzie szukać i co spytać prawnika. Konkretne wdrożenia konsultuj z prawnikiem twojej firmy.
Czym to jest
Prawo wokół AI w 2026 to nakładające się warstwy: ogólne przepisy (RODO, prawo autorskie, kodeks pracy, tajemnica zawodowa), specyficzne dla AI (AI Act w UE), umowne (DPA z vendorami, NDA z klientami), branżowe (KNF, OIRP, kodeks etyki lekarskiej). Większość pytań, które zadają zespoły, sprowadza się do kilku obszarów: (1) czy wolno wkleić te dane do tego narzędzia, (2) czyje są treści wygenerowane przez AI, (3) jak oznaczać AI-generated, (4) co z nagraniami spotkań, (5) jakie ryzyko biorę używając AI w decyzjach o ludziach (HR, kredyt, edukacja). Ten moduł daje praktyczną mapę: co naprawdę jest ryzykowne, co jest mitem, gdzie potrzebujesz prawnika, a gdzie wystarczy zdrowy rozsądek + spisana polityka. Założenie: nie zostaniesz prawnikiem po przeczytaniu, ale wyjdziesz z konkretną listą rzeczy do zrobienia w ciągu tygodnia.
Kluczowe pojęcia
Pryncypia
- 01Każde wklejenie danych do AI to przetwarzanie. Pytaj: jaka podstawa prawna + czy jest DPA z vendorem.
- 02"Anonimizacja" zwykle nie jest anonimizacją w sensie RODO. Sprawdź, czy z kombinacji pól da się zidentyfikować osobę.
- 03AI Act dotyczy też ciebie — nawet jeśli tylko używasz, nie tworzysz. Najmocniej w HR, edukacji, kredycie, opiece zdrowotnej.
- 04Treści wygenerowane przez AI publikowane zewnętrznie — oznaczaj. Standard branżowy i obowiązek (czasem prawny, zawsze etyczny).
- 05Nie używaj AI do decyzji o ludziach (HR, kredyt, kara) bez nadzoru człowieka. To wymóg AI Act i RODO art. 22.
- 06Nagrywanie spotkań przez AI: zawsze poinformuj wszystkich uczestników, najlepiej w zaproszeniu i na początku spotkania.
- 07Konsultuj z prawnikiem: politykę AI, wzór klauzuli o AI w umowach z klientami, procedury w obszarach wysokiego ryzyka.
- 08Dokumentuj: jakiego AI używasz, do czego, na jakich danych, na jakiej podstawie. To podstawa obrony przed regulatorem.
Przykłady zastosowań
HR: AI w rekrutacji = system wysokiego ryzyka
Automatyczne odsiewanie CV przez AI bez nadzoru człowieka — naruszenie AI Act + RODO art. 22 (decyzja zautomatyzowana). Wymóg: człowiek w decyzji + informacja kandydata + prawo odwołania.
Kancelaria wkleja umowę klienta do ChatGPT prywatnego
Naruszenie tajemnicy zawodowej (OIRP), brak podstawy w RODO, brak DPA. W skrajnym wypadku: dyscyplinarka + odpowiedzialność cywilna.
Marketing publikuje obraz wygenerowany w Midjourney bez oznaczenia
W większości przypadków etycznie i prawnie ryzykowne (zwłaszcza wizerunki ludzi). AI Act wymaga oznaczania, gdy może wprowadzić w błąd.
Auto-notatki Meet bez zgody klienta zewnętrznego
Polskie prawo: ryzyko karne (art. 267 kk w niektórych konfiguracjach), naruszenie zaufania, zerwanie umowy. Zawsze: zapytaj na początku, odnotuj zgodę.
Kod skopiowany z Copilota do produktu komercyjnego
Część kodu wygenerowanego przez Copilota może pochodzić z licencji copyleft (GPL). Ryzyko: konieczność otwarcia własnego kodu. Standard: skanuj output narzędziem (FOSSA, Snyk) + miej politykę.
Firma rekrutacyjna 40 osób wdraża AI w przesiewie CV — i zostaje zatrzymana przez prawnika
Agencja rekrutacyjna chce użyć GPT-4 do automatycznej oceny i rankingu 500 CV dziennie. Założenie: AI ocenia, rekruter widzi tylko top 30. Plan wdrożenia: 4 tygodnie, "to tylko narzędzie usprawniające".
Podejście
- 1.Prawnik firmy zatrzymuje wdrożenie i robi audyt: AI Act (od 2026 rekrutacja = wysokie ryzyko), RODO art. 22 (zakaz decyzji wyłącznie zautomatyzowanych z istotnym skutkiem dla osoby), DPA z OpenAI.
- 2.Konsultacja z UODO i specjalistami AI Act — wniosek: bez przeprojektowania to wdrożenie ma 3 niezależne wady prawne.
- 3.Przeprojektowanie: AI nie ocenia, AI EKSTRAHUJE strukturalnie dane z CV (umiejętności, doświadczenie, edukacja) do tabeli. Rekruter (człowiek) ocenia i decyduje. Każdy kandydat dostaje informację, że dane były przetwarzane przez AI + ma prawo do oceny przez człowieka (i tak ma).
- 4.DPA z OpenAI (ChatGPT Team / Enterprise) + zapis w umowach z klientami-firmami, że stosujemy AI do ekstrakcji + wymaga się zgody kandydata w ogłoszeniu.
- 5.Polityka wewnętrzna: lista zakazanych ocen (potencjał, dopasowanie kulturowe, "feeling") robionych przez AI. Lista dozwolonych ekstrakcji (skille, lata doświadczenia, języki).
- 6.Trening rekruterów (4h): czytanie outputu AI krytycznie, częste błędy ekstrakcji (np. "Java" pomylony z "JavaScript"), procedura odwołania kandydata.
- 7.Audyt co kwartał: próbka 50 CV — czy AI ekstrahuje poprawnie, czy decyzje rekrutera są spójne, czy są skargi kandydatów.
Najczęstsze błędy — checklista
0/8 oznaczonePrompty gotowe do użycia
Kiedy: Wdrażasz AI w nowym obszarze i chcesz wiedzieć, gdzie szukać prawnika.
Działasz jako konsultant ds. compliance AI (UE/PL). Mój use case: [opis: co AI robi, na jakich danych, kto użytkownik, kto podmiot, gdzie publikujemy output] Przygotuj mapę ryzyka: 1) RODO: jaka podstawa prawna, czy są dane szczególne (art. 9), czy potrzebna ocena skutków DPIA, czy są decyzje zautomatyzowane (art. 22). 2) AI Act: do której kategorii ryzyka kwalifikuje się ten system, jakie obowiązki, kiedy wchodzi. 3) Prawo autorskie: czyja jest treść wejściowa, czyja wygenerowana, jak oznaczać. 4) Branżowe (jeśli dotyczy): KNF / OIRP / kodeks etyki lekarskiej / inne. 5) Tajemnice (zawodowa, przedsiębiorstwa, służbowa): co dotyczy. 6) 5 najważniejszych pytań do prawnika firmy — w kolejności priorytetu. 7) 3 rzeczy, które mogę zrobić od razu, bez czekania na prawnika (np. DPA, oznaczenie, anonimizacja). DISCLAIMER: To nie jest porada prawna. Konkretne decyzje konsultuj z prawnikiem firmy.
Częsty błąd: Pominięcie kroku "branżowe" — kancelarie, kliniki, banki mają dodatkowe rygory ponad RODO i AI Act.
Kiedy: Robisz dla klienta usługę z użyciem AI i chcesz to czysto opisać.
Działasz jako prawnik kontraktowy. Napisz klauzulę "Użycie AI" do mojej umowy z klientem (B2B): Kontekst: [co robię dla klienta, jakie AI używam, czyje dane, do czego, gdzie są przetwarzane, jaki vendor]. Klauzula powinna obejmować: 1) Definicję AI w kontekście umowy. 2) Listę narzędzi AI, które stosuję (z linkiem do DPA każdego). 3) Kategorie danych klienta przetwarzane przez AI. 4) Cel przetwarzania + zakaz innych celów. 5) Lokalizację przetwarzania (UE / poza UE + podstawa transferu). 6) Prawo klienta do audytu / do wycofania zgody. 7) Kto odpowiada za output AI (model: ja jako wykonawca, z wyłączeniami). 8) Postępowanie przy incydencie (czas powiadomienia, zakres). 9) Klauzula o zmianach (gdy zmieniam vendora / model). Język: polski, prawniczy ale czytelny, pasujący do kontraktu B2B. DISCLAIMER: Wzór do dalszej obróbki przez prawnika firmy.
Kiedy: Twoja firma publikuje treści (marketing, content, social) i chce mieć spójną politykę oznaczania.
Zaprojektuj politykę oznaczania treści AI w firmie [nazwa, branża, kanały publikacji]. Output: 1) Definicja "treści AI-generated" i "treści AI-augmented" (różnica i przykłady). 2) Macierz: kanał (blog / social / mail / strona / reklama / video) × typ treści × wymagane oznaczenie (forma, miejsce, język). 3) Konkretne formuły oznaczeń (3 warianty: pełne, skrócone, na grafice). 4) Wyjątki: kiedy oznaczanie nie jest wymagane (np. tłumaczenie maszynowe wewnątrz firmy). 5) Procedura: kto sprawdza przed publikacją, jak weryfikujemy. 6) Zgodność z AI Act art. 50 (transparentność) — wskaż które elementy odpowiadają wymogom. 7) FAQ wewnętrzne: 10 pytań, które na pewno padną od zespołu (np. "a jeśli AI tylko poprawiło gramatykę?").
Kiedy: Zespół używa "Take notes for me" w Meet / Zoom AI Companion / Otter.
Napisz procedurę zgody na AI-notatki ze spotkań dla mojej firmy [opis: branża, typ spotkań — wewnętrzne, z klientami, rekrutacyjne]. Output: 1) Komunikat w zaproszeniu kalendarzowym (3 warianty językowe: pełny, krótki, EN). 2) Skrypt na początku spotkania (60 sek, naturalny, nie prawniczy). 3) Co robić, gdy ktoś nie wyraża zgody (procedura: wyłączamy AI / przekładamy / ręczne notatki). 4) Co robić z transkrypcją po spotkaniu (gdzie zapisana, kto ma dostęp, kiedy kasujemy). 5) Specjalne przypadki: spotkania z osobami szczególnie chronionymi (kandydaci, pacjenci, dzieci, osoby w sytuacji konfliktu pracowniczego). 6) Karta dla pracowników na 1 stronę: "kiedy AI-notatki, kiedy nie". Uwzględnij: art. 6 RODO + art. 267 kk (PL) + dobre praktyki UODO.
LAB — ćwiczenie
8 sytuacji prawnych. Zdecyduj: dozwolone, dozwolone z warunkiem, zakazane (wymaga przeprojektowania). Po wyborze zobaczysz uzasadnienie i co dokładnie zrobić.
1Bank automatycznie odrzuca wnioski kredytowe na podstawie scoringu AI, klient dostaje mail "wniosek odrzucony", bez dalszej rozmowy z człowiekiem.
2Agencja marketingowa publikuje na Instagramie obraz wygenerowany w Midjourney przedstawiający fikcyjną osobę, bez oznaczenia "AI generated".
3Firma używa ChatGPT Team (z DPA) do streszczania wewnętrznych maili pracowników o problemach w zespole. Pracownicy nie wiedzą o tym.
4Lekarz używa Bielika lokalnie do streszczeń notatek z wizyt pacjentów, dane nie wychodzą z urządzenia.
5Startup nagrywa rozmowy sprzedażowe z klientami przez Otter AI, by trenować nowych sprzedawców. Klient nie został poinformowany.
6Programista używa GitHub Copilot w produkcie komercyjnym (zamknięty kod, sprzedawany klientom). Brak audytu licencji wygenerowanego kodu.
7Szkoła używa AI do automatycznej oceny prac uczniów i wystawiania ocen końcowych.
8Bloger oznacza artykuł jako "AI-augmented: pomysł i konspekt mój, draft napisany przez Claude, redakcja moja". Tekst dotyczy poradnika ogrodniczego.
Pytania kontrolne
Powiązane moduły
Skończyłeś moduł? Oznacz go i ruszaj dalej.