Mapa tygodnia/Moduł 12
podstawy
35 min · średni

Patterns & Insights

Meta-warstwa: 7 wzorców i 5 anty-wzorców, które wracały w 11 modułach.

Tryb: pełny

Executive summary

  • Wiedza z modułów 1–11 sprowadza się do siedmiu wzorców pracy z AI. Reszta to ich warianty.
  • Trzy najmocniejsze: kontekst > prompt, iteracja > one-shot, człowiek w pętli przy akcjach skutkowych. Bez nich wszystko inne jest kosmetyką.
  • Pięć anty-wzorców odpowiada za >80% złych decyzji: ślepa wiara w output, prywatne konto do pracy, "AI = magia", brak weryfikacji źródeł, wszystko w jednym narzędziu.
  • Mapa zależności: moduły 1–3 = fundamenty (jak modele myślą, jak prompować), 4–7 = narzędzia (research, NotebookLM, asystenci, Workspace), 8–9 = pod kapę (lokalne, RAG, dobór), 10–11 = ramy (bezpieczeństwo, prawo).
  • Wniosek operacyjny: nie ucz się "narzędzia X" — ucz się wzorca i podpinaj pod niego narzędzia. Narzędzia się zmienią w 6 miesięcy, wzorce zostaną.

Czym to jest

Ten moduł nie wnosi nowej wiedzy. Robi coś trudniejszego: wyciąga wzorce, które przewijały się przez cały tydzień, i pakuje je w listę odruchów, którą można nosić w głowie. Po 11 modułach masz dużo materiału — bez warstwy meta łatwo zostać z "wiem dużo, robię niewiele". Tu wracają trzy rzeczy: (1) jakie zasady działają niezależnie od narzędzia, (2) jakie błędy popełnia każdy junior i wielu seniorów, (3) jak czytać kolejne nowości (model X, narzędzie Y) bez panicznego nadążania. Ten moduł jest świadomie krótki i powtórkowy. Jeśli przeszedłeś moduły 1–11 — większość rzeczy poznasz. To celowe. Nauczyłeś się; teraz utrwalasz.

Kluczowe pojęcia

Wzorzec (pattern)
Powtarzalny sposób rozwiązywania klasy problemów, niezależny od konkretnego narzędzia. "Iteracja > one-shot" jest wzorcem; "użyj GPT-5" — nie.
Anty-wzorzec
Powtarzalny błąd, który wygląda na rozwiązanie. Najgroźniejszy rodzaj — ludzie go bronią, bo "tak się robi".
Mapa zależności modułów
Diagram pokazujący, co od czego zależy: fundamenty → narzędzia → pod kapę → ramy. Pomaga wracać do właściwego modułu, gdy pojawia się problem.
Stack vs zasada
Stack (lista narzędzi) zmienia się co 6–12 miesięcy. Zasada (wzorzec) trzyma się latami. Inwestuj 80% nauki w zasady, 20% w aktualny stack.
Człowiek w pętli (HITL)
Każda akcja nieodwracalna lub o istotnym skutku przechodzi przez człowieka. Nie chodzi o nieufność, chodzi o odpowiedzialność.
Polityka > narzędzie
Spisana zasada "co wolno, gdzie, na czyim koncie" jest ważniejsza niż wybór konkretnego vendora. Bez polityki shadow AI rośnie sam.
Audyt promptu
Procedura: bierzesz swój prompt, dajesz drugiemu modelowi i pytasz "co byś poprawił?". Jeden z najtańszych skoków jakości.
Reasoning gap
Różnica między tym, co model "wie" (parametry), a tym, do czego ma dostęp (kontekst). Większość błędów to gap, nie głupota modelu.

Pryncypia

  1. 01Kontekst > prompt. 80% jakości outputu zależy od tego, co model wie o sytuacji, nie od magicznej składni promptu.
  2. 02Iteracja > one-shot. Pierwszy output to draft do rozmowy, nie odpowiedź. Drugi i trzeci są zwykle 3× lepsze.
  3. 03Człowiek w pętli przy akcjach skutkowych. Mail wychodzący, przelew, kasowanie pliku, decyzja o człowieku — zawsze świadoma akceptacja.
  4. 04"Jak to zweryfikujesz?" jako odruch. Każdy output, który ma stać się decyzją, ma jeden krok więcej: weryfikacja źródła.
  5. 05Firmowe konto z DPA jako baseline. Prywatne konto do publicznych treści. Brak "tylko ten jeden raz".
  6. 06Wybór narzędzia per zadanie. Czat ≠ NotebookLM ≠ RAG ≠ lokalny model. Każde ma swoje pole. Mieszaj świadomie.
  7. 07Polityka > narzędzie. Spisana zasada na 1 stronie A4 robi więcej niż wybór najlepszego vendora.
  8. 08Stack zmieni się w 6 miesięcy, wzorce zostaną. Ucz się zasad, podpinaj pod nie aktualne narzędzia.

Przykłady zastosowań

Wzorzec "kontekst > prompt" w działaniu

Ten sam prompt "napisz mi mail do klienta" daje miałki output. Z dorzuconym kontekstem (rola klienta, historia rozmowy, mój ton, cel) — output od razu nadaje się do wysłania po drobnej redakcji.

Anty-wzorzec "AI = magia"

Junior wkleja długi tekst i pyta "co o tym sądzisz". Bez kryterium oceny model napisze ogólniki. Wzorzec: zawsze zdefiniuj rolę modelu i kryterium oceny.

Wzorzec "weryfikacja jako odruch"

Senior po 3 miesiącach pracy z AI ma wbudowany odruch: każda liczba/cytat/data idzie do sprawdzenia, zanim wyląduje w decyzji. To różni go od juniora, który "wkleja co dał czat".

Anty-wzorzec "wszystko w jednym narzędziu"

Zespół używa tylko ChatGPT do wszystkiego. Research robi w czacie (zamiast Deep Research), na archiwum klienta odpalają wątek (zamiast NotebookLM), wrażliwe dane wklejają z prywatnego konta. Każdy z tych kroków to inne narzędzie.

Wzorzec "polityka > narzędzie"

Firma A wybiera ChatGPT Enterprise i nie ma polityki — shadow AI rośnie. Firma B ma byle ChatGPT Team z DPA + spisane "co wolno gdzie" — wycieki nie występują. Polityka zrobiła robotę.

Case study

Solo-konsultant pakuje wiedzę z 11 modułów w 1-stronicową politykę osobistą

Konsultant strategiczny, 1 osoba, klienci B2B (3–5 stałych). Po tygodniu nauki czuje "wiem dużo, robię chaotycznie". Cel: jedna strona A4, którą trzyma w widocznym miejscu i do której wraca raz w tygodniu.

Podejście

  1. 1.Audyt obecnego stacku (10 min): co używam, na jakich kontach, do czego, czy mam DPA. Wyszło: 4 narzędzia, 2 konta prywatne do pracy klientów. Czerwone flagi.
  2. 2.Klasyfikacja danych klientów (15 min): publiczne / wewnętrzne / poufne. Macierz "co wolno wkleić gdzie". 1 strona, własnym językiem.
  3. 3.Lista 7 odruchów (z modułów 1–11): kontekst przed promptem, iteracja przed wysłaniem, weryfikacja przed użyciem, out-of-band przy "pilnym", oznaczanie AI-generated, hasło rodzinne, zero kluczy w prompcie.
  4. 4.Mapa narzędzi per zadanie: research → Perplexity / Deep Research; archiwum klienta → NotebookLM firmowe; szybki tekst → Claude w aplikacji; kod → Cursor; wrażliwe → Bielik lokalnie.
  5. 5.Tygodniowe 30-minutowe okno "AI retro": co zadziałało, co zjadło czas, co odpada. Notatka 5 zdań, kalendarz piątek 15:00.
  6. 6.Migracja kont (1h): zakup ChatGPT Plus → ChatGPT Team z DPA, Claude Pro → Claude Teams. Koszt: +30 USD/mies. Wartość: spokój prawny.
Efekt: Po 4 tygodniach: użycie AI bardziej świadome (mniej czasu, lepszy output), zero wycieków, polityka stała się argumentem na rozmowie z dużym klientem (audyt RODO przeszedł w 5 minut). Tygodniowa retro stała się rytuałem — efekt: 3 nowe automatyzacje w miesiąc, których wcześniej nie zauważył.

Najczęstsze błędy — checklista

0/8 oznaczone

Prompty gotowe do użycia

Auto-debrief tygodnia 1

Kiedy: Skończyłeś moduły 1–11. Chcesz wyciągnąć 3 największe insighty z perspektywy swojej roli.

Działasz jako coach AI fluency. Pomóż mi zrobić debrief tygodnia.

Mój kontekst: [rola, branża, wielkość firmy/zespołu, główne 3 typy zadań].

Zadaj mi 8 pytań po kolei (czekaj na odpowiedź) o moją obecną pracę, narzędzia, wycieki czasu, momenty "to mogłoby być AI".

Po wszystkich pytaniach zwróć:
1) 3 największe insighty dla MOJEJ konkretnej roli (nie ogólniki).
2) 3 wzorce z 11 modułów, które najmocniej zmieniają mój workflow — z uzasadnieniem dlaczego akurat te.
3) 3 rzeczy, których NIE robić mimo pokusy (anty-wzorce specyficzne dla mojej sytuacji).
4) Jeden mocny zdanie podsumowujące — coś, co mogę wkleić do notatek i wracać.

Bez ogólników typu "AI to przyszłość". Konkret + moja sytuacja.
Wybór 3 use case'ów na ten miesiąc

Kiedy: Masz 11 modułów wiedzy i 100 pomysłów. Chcesz zawęzić do 3, które dadzą realny efekt w 30 dni.

Działasz jako product manager AI w mojej firmie. Mam pomóc wybrać 3 use case'y na 30 dni.

Lista pomysłów [wpisz 8–15 pomysłów AI, które masz w głowie]:

Mój kontekst: [rola, czas tygodniowo na nowe rzeczy, budżet, ograniczenia (RODO, branża, zespół)].

Dla każdego pomysłu oceń (1–5):
- Wpływ na mój czas / efekt biznesowy
- Wykonalność w 30 dni (kto, narzędzie, dane gotowe)
- Ryzyko (bezpieczeństwo, prawne, reputacyjne)
- "Wow effect" dla zespołu/klienta (mobilizujący do dalszej nauki)

Zwróć:
1) Top 3 z uzasadnieniem (dlaczego akurat te, a nie pozostałe).
2) Plan na każdy: tydzień 1 / 2 / 3 / 4 — co konkretnie robię.
3) 2 pomysły do "parking lot" (świetne, ale nie teraz — i kiedy do nich wrócić).
4) 3 pomysły do skreślenia — szczerze, dlaczego.
Audyt aktualnego stacku AI

Kiedy: Masz kilka narzędzi/kont — chcesz sprawdzić, czy układają się sensownie.

Działasz jako AI architect. Zrób audyt mojego obecnego stacku.

Co używam (dla każdego: narzędzie, plan, do czego, jak często, czy z DPA):
[wypisz listę]

Audyt:
1) Mapa "narzędzie → typ zadania". Gdzie się dublują? Gdzie luki?
2) Bezpieczeństwo: dla każdego narzędzia — DPA tak/nie, dane wrażliwe tak/nie, ryzyko.
3) Koszt vs wartość: które ma sens, które jest "kupione, nie używane".
4) Brakujące narzędzia względem moich typów zadań — propozycja max 2 dodatków (uzasadnij).
5) Narzędzia do wycięcia — propozycja max 2 (z uzasadnieniem co je zastępuje).
6) Migracja: jeśli mam prywatne konto do pracy — konkretne kroki przejścia na firmowe (jak skopiować custom GPT, jak przenieść projekty).

Cel: stack mniejszy, bezpieczniejszy, lepiej dopasowany.
10 odruchów do ćwiczenia przez miesiąc

Kiedy: Chcesz zamienić wiedzę z 11 modułów w nawyki, nie tylko notatki.

Działasz jako coach nawyków AI fluency. Na podstawie mojego kontekstu [rola, codzienne zadania] wybierz 10 odruchów, które mam ćwiczyć przez 30 dni.

Wymagania dla każdego odruchu:
- Wynika z konkretnego wzorca z modułów 1–11 (oznacz numer modułu).
- Konkretny moment uruchomienia ("za każdym razem, gdy..."), nie ogólny ("staram się...").
- Mierzalny w 5 sekund (czy zrobiłem czy nie).
- Jeden zdanie maksymalnie.

Output:
1) 10 odruchów (lista numerowana, format: "WHEN: ... → DO: ...").
2) Tablica 30 dni × 10 odruchów do drukowania (markdown table) — sam zaznaczam odhaczeniem.
3) 3 odruchy "trudne, ale kluczowe" — zaznacz, na które mam zwrócić szczególną uwagę.
4) Zasada przerwy: jak wracać po dniu, gdy zapomnę (bez self-bashingu).

Częsty błąd: Wybór 30 odruchów zamiast 10 — paraliż, porzucenie po tygodniu. Maksimum 10. Najlepiej 7.

LAB — ćwiczenie

LAB · 16 min · średni

8 sytuacji biznesowych. Dopasuj każdą do dominującego wzorca / anty-wzorca i właściwego modułu. Po wpisaniu odpowiedzi zobacz wzorcowe rozwiązanie.

  1. 1Marketing wkleja plan kampanii klienta do prywatnego ChatGPT, żeby zrobić podsumowanie dla zespołu.

    Pomyśl: konto + DPA + klasyfikacja danych.

  2. 2Junior dostaje od modelu output z 5 liczbami i wkleja go do prezentacji dla zarządu bez sprawdzenia źródeł.

    Który odruch zawiódł?

  3. 3Zespół używa czata do research na 80-stronicowym raporcie, halucynacje rosną, frustracja też. Nikt nie próbował NotebookLM.

    Wybór narzędzia per zadanie.

  4. 4Konsultant pisze prompt: "napisz strategię dla mojego klienta". Dostaje ogólniki.

    Co brakuje przed promptem?

  5. 5Mail "od prezesa" z prośbą o pilny przelew na nowe konto. Ton dokładnie jego. Księgowa przelewa.

    Procedura, której zabrakło.

  6. 6Pierwszy output był słaby, autor zamknął wątek i zrobił sam — straty 2h, gorszy efekt.

    Pierwszy draft to nie odpowiedź.

  7. 7Firma kupuje ChatGPT Enterprise, ale nie ma spisanej polityki. Po 3 miesiącach: shadow AI nadal kwitnie.

    Narzędzie samo nie wystarczy.

  8. 8Asystent AI proponuje skasowanie 50 plików "duplikatów". Pracownik klika "wykonaj" bez przeglądu.

    Akcja nieodwracalna + człowiek w pętli.

Pytania kontrolne

Powiązane moduły

Skończyłeś moduł? Oznacz go i ruszaj dalej.