Generatywna AI otwiera przed nami niemal nieograniczone możliwości tworzenia treści, obiecując przejęcie najbardziej nużących i powtarzalnych zadań. Brzmi to jak raj dla liderów i specjalistów. Jednak pojawia się zasadnicze pytanie: jaki wpływ na naszą kreatywność oraz zdolność podejmowania trafnych decyzji będzie miało odebranie nam codziennej rutyny?

Anatomia zaniku

Ile numerów telefonów pamiętasz? Ja tylko jeden – do mojej żony, którego nauczyłem się na wypadek zgubienia komórki. Od czasu upowszechnienia się Google Maps, wielu z nas nie potrafi dojechać nad morze bez podpowiedzi smartfona. Gdy bateria pada, tracimy nie tylko nawigację, ale i pewność siebie. Nasza umiejętność orientacji w terenie po prostu wiotczeje, bo przestaliśmy jej używać.

Dziś stoimy przed znacznie poważniejszym wyzwaniem. AI obiecuje przejąć pisanie kodu, tworzenie treści, a nawet diagnozowanie chorób. Wielka obietnica głosi: maszyna wykona nudną robotę, a Ty skupisz się na innowacjach. To jednak niebezpieczna pułapka. Twoja intuicja zawodowa i biegłość nie wzięły się z próżni – wykuły się w ogniu tysięcy powtarzalnych zadań, stresu i nauki od mentorów. To właśnie ten wysiłek zbudował Twoje kompetencje.

Gdy zabraknie tych wyzwań, Twoje możliwości poznawcze zaczną zanikać szybciej niż mięśnie po dwóch tygodniach bez treningu. Umysł, który miał dawać Ci przewagę nad AI, zaczyna tracić jasność oceny. Matt Beane z Uniwersytetu Kalifornijskiego ostrzega, że AI burzy relację mistrz-uczeń. Kiedy młody programista używa Copilota do generowania kodu, którego sam by nie napisał, omija proces myślowy niezbędny do nauki. To tak, jakbyśmy chcieli zbudować siłę fizyczną patrząc, jak robot podnosi ciężary.

Ostrzeżenia z kokpitu i sali operacyjnej

Ograniczanie ludzkich umiejętności przez automatyzację nie jest nowym zjawiskiem, ale obecnie przybiera masową skalę. Tragicznym przykładem jest katastrofa lotu Air France 447. Gdy autopilot wyłączył się z powodu awarii czujników, doskonale wytrenowani piloci ulegli "efektowi zaskoczenia". Mimo licznych alarmów, nie potrafili poprawnie zareagować – ich manualne umiejętności pilotażu, nieużywane na co dzień, po prostu zanikły.

Podobny mechanizm "wyłączenia" czujności widać w medycynie. Badanie z 2025 roku przeprowadzone w polskich ośrodkach endoskopii (opublikowane m.in. w The Lancet Gastroenterology & Hepatology) wykazało niepokojący trend. U lekarzy używających asysty AI do wykrywania zmian podczas kolonoskopii, współczynnik wykrywalności gruczolaków (ADR) spadł z 28,4% do 22,1% w zaledwie trzy miesiące Przyzwyczajeni, że AI zaznaczy problem "zieloną ramką", przestali aktywnie skanować obraz. Ich zdolność rozpoznawania wzorców uległa błyskawicznej atrofii.

Stępiona brzytwa kreatywności

Ten sam mechanizm zaczyna dotykać sektora pracy opartej na wiedzy. Choć generatywna AI pomaga słabszym twórcom, prowadzi jednocześnie do homogenizacji. Analiza 400 tysięcy prac naukowych (Science Advances, 2024) pokazuje, że treści stają się coraz bardziej do siebie podobne – poprawne, gładkie, ale przeciętne.

Co gorsza, po zaprzestaniu używania AI poziom kreatywności twórców często spada poniżej punktu wyjścia. Brzytwa została stępiona. Kreatywność wymaga bowiem wysiłku, błądzenia i mierzenia się z frustracją. AI eliminuje ten niezbędny opór, oferując gotową autostradę do rozwiązania. W efekcie, jak pokazuje ankieta Stack Overflow z 2025 roku, programiści tworzą kod o 55% szybciej, ale tylko co trzeci z nich ufa temu, co wygenerował. Tworzymy rozwiązania szybciej, niż jesteśmy w stanie je zrozumieć.

Plan ostrzenia brzytwy: Jak zachować sprawność umysłową?

Nie chodzi o odrzucenie technologii, ale o świadome utrzymywanie w formie zdolności  poznawczych.. Musimy traktować sprawność umysłu tak, jak sportowcy trening, a piloci sesje w symulatorach.

1. Poziom Indywidualny

  • Prowadź Dziennik Decyzji: Zapisuj, dlaczego wybierasz dane rozwiązanie i jakie widzisz alternatywy. Chroni to przed błędem pewności wstecznej.

  • Weryfikuj wytwory AI: Traktuj AI jak bystrego, ale niedoświadczonego stażystę. Nigdy nie kopiuj treści, których sam byś nie napisał lub których nie rozumiesz.

  • Planuj sesje Deep Work bez AI: Wyznacz co najmniej 90 minut dziennie na pracę twórczą bez asystentów. Szkicuj na kartce, analizuj architekturę na tablicy, licz w pamięci.

  • Ucz innych: Tłumaczenie zagadnień juniorowi (zamiast odsyłania go do bota) wymusza na Twoim mózgu głęboką strukturyzację wiedzy.

2. Poziom Zespołowy

  • Analiza Pre-mortem: Przed startem projektu załóżcie, że poniósł on klęskę i spróbujcie ustalić, co do niej doprowadziło. AI jest zazwyczaj zbyt zaprogramowane na optymizm, by dostrzec te ryzyka.

  • Kalibracja "Ludzie vs AI": Róbcie zawody – jak problem rozwiązałby zespół, a jak maszyna?. To buduje wrażliwość metapoznawczą i uczy, kiedy można zaufać technologii.

  • Peer Review: Nie rezygnujcie z ludzkiego sprawdzania kodu czy dokumentów. Rozmowa o błędach to kluczowy transfer wiedzy utajonej, której AI nie posiada.

3. Poziom Organizacyjny

  • Społeczności Praktyków: Wspieraj wymianę doświadczeń i historii porażek, których nie znajdziesz w oficjalnej dokumentacji. O ich roli pisałem już w  w moim poście o roli społeczność praktyków w tworzeniu kultury organizacyjnej

  • Rotacja ról: Wprowadzaj zmiany w obszarach wymagajacych doświadczenia by wymusić ciągłą naukę i zapobiec rutynie.

  • Mierzenie jakości decyzji: Zamiast oceniać tylko szybkość i wysiłek (gdzie AI zawsze wygrywa), mierz jakość i skuteczność wdrożenia w długim terminie.

Serce i Dane

Pojawienie się AI zmusza nas do przedefiniowania roli człowieka w tworzeniu wartości. Liderzy muszą aktywnie egzekwować działania, które pozwolą zespołom utrzymać ostrość oceny.

Współpraca człowieka z maszyną to fundament mojego podejścia "Leading with Heart and Data". AI może sprawniej przetwarzać dane, ale to po naszej stronie musi pozostać "serce" – moralny kompas i zdolność krytycznej analizy. Historia pokazuje, że kalkulatory czy Excel nie zniszczyły inżynierii. Tak samo będzie z nami, o ile nauczymy się korzystać z nowych narzędzi bez utraty tego, co czyni nas kimś więcej niż zaawansowanym modelem LLM.

Wojciech Pozarzycki, styczeń 2026 

You may also like:

No posts found