Ekspert dla Newsmax Polska: AI nie zrobi z nas głupców. Obnaży za to tych, którzy nie chcą myśleć

Sztuczna inteligencja nie puka do naszych drzwi. Ona już siedzi w firmach, szkołach, telefonach, redakcjach i urzędach. Zabierze nam pracę? Zrobi z nas głupców? Hubert Adamczyk, ekspert Polskiej Agencji Rozwoju Przedsiębiorczości rozwiewa te lęki, ale nie mówi, że będzie lekko, łatwo i przyjemnie.

06.05.2026. 06:24

Ekspert dla Newsmax Polska: AI nie zrobi z nas głupców. Obnaży za to tych, którzy nie chcą myśleć

Jedni widzą w niej szansę na cywilizacyjny skok, inni sposób na cięcie kosztów, jeszcze inni zagrożenie dla pracy, twórczości i zdrowego rozsądku.

Najważniejszy podział w innowacyjnym rozwoju nie przebiegnie między branżami. Przebiegnie między tymi, którzy nauczą się pracować ze sztuczną inteligencją, a tymi, którzy zostaną wobec niej bezradni.

Wielka obietnica, małe wdrożenia

AI obiecuje biznesowi prawie wszystko: szybszą pracę, niższe koszty, lepszą obsługę klienta, większą wydajność i przewagę nad konkurencją. Brzmi dobrze. Tyle że na razie obietnica jest większa niż skala realnych wdrożeń.

"Obietnica jest fantastyczna. Możemy przyspieszyć pracę, pracować wydajniej, efektywniej, ale gdy spojrzymy na dane, to one nie są zbyt optymistyczne dla małych i średnich przedsiębiorstw" - mówi dla Newsmax Polska Hubert Adamczyk, ekspert Polskiej Agencji Rozwoju Przedsiębiorczości, specjalista od komunikacji i nowych technologii, szkoleniowiec i popularyzator wiedzy o innowacjach.

Jak wyjaśnia, jeszcze dwa lata temu wdrożenie AI w małych i średnich firmach było na poziomie 5–6 proc. Dziś to okolice 16 proc., a według części danych około 20 proc. Tyle że suche liczby nie pokazują całej prawdy.

"Jak jest w praktyce? Przy tych większych ośrodkach, takich jak Warszawa, Poznań, Katowice, Wrocław, to wykorzystanie w firmach jest znacznie większe, bo ten dostęp do tej wiedzy jest większy. Ale tak naprawdę, jeżeli mówimy o tych realnych wdrożeniach, to ich jest niewiele. Pokazuje zresztą to także nasz ostatni raport - Sztuczna inteligencja w firmach: gotowość do adopcji, kompetencje i potrzeby. Raport z badań Bilansu Kapitału Ludzkiego"- podkreśla nasz rozmówca.

To pierwszy zimny prysznic. Z debaty publicznej można odnieść wrażenie, że Polska już weszła w epokę AI. W praktyce wiele firm dopiero sprawdza, czy w ogóle ma z nią co zrobić. A jeszcze częściej nie widzi różnicy między jednorazowym użyciem narzędzia a prawdziwym wdrożeniem.

"Podstawową kwestią jest to, jak my zmapujemy sobie, czyli zobaczymy, co jest nam potrzebne. Można się zabrać za wdrożenie technologii i zastosować taki dość popularny model rozpoznania bojem, czyli: wdrożymy, weźmy, zobaczmy. Albo można podejść do tego trochę racjonalniej" - tłumaczy Hubert Adamczyk.

Dlaczego to ważne? Bo prawdziwa zmiana nie zaczyna się wtedy, gdy ktoś wpisze pierwszy prompt (czyli polecenie), tylko wtedy wtedy, gdy firma wie, co chce poprawić, co przyspieszyć i gdzie ludzie tracą dziś czas.

"Na przykład stworzenie pewnych procesów automatyzacji, które mają służyć obsłudze reklamacji. Czy też chatbotów, które są dostępne dla użytkowników, żeby obsługiwać zapytania. My jako ludzie musimy odpoczywać. Nie jesteśmy w stanie w 100 proc. być cały czas dostępni, jeżeli mamy na przykład sklep" -mówi ekspert.

To właśnie tu przebiega granica. Nie między tymi, którzy słyszeli o AI, i tymi, którzy nie słyszeli. Tylko między tymi, którzy potrafią przełożyć technologię na konkretny proces, a tymi, którzy zatrzymują się na poziomie zachwytu.

Polska jest w grze, ale nie gra pieniędzmi Ameryki i Chin

W rozmowie o AI łatwo wpaść w kompleksy. Wszystko rozdają Amerykanie i Chińczycy, a nam zostanie rola klienta. Hubert Adamczyk nie kupuje tak prostego obrazu. Przypomina, że Polska ma ludzi, pomysły i firmy, których nie trzeba się wstydzić.

"My mamy dużo kompleksów, jeżeli chodzi o inżynierię, o technologię, a nie mamy się czego wstydzić. Wielu z founderów, czyli tych założycieli przedsiębiorstw, było Polakami i dawało początek temu, co dzisiaj możemy nazwać OpenAI, ElevenLabs" - mówi.

Przykład ElevenLabs, twórcy Chata GPT, dobrze pokazuje polski paradoks. Technologicznie od początku było tam zaangażowanych wielu Polaków. Mamy kompetencje. Umiemy wymyślać rozwiązania.

Potrafimy tworzyć technologie, o których mówi świat. Ale zbyt często sukces rośnie już gdzie indziej: tam, gdzie jest większy kapitał, łatwiejsze skalowanie i mocniejsze zaplecze inwestycyjne. Tu Hubert Adamczyk nie zostawia złudzeń.

"Pierwsza perspektywa jest perspektywą kapitałową. Nie jesteśmy w stanie jako Polska, jako Unia Europejska dogonić tego kapitału, który mamy w Stanach Zjednoczonych i Chinach. Niestety, trzeba sobie to powiedzieć i stanąć w prawdzie. Ten kapitał i ta wartość, która tam jest, jest znacznie wyższa" - mówi.

Dlatego startupy szukają pieniędzy za oceanem. Tam kilka milionów dolarów na rozwój projektu można znaleźć łatwiej niż w Polsce czy nawet szerzej — w Europie. Ale to nie znaczy, że mamy siedzieć na ławce rezerwowych.

"Możemy być bardzo ważnym elementem tego procesu. Zresztą jesteśmy. Polska jako kraj ma coraz większe znaczenie w kontekście tego globalnego wyścigu technologicznego" - przekonuje Hubert Adamczyk.

Stawką nie jest więc to, czy Polska sama wymyśli globalną AI od zera. Pytanie brzmi raczej: czy potrafimy zrobić z własnych kompetencji coś więcej niż zaplecze dla cudzych sukcesów.

Praca nie zniknie. Zniknie święty spokój

Największy lęk jest prosty: AI zabierze ludziom pracę. Ten strach nie bierze się znikąd, bo sztuczna inteligencja wchodzi w obszary, które jeszcze niedawno wydawały się bezpieczne: pisanie, analizę, obsługę klienta, grafikę, kodowanie, porządkowanie danych.

Hubert Adamczyk uważa jednak, że scenariusz „maszyna zastąpi człowieka” jest zbyt łatwy.

"Mamy wiele badań, raportów, czy Światowe Forum Ekonomiczne też kiedyś stworzyło taki raport, gdzie mówiło, że 60 proc. zawodów będzie ulegało zmianie. No ale to jest też trochę jak z rewolucją przemysłową. To nie znaczy, że teraz sztuczna inteligencja pozbawi wszystkich pracy, tylko będzie trzeba się zaadaptować do zmian, w ramach czegoś co możemy nazwać umową społeczną" - mówi.

Nie chodzi więc o koniec pracy. Chodzi o zmianę jej charakteru. Część zadań zniknie. Część przejmą automaty. Wiele zawodów będzie musiało nauczyć się funkcjonować inaczej.

"Mówimy, że pracę stracą ci, którzy nie będą chcieli się adaptować. No i trochę tak jest, bo sztuczna inteligencja wymaga tego, żebyś miał lepszy kontekst, czyli więcej czytał, nie marnował czasu, lepiej zarządzał pewnymi zadaniami" - tłumaczy Hubert Adamczyk.

To faktycznie istotne, bo AI nie premiuje lenistwa, choć na pierwszy rzut oka może się tak wydawać. Dobrze używana sztuczna inteligencja wymaga wiedzy, pytań, sprawdzania i rozumienia celu. Źle używana daje tylko szybciej podane złudzenie, że wiemy, co robimy.

"To są modele statystyczne, czyli one przewidują, co ma się po tych naszych promptach, poleceniach, rozkazach znaleźć, ale one nie są w żaden sposób kreatywne. Więc domena kreatywności, empatii, decyzji wciąż pozostaje w gestii człowieka i to człowiek bierze odpowiedzialność" - mówi ekspert.

"Powiem taką ryzykowną może tezę, ale jeżeli ktoś jest poznawczo oszczędny i nie ma tej ciekawości bycia osobą, która poddaje pod wątpliwość otrzymane rozwiązania i propozycje, podchodzi z pewną dozą ostrożności do pewnych tematów, no to dalej pozostanie poznawczo oszczędny" - tłumaczy ograniczenia AI ekspert.

To odwraca najprostszą opowieść o AI. Technologia nie zrobi z człowieka głupca automatycznie. Może jednak bardzo szybko obnażyć tych, którzy już wcześniej nie chcieli myśleć, sprawdzać i uczyć się samodzielnie.

Państwo też musi wejść w AI

Biznes może jeszcze udawać, że ma czas. Państwo — coraz mniej. Im mocniej AI wchodzi do firm, szkół, mediów i codziennego życia, tym trudniej sobie wyobrazić, że urzędy i instytucje publiczne zostaną z boku.

W administracji wszystko od razu robi się trudniejsze: dane, odpowiedzialność, procedury, ryzyko błędu i pytanie, kto ma zaufać konkretnemu modelowi.

"Podstawowe pytanie jest takie, czemu ma służyć i jak ma to być skonstruowane. No bo każdy model ma jakieś swoje uprzedzenia" - mówi Hubert Adamczyk.

AI w urzędzie nie może być tylko ładniejszą wersją infolinii. Tu błędna odpowiedź może mieć skutki prawne, finansowe albo społeczne. Nie wystarczy więc kupić narzędzia. Trzeba ustalić zasady.

W tle jest jeszcze zjawisko, którego nie da się ignorować: shadow AI. Organizacja oficjalnie nie ma jeszcze wdrożonych narzędzi, ale pracownicy i tak z nich korzystają. Dla wygody, dla tempa, czasem z braku lepszych rozwiązań. Problem zaczyna się wtedy, gdy do zewnętrznych systemów trafiają dokumenty, dane albo informacje, które nigdy nie powinny tam trafić.

"Ludzie jeżeli chcą szybciej, efektywniej pracować i są trochę biegli z technologią, to na pewno będą używali sztucznej inteligencji, wrzucali tam co popadnie, żeby mieć wynik" - mówi Hubert Adamczyk.

Stoimy więc przed wyborem: zrobić to - jako państwo - bezpiecznie albo udawać, że problemu nie ma, podczas gdy AI i tak pracuje po kątach.

Kontekst jest ważniejszy niż magiczny prompt

Cała rozmowa o AI szybko sprowadza się do jednego słowa: prompt. Ktoś uczy promptów, ktoś sprzedaje paczki promptów, ktoś obiecuje, że po dwóch godzinach szkolenia człowiek będzie „pracował z AI”. Tyle że to jest wersja mocno uproszczona.

"Bardzo często mówię moim kursantom i studentom, żeby nie starali się nauczyć prompt engineeringu, tylko zastanowili się, czy w dobry sposób adresują swoje polecenia" - mówi Hubert Adamczyk.

AI nie czyta w głowie. Nie zna celu, jeśli go nie podamy. Nie rozumie odbiorcy, jeśli go nie opiszemy. Nie wie, czego pominęliśmy. I bardzo chętnie odpowie nawet wtedy, gdy ma zbyt mało danych.

"Dobrą radą w kontekście wykorzystywania technologii jest to, żeby wskazać, kim my jesteśmy, czyli jaką rolę pełnimy, kto jest naszym odbiorcą, jaki jest cel tej naszej interakcji z technologią, z maszyną czy z człowiekiem, który będzie odbierał ten wynik" - tłumaczy ekspert PARP.

Tu pada zdanie, które dobrze streszcza całą rozmowę o pracy z AI.

"Kiedyś w świecie marketingu było takie powiedzenie Billa Gatesa, że content is king. Dzisiaj przechodzimy do takiej ery, gdzie context is the queen- mówi Hubert Adamczyk.

Treść może dziś wygenerować prawie każdy. Post, mail, streszczenie, ofertę, grafikę, analizę. Problemem przestaje być samo wyprodukowanie czegoś. Problemem jest to, czy człowiek rozumie, po co to powstało, czy to jest prawdziwe, czy pasuje do odbiorcy i czy nie zawiera bzdur podanych ładnym językiem.

Bo modele halucynują. Potrafią wymyślać fakty, źródła, cytaty, nazwiska i interpretacje. Co gorsza, robią to płynnie, gładko i przekonująco.

"Ze sztuczną inteligencją jest jak ze studentem podczas odpowiedzi. On stoi, uśmiecha się, kręci i na koniec coś powie. Tylko pytanie, czy to jest prawda, czy nie" - mówi Hubert Adamczyk.

Twórcy kontra algorytmy

Jest jeszcze jeden front tej historii. Bardzo ważny dla ludzi, którzy żyją z tworzenia: dziennikarzy, grafików, aktorów, muzyków, pisarzy, fotografów, lektorów. Bo AI nie bierze się z próżni. Uczy się na tekstach, obrazach, głosach, nagraniach i stylach, które wcześniej stworzyli ludzie.

A potem potrafi produkować coś, co zaczyna z nimi konkurować.

"Na mój stan wiedzy znam kilka orzeczeń, które mówią o tym, że wszystkie wytwory, które stworzyła sztuczna inteligencja, nie mają praw autorskich, ponieważ są wytworzone przez maszynę, a nie człowieka. Z drugiej strony wątpliwą jest kwestia tego, co w przypadku materiałów czy wykorzystania wizerunku czyjegoś z danych osób. Dużo takich spraw, czy to chodzi o dziennikarzy, celebrytów, aktorów. Wykorzystanie ich głosu, wizerunku do scamów, do reklam, no te sprawy się toczą" - mówi Hubert Adamczyk.

Jeszcze niedawno kradzież wizerunku oznaczała fałszywy profil albo ordynarny fotomontaż. Dziś można podrobić głos, twarz, mimikę i sposób mówienia. Można włożyć komuś w usta zdanie, którego nigdy nie wypowiedział. Można zrobić reklamę, której nigdy nie autoryzował. Można wykorzystać zaufanie do znanej osoby, żeby wyłudzić pieniądze.

- Być może przepisy, które wejdą w kontekście unijnego AI Act czy ustawy o sztucznej inteligencji, będą to regulowały. Jednak na ten moment jest to takie trochę bezkrólewie - ocenia ekspert.

To słowo dobrze opisuje sytuację. Technologia przyspieszyła, prawo próbuje nadążyć, a twórcy często zostają pomiędzy. Niby mówi się o ochronie, ale człowiek, którego głos wykorzystano w fałszywej reklamie albo którego twarz trafiła do oszustwa, potrzebuje odpowiedzi teraz, a nie za kilka lat.

Hype minie. Zostanie rachunek

W każdej technologicznej rewolucji jest moment zaczadzenia. Wchodzi nowe narzędzie, wszyscy pokazują próbki, wszyscy mówią, że „to zmieni wszystko”. Ze sztuczną inteligencją było tak samo. Najpierw teksty. Potem grafiki. Potem głos. Potem filmy. Co tydzień coś nowego, co miało wywrócić kolejną branżę. Tyle że po pierwszym zachwycie przychodzi rachunek. Ile to kosztuje? Czy to działa? Czy to się opłaca? Czy naprawdę zastępuje człowieka, czy tylko dobrze wygląda na pokazie?

"Był taki moment, że mówiliśmy: o, teraz filmowcy stracą pracę, bo ChatGPT wypuścił Sorę. Okazało się, że Sorę zamknęli, bo to było kompletnie nieopłacalne. Koszt utrzymania Sory szedł w milionach dziennie. No i co? Filmowcy znowu są potrzebni?" - mówi.

To kubeł zimnej wody na proste proroctwa. Technologia może wyglądać imponująco, ale jeśli koszt jest absurdalny, jakość niewystarczająca albo nie ma sensownego modelu biznesowego, to jeszcze nie jest rewolucja. To demo, choć czasem efektowne.

"Ja bym podchodził do tego z pewną dozą ostrożności. Patrzył, co jest biznesowo opłacalne i co może realnie usprawnić pewną pracę. Bo okres hype’u zawsze będzie. Zawsze będzie coś, co ma nagle zmienić to, jak wygląda rynek pracy" - mówi Hubert Adamczyk.

Tak samo jest z kosztami infrastruktury. AI wygląda lekko: okienko w przeglądarce, kilka zdań, odpowiedź po paru sekundach. Ale za tym stoją serwerownie, centra danych, procesory, chłodzenie, woda i prąd.

"Bardzo często mówi się, że AI zabiera pracę, bo zwalnia się ludzi. Nie do końca jest prawda, bo jak wejdziemy w głąb tych przypadków, gdzie Oracle zwalnia ludzi, gdzie inne duże giganty zwalniają ludzi, to jednak to nie jest tak, że tych pieniędzy nie ma, tylko te pieniądze są przekierowane w trochę inną stronę. W stronę właśnie kapitału, mocy obliczeniowej i tego, żeby ta technologia się rozwijała" - mówi ekspert.

Nowy model gospodarki będzie więc pochłaniał nie tylko talenty i dane, ale też energię, wodę i gigantyczne pieniądze. To kolejny powód, dla którego sama fascynacja AI nie wystarczy. Jeśli Polska chce być czymś więcej niż użytkownikiem cudzych narzędzi, potrzebuje całego ekosystemu: kompetencji, kapitału, infrastruktury, energii i sensownego państwa.

Kto naprawdę przegra erę AI

Całą rozmowę o sztucznej inteligencji można sprowadzić do jednego pytania: czy umiemy się uczyć wystarczająco szybko. Narzędzia są. Modele są. Kursy są. Raporty są. Portale informacyjne są. Tylko między dostępem do wiedzy a realną zmianą stoi człowiek.

"Największym problemem jest to, że my nie jesteśmy gotowi na wdrożenie z uwagi na brak wiedzy, że brakuje specjalistów, którzy się na tym znają - mówi Hubert Adamczyk.

To twardy problem gospodarczy. Można mieć najlepsze narzędzia, a używać ich jak zabawki. Można mieć dostęp do najnowszej technologii, a nadal nie wiedzieć, gdzie ona ma sens.

AI nie zabierze pracy wszystkim. Zabierze przewagę tym, którzy nie będą chcieli się uczyć. Zmusi firmy do spojrzenia na własne procesy. Zmusi pracowników do zmiany nawyków. Zmusi państwo do stworzenia zasad. Zmusi szkoły i uczelnie do odpowiedzi na pytanie, czy nadal uczą do świata, który właśnie się kończy, czy już do tego, który nadchodzi.

Pobierz aplikację Newsmax Polska:

Komentarze (1)

John Smith

Ze zdziwieniem muszę stwierdzić, że na dzień dzisiejszy jesteśteście najrozsądniejszym i najbardziej profesjonalnym portalem na polskim rynku...

7 godzin temu

0 0 Reply