reklama
21 wrzesień 2025

Przez AI niektóre kompetencje pracowników mogą zanikać

zdjęcie: Przez AI niektóre kompetencje pracowników mogą zanikać / fot. PAP
fot. PAP
Na rynku pracy sztuczna inteligencja (AI) to z jednej strony szansa na odciążenie pracowników od rutynowych zadań, z drugiej – realne zagrożenie, że cenne umiejętności będą zanikać – ocenił w rozmowie z PAP dr Piotr Gaczek, ekonomista z Uniwersytetu Ekonomicznego w Poznaniu.
REKLAMA

Dr Gaczek bada wpływ AI na procesy decyzyjne. Jego zdaniem choć coraz więcej osób korzysta w pracy z AI, wciąż nie jest jasne, jak wpłynie to na ich długofalowe kompetencje.

Pojawiają się już badania sugerujące, że regularne korzystanie z narzędzi AI może osłabiać zaangażowanie poznawcze i zmniejszać aktywność sieci neuronowych. Może też dochodzić do pogorszenia wyników, gdy pracownik przyzwyczajony do wsparcia AI nagle traci do niego dostęp.

- Widzimy, że korzystanie z tego typu narzędzi powoduje, że ludzie stają się nieco bardziej „bierni”. Jest to prawdopodobnie związane z tym, że mniej skrupulatnie przetwarzamy informacje i jesteśmy mniej zaangażowani, ponieważ delegujemy zadania i część odpowiedzialności na sztuczną inteligencję - wyjaśnił dr Gaczek.

Według niego obecnie dominującym modelem współpracy z AI jest wspomaganie pracy człowieka, a nie jej całkowite zastępowanie. Technologia przejmuje głównie zadania rutynowe, dzięki czemu specjaliści zyskują czas, by skupić się na bardziej złożonych problemach. Taki model, określany jako „inteligencja hybrydowa”, polega na wymianie wiedzy między człowiekiem a maszyną. Użytkownik nadzoruje jej pracę i zleca wykonanie konkretnych zadań, zachowując pełną odpowiedzialność za ostateczny wynik.

Współpraca z AI niesie jednak liczne pułapki. Dr Gaczek ostrzegł, że modele językowe popełniają błędy. Mogą tworzyć tzw. halucynacje (precyzyjnie brzmiące, lecz fałszywe informacje), a zapytane wielokrotnie o to samo, w kilku procentach przypadków podają błędny wynik.

Równie dużym ryzykiem są błędy poznawcze po stronie człowieka. Jednym z nich jest tzw. automation bias, czyli nadmierna wiara w rozwiązania podsuwane przez inteligentny system. - Większość użytkowników chce szybko i płynnie mieć rozwiązanie problemu i ta grupa osób będzie najbardziej narażona na uproszczenia i powielanie błędów sztucznej inteligencji - zauważył badacz. Dodatkowym zagrożeniem jest fakt, że systemy AI należą do wielkich korporacji, które mogą mieć interes w manipulowaniu decyzjami użytkowników.

Jednak zdaniem ekonomisty najpoważniejszym zagrożeniem, jakie niesie upowszechnienie AI, jest zanikanie cennych kompetencji pracowników i wiedzy przekazywanej kolejnym pracownikom. Jeśli dana czynność jest przez długi czas delegowana na maszynę, człowiek traci wprawę lub po prostu zapomina, jak ją wykonać.

- To jest sedno problemu - kompetencje mogą zanikać i nie będą przekazywane dalej. To, że ja, pomagając sobie AI, zapomnę, jak pisze się artykuł naukowy, to pół biedy. Gorsze jest to, że nie będę umiał nauczyć mojego doktoranta, jak pisać - zaalarmował dr Gaczek.

Jako przykład podał niemiecką firmę, która rozpoczyna projekt badawczy nad AI mapującym wiedzę swoich menedżerów. Celem jest „ściągnięcie” know-how z pracowników, aby ich wiedza pozostała w firmie nawet po ich ewentualnym zwolnieniu lub odejściu. - To alarmujący przykład pokazujący, jak szybko człowiek może stać się zbędny po tym, jak maszyna nauczy się od niego wszystkiego - dodał ekonomista.

Firmom, które chcą przeciwdziałać zanikowi umiejętności wśród pracowników korzystających z AI i które chcą odpowiedzialnie wprowadzać rozwiązania AI, badacz polecił trzy rozwiązania.

Po pierwsze to wytłumaczalna AI (Explainable AI). Systemy AI powinny być w stanie wyjaśnić, dlaczego proponują dane rozwiązanie i jakie kroki do niego doprowadziły. Daje to pracownikowi możliwość weryfikacji i kontroli.

Po drugie - mechanizmy kontroli uwagi. Narzędzia AI stosowane w pracy mogą więc co jakiś czas zadawać użytkownikom pytania sprawdzające ich uwagę lub zmęczenie lub wyświetlać komunikaty przypominające o konieczności nadzoru, a nie bezgranicznego zaufania.

Trzecim rozwiązaniem jest zaś superwizor ds. AI. Warto więc, aby w firmie była osoba, której zadaniem jest dbanie o to, by pracownicy korzystali z AI w sposób odpowiedzialny, etyczny, zgodny z polityką firmy.

Dr Gaczek podkreślił, że kluczem do bezpiecznego wdrożenia AI jest zachowanie równowagi między entuzjazmem a ostrożnością. - Z jednej strony nie należy bać się technologii, a z drugiej - trzeba być świadomym jej ograniczeń - podsumował.

Ludwika Tomala (PAP)

lt/ agt/ lm/

PRZECZYTAJ JESZCZE
Materiały sygnowane skrótem „PAP” stanowią element Serwisów Informacyjnych PAP, będących bazami danych, których producentem i wydawcą jest Polska Agencja Prasowa S.A. z siedzibą w Warszawie. Chronione są one przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych. Powyższe materiały wykorzystywane są przez [nazwa administratora portalu] na podstawie stosownej umowy licencyjnej. Jakiekolwiek ich wykorzystywanie przez użytkowników portalu, poza przewidzianymi przez przepisy prawa wyjątkami, w szczególności dozwolonym użytkiem osobistym, jest zabronione. PAP S.A. zastrzega, iż dalsze rozpowszechnianie materiałów, o których mowa w art. 25 ust. 1 pkt. b) ustawy o prawie autorskim i prawach pokrewnych, jest zabronione.
pogoda Bielsk Podlaski
19°C
wschód słońca: 06:11
zachód słońca: 18:27
reklama

Kalendarz Wydarzeń / Koncertów / Imprez w Bielsku Podlaskim

kiedy
2025-10-04 17:00
miejsce
Bielski Dom Kultury, Bielsk...
wstęp biletowany
kiedy
2025-10-12 16:00
miejsce
Bielski Dom Kultury, Bielsk...
wstęp biletowany
kiedy
2025-10-15 19:00
miejsce
Kreatywny Bielsk Podlaski, Bielsk...
wstęp biletowany
kiedy
2025-10-22 19:00
miejsce
Bielski Dom Kultury, Bielsk...
wstęp biletowany