Wiadomości

Zamknij

Dodaj komentarz

Ekspert: AI może stworzyć globalną grupę ludzi pracujących w złych warunkach, bez kontroli (wywiad)

PAP 10:37, 27.03.2026
Skomentuj Ekspert: AI może stworzyć globalną grupę ludzi pracujących w złych warunkach, bez

PAP: W lutym tego roku pojawiła się platforma Rent-a-Human, która pozwala – w dużym uproszczeniu – sztucznej inteligencji wynajmować ludzi do wykonywania zadań w świecie fizycznym. Mówimy o wizytach w urzędach, robieniu zdjęć, ale też działaniach o charakterze performatywnym. Czy to rzeczywiście nowy etap gospodarki cyfrowej?

 

Dr. Alek. Tarkowski, socjolog i analityk transformacji cyfrowej, prezes Open Future, zajmujący się wpływem technologii na rynek pracy i polityki publicznej: To bardzo ciekawy przypadek, ale też taki, który wymaga pewnego zdystansowania się od narracji technologicznego przełomu. Z jednej strony rzeczywiście mamy tu element nowości – pojawia się koncepcja, w której to nie człowiek bezpośrednio zleca pracę, lecz agent AI, który działa w jego imieniu lub półautonomicznie.

 

Z drugiej strony, jeśli spojrzymy szerzej, to jest to raczej rozwinięcie dobrze znanych modeli, często opartych na wyzysku pracowników. Platformy pracy na żądanie funkcjonują od lat – czy to w formie mikrozleceń, czy usług takich jak transport lub dostawy. Rent-a-Human wpisuje się w ten trend, ale wprowadza nowy element: ukrycie zleceniodawcy za warstwą algorytmu.

 

PAP: Jak dokładnie działa ten model? Co faktycznie robią ludzie wynajmowani przez AI?

 

A.T.: W teorii mechanizm jest stosunkowo prosty. Agent AI otrzymuje określony cel – na przykład zdobycie informacji, weryfikację miejsca albo wykonanie dokumentacji. Ponieważ działa wyłącznie w środowisku cyfrowym, korzysta z platformy, by zlecić wykonanie zadania człowiekowi.

 

Te zadania są bardzo różnorodne. Część ma wyraźny sens ekonomiczny – jak zdobycie dokumentu w archiwum, gdzie trzeba fizycznie się pojawić, albo wykonanie zdjęć nieruchomości. Ale są też zadania bardziej eksperymentalne, które pokazują granice i ambicje tego modelu – jak polecenie stania na ulicy z tabliczką „płaci mi AI”.

 

To pokazuje, że mamy do czynienia nie tylko z narzędziem biznesowym, ale też z eksperymentem społecznym, który bada, jak ludzie reagują na zlecenia od algorytmu. Dla ścisłości trzeba też podkreślić, że to na razie głównie chwyt marketingowy - bardzo mało transakcji naprawdę doszło do skutku.

 

PAP: Czyli człowiek staje się w tym modelu fizycznym „przedłużeniem” sztucznej inteligencji?

 

A.T.: To bardzo trafne ujęcie. Dzisiejsze systemy AI są coraz bardziej sprawcze w świecie cyfrowym – potrafią analizować dane, generować treści, wykonywać ciągi operacji na komputerze. Ale w pewnym momencie trafiają na granicę: rzeczywistość fizyczną.

 

I wtedy potrzebują człowieka jako interfejsu. Kogoś, kto pójdzie w konkretne miejsce, porozmawia z innymi ludźmi, wykona czynność wymagającą obecności. W tym sensie Rent-a-Human bardzo dobrze pokazuje zarówno potencjał, jak i ograniczenia obecnej generacji AI.

 

PAP: Jednocześnie trudno nie zauważyć, że to przypomina znane już modele – choćby platformy kurierskie, gdzie algorytm zarządza pracą ludzi.

 

A.T.: Zdecydowanie. Już dziś mamy do czynienia z tzw. zarządzaniem algorytmicznym – systemy przydzielają zadania, oceniają pracowników, ustalają wynagrodzenie. Różnica polega na tym, że w tych modelach za algorytmem stoi jasno określona firma.

 

W przypadku takich platform jak Rent-a-Human ten związek zaczyna się rozmywać. Jeśli zleceniodawcą jest agent AI, pojawia się pytanie: kto faktycznie ponosi odpowiedzialność? Twórca systemu? Operator platformy? Użytkownik, który „uruchomił” agenta?

 

PAP: No właśnie – odpowiedzialność prawna i bezpieczeństwo. Kto odpowiada za skutki takiej pracy?

 

A.T.: Na dziś odpowiedź brzmi: to jest obszar w dużej mierze nieuregulowany. Systemy prawne nie nadążają za takimi modelami. W klasycznych platformach już mamy problem z ustaleniem statusu pracownika i odpowiedzialności za zdarzenia.

 

Wprowadzenie AI jako pośrednika dodatkowo komplikuje sytuację. Może się okazać, że odpowiedzialność ulega rozproszeniu – i w praktyce trudno ją przypisać komukolwiek.

 

Europa próbuje na to odpowiadać poprzez regulacje, takie jak AI Act czy dyrektywy dotyczące pracy platformowej, ale proces legislacyjny jest znacznie wolniejszy niż rozwój technologii. Kraje takie jak Stany Zjednoczone raczej nie zechcą tego regulować, zostawiając sprawę wolnemu rynkowi.

 

PAP: Do tego dochodzi kwestia wynagrodzeń i rozliczeń – w przypadku tej platformy wyłącznie w kryptowalutach.

 

A.T.: To istotny element. Kryptowaluty umożliwiają funkcjonowanie poza tradycyjnymi systemami finansowymi. To oznacza większą elastyczność, ale też mniejszą kontrolę – zarówno podatkową, jak i regulacyjną.

 

W praktyce może to prowadzić do sytuacji, w której powstaje równoległa gospodarka pracy – bez składek, bez zabezpieczeń społecznych, bez przejrzystości.

 

PAP: Czy to oznacza powstanie nowej formy cyfrowego prekariatu?

 

A.T.: W dużej mierze to już się dzieje, tylko teraz może zostać pogłębione. Od lat obserwujemy globalizację pracy cyfrowej – platformy korzystają z pracy osób w krajach o niższych dochodach, oferując bardzo niskie stawki.

 

Przykładem są systemy mikrozleceń, gdzie ludzie wykonują zadania za centy – oznaczają obrazy, przepisują dane, weryfikują treści. Ale mamy też bardziej ukrytą warstwę tej pracy.

 

Na przykład w Kenii czy na Filipinach rozwinął się sektor zajmujący się moderacją treści i oceną dialogów generowanych przez chat boty AI. To osoby, które trenują modele językowe, często pracując z bardzo trudnymi materiałami, za bardzo niskie wynagrodzenie.

 

Podobne procesy zaczynają być widoczne także w krajach Afryki Zachodniej, w tym w Senegalu, gdzie rozwija się outsourcing usług cyfrowych – od prostego wprowadzania danych po bardziej zaawansowane wsparcie dla systemów AI.

 

Do tego dochodzi zjawisko tzw. „ghost work” – pracy, która formalnie ma być wykonywana przez automaty, ale w praktyce stoi za nią człowiek, który poprawia, uzupełnia lub zastępuje działanie algorytmu.

 

Różnica w modelu opartym na agentach AI polega na tym, że ten proces może stać się jeszcze bardziej zautomatyzowany, skalowalny i mniej przejrzysty. Algorytm może sam wyszukiwać wykonawców, rozdzielać zadania i optymalizować koszty – bez widocznego udziału człowieka jako zleceniodawcy.

 

PAP: Na ile powinniśmy traktować takie platformy jako zapowiedź realnej zmiany?

 

A.T.: Na dziś powiedziałbym, że to wciąż eksperymenty – ale eksperymenty, które warto traktować poważnie z perspektywy przyszłych wyzwań i zagrożeń. Wprawdzie w branży technologicznej mamy silną tendencję do tworzenia narracji o przełomach, bo te służą przyciąganiu uwagi i kapitału funduszy inwestycyjnych, Jednocześnie historia pokazuje, że część tych eksperymentów rzeczywiście przekształca się w trwałe modele gospodarcze. Dlatego kluczowe jest zachowanie równowagi: ani ignorowanie, ani bezkrytyczne przyjmowanie tych wizji.

 

PAP: Czy ostatecznie AI może stać się pracodawcą?

 

A.T.: Na obecnym etapie – nie w pełnym sensie. Zawsze gdzieś w tle jest człowiek: projektant, właściciel, inwestor. Natomiast możemy mieć do czynienia z sytuacją, w której ta relacja staje się coraz mniej widoczna.

 

I to jest kluczowe pytanie na przyszłość: co się dzieje, gdy przestajemy widzieć, kto podejmuje decyzje ekonomiczne? Bo wraz z tym znika też możliwość egzekwowania odpowiedzialności i ochrony praw pracowników.

 

PAP: Jak pan sądzi, kiedy możemy się spodziewać rewolucji AI na rynku pracy?

 

A.T.: Mogę na to odpowiedzieć tylko anegdotą. W ubiegłym roku opublikowano w Stanach głośny esej pt. „AI 2027” który prognozował, że już w 2027 roku pojawi się superinteligencja i całkowicie zmieni gospodarkę i rynek pracy. Jego twórcy, a szczególnie Daniel Kokotajlo, który był głównym autorem, nie wychodzili z mediów, wszyscy chcieli rozmawiać o ich „ustaleniach”.

 

Kilka miesięcy później ci sami ludzie zaczęli raczkiem wycofywać się z tej daty: w ich wypowiedziach najpierw pojawił się 2028 rok, potem 2030, a w końcu przyznanie, że tak naprawdę nikt niczego nie jest pewien. W świecie technologii bardzo łatwo formułuje się radykalne tezy i bardzo trudne jest ich późniejsze weryfikowanie.

 

PAP: Ja jestem jednak pewna, że jeśli coś jest możliwe, to człowiek to zrobi.

 

A.T. Niewątpliwie, ja z kolei liczę, że uda nam się zachować kontrolę społeczną nad tymi zmianami.

 

Mira Suchodolska (PAP)

 

mir/ kj/

(PAP)
Dalszy ciąg materiału pod wideo ↓

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarze (0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz


Dodaj komentarz

🙂🤣😐🙄😮🙁😥😭
😠😡🤠👍👎❤️🔥💩 Zamknij

Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu myszkow365.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz

OSTATNIE KOMENTARZE

0%