Filozofia AI: To nie ty, to ja…
Czy AI to apokalipsa dla rynku pracy, czy tylko chwilowa moda?
Każdego dnia słyszymy lub czytamy wszelkiego rodzaju wiadomości na temat AI, a wszystkie one uciekają się do zwyczajowych przesady, których jedynym celem jest zdobycie kliknięcia, bez względu na to, czy informacja odpowiada rzeczywistości.
Komunikaty mogą pochodzić z dwóch skrajnych nurtów opinii: albo AI jest apokalipsą dla świata (przynajmniej świata pracy), jaki znamy, albo jest to "hype", który do niczego nie służy.
Z ciekawości zapytałem więc AI, co o tym sądzi. 🤖
Użyłem tego samego promptu w trzech głównych modelach: ChatGPT, Gemini i Claude:
Niuanse w odpowiedziach każdego modelu są interesujące. Gemini wprowadza lub symuluje pewien rodzaj pseudo-świadomości, choć sam ją demitologizuje w swojej odpowiedzi, przyznając się do uprzedzeń, i posiada znacznie silniejszy komponent moralny niż ChatGPT, który skupia się na bardziej praktycznych aspektach produktywności. Claude trzyma się ściślej pytania i koncentruje na skrajnych przekazach. Wszyscy trzej opowiadają się za stanowiskiem pośrednim typu "ani za dużo, ani za mało".
Wszyscy trzej uważają AI za potężne narzędzie, które jako takie wzmacnia i zmienia charakter pracy. 🔧
Reflektując nad komunikatami przewidującymi koniec pewnych ról, takich jak programiści, Product Ownerzy, projektanci itp., wydaje mi się, że:
- Ci, którzy przewidują koniec danej roli, zazwyczaj wywodzą się z innej roli i często mają konflikty lub problemy z rolą, o której usunięcie wnioskują: deweloperzy z Product Ownerami i na odwrót, dyrektorzy generalni z każdym, kto pojawia się w raporcie wydatków, itd… 🙂
- Błędem jest mówienie o rolach; musimy mówić o charakterze pracy.
Kiedy mówimy o charakterze pracy — co można wyczuć w odpowiedziach samej AI — zazwyczaj myślimy o możliwości automatyzacji pewnych zadań, ale zadania to tylko część naszej pracy. W rzeczywistości wiele zadań można było zautomatyzować już przed erą generatywnej AI; zmienił się jedynie sposób (i koszt) ich automatyzacji.
Chciałbym zastanowić się nad innymi, mniej widocznymi cechami, które są lekko zasugerowane w odpowiedzi ChatGPT:
Te trzy cechy były traktowane od starożytności w filozofii jako istotne atrybuty istoty ludzkiej. Osąd i zdolność do ważenia oraz dyskutowania argumentów, decyzja czyli zdolność wyboru, oraz odpowiedzialność za nasze czyny były podejmowane przez filozofów od Arystotelesa po nowożytnych myślicieli, takich jak Kartezjusz, Hume czy Kant.
Poza traktatami filozoficznymi, pojęcia te zdefiniowały architekturę i organizację naszego społeczeństwa i są filarami takich pojęć jak prawo, etyka, relacje pracownicze, merytokracja itp.
Widząc postępy AI i możliwości nowych modeli, nie możemy zapominać, że te cechy są fundamentalnie ludzkie. Choć AI może posiadać zdolność (lub symulować zdolność) do podejmowania decyzji, nadal pozostaje narzędziem i zawsze musi istnieć człowiek, który weźmie odpowiedzialność za czyny.
Z niepokojem obserwuję, jak niektórzy aktorzy zamierzają wykorzystywać AI nie jako narzędzie do wzmacniania ludzkich możliwości, ale jako wymówkę do rozmywania odpowiedzialności za działania wykonywane przez narzędzie, jakim jest AI.
Słynny jest przykład firmy Anthropic, która odmówiła armii USA wykorzystania AI do masowej inwigilacji obywateli amerykańskich lub do broni autonomicznej. Pomijając rozważania etyczne o tym, czy te zastosowania są uzasadnione, kluczowa jest odpowiedzialność za czyny. Czy AI ma w tych przypadkach służyć do rozmywania odpowiedzialności za takie akty? Kto jest odpowiedzialny, jeśli AI złamie prawo inwigilując obywateli? Albo jeśli AI popełni błąd i "zdecyduje" o wyeliminowaniu niewinnej osoby?
Nie uciekając się do ekstremalnych przypadków życia lub śmierci, w naszej pracy i codziennym życiu mamy liczne przykłady decyzji i odpowiedzialności, które podejmujemy. Zadajmy sobie pytanie: jeśli coś pójdzie nie tak, kto jest odpowiedzialny, kto zostaje zwolniony, kto zdaje relację lub kto nadstawia karku… jeśli odpowiedzią jest "to była AI…", to idziemy w złym kierunku.
Dlatego wykorzystanie AI w naszej pracy będzie ograniczone przez pojęcia osądu, decyzji i odpowiedzialności. Nie chodzi o to, że AI nie mogłaby tego zrobić, ale o to, że człowiek i społeczeństwo nie są ani gotowi, ani skłonni do oddania tych pojęć.
W takim przypadku musimy powiedzieć AI: Przepraszam, to nie ty, to ja….