Filosofia da IA: Não é você, sou eu…
A IA é um apocalipse para o emprego ou apenas uma moda passageira?
Todos os dias ouvimos ou lemos todo o tipo de notícias sobre a IA, e todas recorrem aos exageros habituais cujo único objetivo é conseguir o clique, sem se importarem se a notícia corresponde à realidade.
As mensagens podem provir de duas correntes de opinião extremas: ou a IA é um apocalipse para o mundo (pelo menos o do trabalho) como o conhecemos, ou é um "hype" que não serve para nada.
Por isso, por curiosidade, perguntei à IA o que ela pensava. 🤖
Utilizei o mesmo prompt com as três principais IAs: ChatGPT, Gemini e Claude:
As nuances nas respostas de cada modelo são interessantes. O Gemini introduz ou simula uma espécie de pseudoconsciência, embora a desmistifique na sua própria resposta admitindo enviesamentos, e possui uma componente muito mais moral do que o ChatGPT, que se foca em componentes de produtividade mais práticas. O Claude mantém-se mais rigorosamente na pergunta e foca-se nas mensagens extremas. E os três defendem uma posição intermédia do tipo "nem tanto ao mar, nem tanto à terra".
Os três consideram a IA como uma ferramenta poderosa que, como tal, amplifica e modifica a natureza do trabalho. 🔧
Ao refletir sobre as mensagens que preveem o fim de certas funções como programadores, Product Owners, designers, etc., parece-me que:
- Quem prevê o fim de uma função provém geralmente de outra função e muitas vezes tem conflitos ou problemas com a função cuja eliminação solicita: programadores sobre Product Owners e vice-versa, CEOs sobre qualquer pessoa que apareça na nota de despesas, etc… 🙂
- É um erro falar de funções; devemos falar da natureza do trabalho.
Quando falamos da natureza do trabalho — e isso percebe-se nas respostas da própria IA —, pensamos habitualmente na possibilidade de automatizar certas tarefas, mas as tarefas são apenas uma parte do nosso trabalho. Na realidade, muitas tarefas já eram automatizáveis antes da IA generativa; apenas mudou a forma (e o custo) de as automatizar.
Gostaria de refletir sobre outras características menos visíveis que são ligeiramente sugeridas na resposta do ChatGPT:
Estas três características têm sido tratadas desde a antiguidade na filosofia como atributos essenciais do ser humano. O julgamento e a capacidade de ponderar e discutir argumentos, a decisão ou a capacidade de escolha, e a responsabilidade pelos nossos atos foram abordados por filósofos que vão desde Aristóteles a pensadores mais modernos como Descartes, Hume ou Kant.
Para além dos tratados filosóficos, estes conceitos definiram a arquitetura e organização da nossa sociedade e são os pilares de conceitos como o Direito, a Ética, as relações laborais, a meritocracia, etc.
Quando vemos os avanços da IA e as capacidades dos novos modelos, não nos devemos esquecer de que estas características são fundamentalmente humanas. Por muita capacidade que a IA tenha (ou possa simular ter) para tomar decisões, ela continua a ser uma ferramenta e terá sempre de existir um ser humano que assuma a responsabilidade pelos atos.
Tenho observado com preocupação como certos intervenientes pretendem utilizar a IA não como uma ferramenta para amplificar as capacidades humanas, mas como uma desculpa para diluir a responsabilidade de ações executadas por uma ferramenta como a IA.
É célebre o exemplo da Anthropic, que se recusou a permitir que o exército dos EUA utilizasse a IA para vigilância em massa de cidadãos americanos ou para armas autónomas. Para além das considerações éticas sobre se estas utilizações são justificadas ou não, a responsabilidade pelos atos é crucial. Deve a IA servir nestes casos para diluir a responsabilidade de tais atos? Quem é responsável se a IA infringir a lei ao vigiar cidadãos? Ou se a IA cometer um erro e "decidir" eliminar um inocente?
Sem ir para casos extremos de vida ou morte, no nosso trabalho e na vida quotidiana temos numerosos exemplos de decisões e responsabilidades que assumimos. Perguntemo-nos: se correr mal, quem é responsável, quem é despedido, quem presta contas ou quem dá a cara… se a resposta for "foi a IA…", estamos a ir na direção errada.
Portanto, a utilização da IA no nosso trabalho será limitada pelos conceitos de julgamento, decisão e responsabilidade. Não é que a IA não o pudesse fazer, é que o ser humano e a sociedade não estão nem preparados nem dispostos a ceder estes conceitos.
Nesse caso, temos de dizer à IA: Desculpa, não és tu, sou eu….