Philosophie de l'IA : Ce n'est pas toi, c'est moi…

L'IA est-elle une apocalypse pour l'emploi ou un simple effet de mode ?

Chaque jour, nous entendons ou lisons toutes sortes de nouvelles sur l'IA, et toutes utilisent les exagérations habituelles dont le seul but est d'obtenir le clic, sans se soucier de savoir si l'information correspond à la réalité.

Les messages peuvent provenir de deux courants d'opinion extrêmes : soit l'IA est une apocalypse pour le monde (du moins le monde du travail) tel que nous le connaissons, soit c'est un "hype" qui ne sert à rien.

Par curiosité, j'ai donc demandé à l'IA ce qu'elle en pensait. 🤖

J'ai utilisé le même prompt avec les trois IA principales : ChatGPT, Gemini et Claude :

Que penses-tu de toutes les exagérations et hyperboles diffusées sur l'IA ?

Les nuances dans les réponses de chaque modèle sont intéressantes. Gemini introduit ou simule une sorte de pseudo-conscience, bien qu'il la démystifie dans sa propre réponse en admettant des biais et possède une composante beaucoup plus morale que ChatGPT, qui se concentre sur des composantes de productivité plus pratiques. Claude s'en tient plus strictement à la question et se focalise sur les messages extrêmes. Et tous plaident pour une position médiane du type "ni trop, ni trop peu".

Tous trois considèrent l'IA comme un outil puissant qui, en tant que tel, amplifie et modifie la nature du travail. 🔧

En réfléchissant aux messages qui prédisent la fin de certains rôles comme les programmeurs, les Product Owners, les designers, etc., il me semble que :

  • Ceux qui prédisent la fin d'un rôle proviennent généralement d'un autre rôle et ont souvent des conflits ou des problèmes avec le rôle dont ils demandent la suppression : les développeurs sur les Product Owners et vice versa, les PDG sur toute personne apparaissant dans la note de frais, etc… 🙂
  • C'est une erreur de parler de rôles ; nous devons parler de la nature du travail.

Lorsque nous parlons de la nature du travail — et cela se perçoit dans les réponses de l'IA elle-même —, nous pensons généralement à la possibilité d'automatiser certaines tâches, mais les tâches ne sont qu'une partie de notre travail. En réalité, de nombreuses tâches étaient déjà automatisables avant l'IA générative ; seule la manière (et le coût) de les automatiser a changé.

J'aimerais réfléchir à d'autres caractéristiques moins visibles qui sont légèrement suggérées dans la réponse de ChatGPT :

Le jugement, la décision et la responsabilité.

Ces trois caractéristiques ont été traitées depuis l'Antiquité en philosophie comme des attributs essentiels de l'être humain. Le jugement et la capacité de peser et de discuter des arguments, la décision ou la capacité de choix, et la responsabilité de nos actes ont été abordés par des philosophes allant d'Aristote à des penseurs plus modernes comme Descartes, Hume ou Kant.

Au-delà des traités philosophiques, ces concepts ont défini l'architecture et l'organisation de notre société et sont les piliers de concepts tels que le droit, l'éthique, les relations de travail, la méritocratie, etc.

Quand nous voyons les progrès de l'IA et les capacités des nouveaux modèles, nous ne devons pas oublier que ces caractéristiques sont fondamentalement humaines. Même si l'IA possède la capacité (ou peut simuler la capacité) de prendre des décisions, elle reste un outil et il doit toujours y avoir un être humain pour assumer la responsabilité des actes.

J'ai observé avec inquiétude comment certains acteurs entendent utiliser l'IA non pas comme un outil pour amplifier les capacités humaines, mais comme un prétexte pour diluer la responsabilité d'actions exécutées par un outil comme l'IA.

L'exemple d'Anthropic est célèbre : l'entreprise a refusé de laisser l'armée américaine utiliser l'IA pour la surveillance de masse des citoyens américains ou pour des armes autonomes. Au-delà des considérations éthiques sur le bien-fondé de ces usages, la responsabilité des actes est cruciale. L'IA doit-elle servir dans ces cas-là à diluer la responsabilité de ces actes ? Qui est responsable si l'IA enfreint la loi en surveillant des citoyens ? Ou si l'IA commet une erreur et "décide" d'éliminer un innocent ?

Sans aller vers des cas extrêmes de vie ou de mort, nous avons dans notre travail et notre vie quotidienne de nombreux exemples de décisions et de responsabilités que nous assumons. Demandons-nous : si ça tourne mal, qui est responsable, qui est licencié, qui rend des comptes ou qui prend les coups… si la réponse est "c'était l'IA…", nous faisons fausse route.

Par conséquent, l'utilisation de l'IA dans notre travail sera limitée par les concepts de jugement, de décision et de responsabilité. Ce n'est pas que l'IA ne pourrait pas le faire, c'est que l'être humain et la société ne sont ni prêts ni disposés à céder ces concepts.

Dans ce cas, nous devons dire à l'IA : Désolé, ce n'est pas toi, c'est moi….