Filosofía de la IA: No eres tú, soy yo…
¿Es la IA un apocalipsis laboral o puro humo?
Cada día escuchamos o leemos noticias de todo tipo sobre la IA, y todas recurriendo a las exageraciones habituales donde lo que importa es conseguir el click, no que la noticia se ajuste a la realidad.
Los mensajes pueden ser de las 2 corrientes extremas de opinión: O la IA es un apocalipsis del mundo (laboral al menos) como lo conocemos o es un humo que no sirve para nada.
Así que, por curiosidad, le he preguntado a la IA qué opinaba al respecto. 🤖
He utilizado el mismo prompt en las 3 IAs principales: ChatGPT, Gemini y Claude:
Son curiosos los matices en las respuestas que introduce cada modelo, Gemini introduce o simula una pseudo-consciencia propia, aunque en su propia respuesta la desmitifica, reconoce sesgos y tiene un componente mucho más moral que ChatGPT, que se centra en componentes más prácticos de productividad. Claude se ciñe más a la pregunta y se centra en los mensajes extremos. Y todas abogan por una posición intermedia de “ni tanto ni tan poco”.
Las 3 consideran la IA como una herramienta potente, y como tal amplifica y cambia la naturaleza del trabajo. 🔧
Reflexionando sobre los mensajes que pronostican el fin de determinados puestos de trabajo como programadores, product owners, diseñadores, etc… me parece que:
- Los que pronostican el fin de un rol suelen ser de otro rol, habitualmente con conflictos o problema con el rol que abogan por eliminar: Desarrolladores sobre product owners y viceversa, CEOs con cualquiera que figure en la cuenta de gastos, etc… 🙂
- Es un error hablar de roles, y tenemos que hablar de la naturaleza de los trabajos.
Cuando hablamos de la naturaleza de los trabajos, y se puede percibir en las respuestas de la propia IA, pensamos habitualmente en la posibilidad de automatización de determinadas tareas, pero las tareas son sólo una parte de nuestro trabajo. De hecho muchas de las tareas ya eran automatizables antes de la IA generativa, simplemente ha cambiado la forma (y el coste) de automatizarlas.
A mi me gustaría reflexionar sobre otras características menos visibles, que se vislumbran ligeramente en la respuesta de chatGPT:
Estas 3 características han sido tratadas desde la antigüedad en la filosofía como atributos esenciales del ser humano. El juicio y la capacidad de deliberar y valorar argumentos, la decisión o capacidad de elección y la responsabilidad de nuestros actos han sido tratados desde filósofos antiguos como Aristóteles a más modernos como Descartes, Hume o Kant.
Más allá de ensayos filosóficos estos conceptos han definido la arquitectura y organización de nuestra sociedad, siendo pilares básicos de conceptos como las leyes, la ética, o las relaciones laborales, meritocracia, etc…
Cuando vemos los avances de la IA, las capacidades de los nuevos modelos, no debemos olvidar que estas características son esencialmente humanas, y por mucho que la IA tenga (o pueda simular) la capacidad de decidir no deja de ser un herramienta, y siempre debe existir un humano que asuma la responsabilidad de los actos.
He visto con preocupación cómo determinados actores pretenden utilizar la IA, no como una herramienta que aumente las capacidades humanas, sino como excusa para diluir la responsabilidad de las acciones ejecutadas por una herramienta como la IA.
Es muy conocido el ejemplo de Anthropic negándose al uso de la IA por parte del ejército norteaméricano para la vigilancia masiva de ciudadanos estadounidenses o para las armas autónomas. Más allá de las consideraciones éticas sobre si esos usos son justificados o no lo relevante es la responsabilidad de las acciones. ¿Acaso se pretende usar la IA en esos casos para diluir la responsabilidad de esas acciones? ¿Quién es responsable si la IA infringe la ley vigilando a ciudadanos? ¿o si la IA se equivoca y “elige” eliminar a un inocente?
Sin llegar a casos extremos de vida o muerte, en nuestro trabajo y día a día tenemos múltiples ejemplos de decisiones y responsabilidades que asumimos. Preguntémonos si sale mal quién es el responsable, a quién van a despedir, quién va a rendir cuentas o quién va a dar la cara…si la respuesta es “ha sido la IA…” vamos en mala dirección.
Por ello la aplicación de la IA en nuestros trabajos estará limitada por los conceptos de juicio, decisión y responsabilidad. No es que la IA no pueda, es que el ser humano y la sociedad no están ni preparados ni dispuestos a ceder dichos conceptos.
En este caso tendremos que decirle a la IA: lo siento, no eres tú, soy yo….