KI-Philosophie: Nicht du bist es, sondern ich…

Ist KI eine Arbeitsplatz-Apokalypse oder reiner Hype?

Jeden Tag hören oder lesen wir Nachrichten aller Art über KI, und alle greifen auf die üblichen Übertreibungen zurück, bei denen es nur darum geht, den Klick zu bekommen, und nicht darum, dass die Nachricht der Realität entspricht.

Die Botschaften können aus zwei extremen Meinungsströmungen stammen: Entweder ist die KI eine Apokalypse für die Welt (zumindest die Arbeitswelt), wie wir sie kennen, oder sie ist ein Hype, der zu nichts nütze ist.

Aus Neugier habe ich also die KI gefragt, was sie davon hält. 🤖

Ich habe denselben Prompt bei den drei wichtigsten KIs verwendet: ChatGPT, Gemini und Claude:

Was hältst du von all den Übertreibungen und Hyperbeln, die über KI verbreitet werden?

Die Nuancen in den Antworten der einzelnen Modelle sind interessant. Gemini führt eine Art Pseudobewusstsein ein oder simuliert es, obwohl es dieses in seiner eigenen Antwort entmystifiziert, Verzerrungen zugibt und eine viel moralischere Komponente hat als ChatGPT, das sich auf praktischere Produktivitätskomponenten konzentriert. Claude hält sich enger an die Frage und konzentriert sich auf die extremen Botschaften. Und alle plädieren für eine mittlere Position nach dem Motto „weder zu viel noch zu wenig“.

Alle drei betrachten KI als ein mächtiges Werkzeug, das als solches die Art der Arbeit verstärkt und verändert. 🔧

Wenn ich über die Botschaften nachdenke, die das Ende bestimmter Rollen wie Programmierer, Product Owner, Designer usw. voraussagen, scheint mir Folgendes:

  • Diejenigen, die das Ende einer Rolle voraussagen, stammen meist aus einer anderen Rolle und haben oft Konflikte oder Probleme mit der Rolle, deren Abschaffung sie fordern: Entwickler über Product Owner und umgekehrt, CEOs über jeden, der in der Spesenabrechnung auftaucht, usw… 🙂
  • Es ist ein Fehler, über Rollen zu sprechen; wir müssen über die Natur der Arbeit sprechen.

Wenn wir über die Natur der Arbeit sprechen – und das lässt sich in den Antworten der KI selbst wahrnehmen –, denken wir gewöhnlich an die Möglichkeit der Automatisierung bestimmter Aufgaben, aber Aufgaben sind nur ein Teil unserer Arbeit. Tatsächlich waren viele Aufgaben schon vor der generativen KI automatisierbar; es hat sich lediglich die Art und Weise (und die Kosten) der Automatisierung geändert.

Ich möchte über andere, weniger sichtbare Merkmale nachdenken, die in der Antwort von ChatGPT leicht angedeutet werden:

Urteilsvermögen, Entscheidung und Verantwortung.

Diese drei Merkmale wurden seit der Antike in der Philosophie als wesentliche Attribute des Menschen behandelt. Das Urteilsvermögen und die Fähigkeit, Argumente abzuwägen und zu diskutieren, die Entscheidung oder die Wahlfähigkeit und die Verantwortung für unser Handeln wurden von antiken Philosophen wie Aristoteles bis hin zu moderneren wie Descartes, Hume oder Kant thematisiert.

Jenseits philosophischer Abhandlungen haben diese Konzepte die Architektur und Organisation unserer Gesellschaft definiert und sind Grundpfeiler von Konzepten wie Recht, Ethik, Arbeitsbeziehungen, Leistungsgesellschaft usw.

Wenn wir die Fortschritte der KI und die Fähigkeiten der neuen Modelle sehen, dürfen wir nicht vergessen, dass diese Merkmale im Kern menschlich sind. So sehr die KI auch die Fähigkeit haben mag (oder simulieren kann), Entscheidungen zu treffen, bleibt sie doch ein Werkzeug, und es muss immer ein Mensch existieren, der die Verantwortung für die Taten übernimmt.

Ich habe mit Besorgnis beobachtet, wie bestimmte Akteure beabsichtigen, KI nicht als Werkzeug zur Steigerung menschlicher Fähigkeiten zu nutzen, sondern als Vorwand, um die Verantwortung für Handlungen zu verwässern, die von einem Werkzeug wie der KI ausgeführt werden.

Bekannt ist das Beispiel von Anthropic, das sich weigerte, KI vom US-Militär für die Massenüberwachung von US-Bürgern oder für autonome Waffen einsetzen zu lassen. Jenseits ethischer Erwägungen, ob diese Nutzungen gerechtfertigt sind oder nicht, ist die Verantwortung für die Handlungen entscheidend. Soll die KI in diesen Fällen etwa dazu dienen, die Verantwortung für diese Taten zu verwässern? Wer ist verantwortlich, wenn die KI bei der Überwachung von Bürgern gegen das Gesetz verstößt? Oder wenn die KI einen Fehler macht und sich „entscheidet“, einen Unschuldigen zu eliminieren?

Ohne zu extremen Fällen von Leben und Tod zu greifen, haben wir in unserer Arbeit und im Alltag zahlreiche Beispiele für Entscheidungen und Verantwortlichkeiten, die wir übernehmen. Fragen wir uns: Wenn es schief geht, wer ist verantwortlich, wer wird entlassen, wer wird zur Rechenschaft gezogen oder wer hält den Kopf hin… wenn die Antwort lautet „es war die KI…“, bewegen wir uns in die falsche Richtung.

Daher wird der Einsatz von KI in unserer Arbeit durch die Konzepte von Urteilsvermögen, Entscheidung und Verantwortung begrenzt sein. Es ist nicht so, dass die KI es nicht könnte, sondern dass der Mensch und die Gesellschaft weder bereit noch gewillt sind, diese Konzepte abzutreten.

In diesem Fall müssen wir zur KI sagen: Tut mir leid, nicht du bist es, sondern ich….