Die größte Lüge, die ich immer noch über KI und Jobs höre, geht so: "Solange meine Arbeit besser ist als die Arbeit der Maschine, werde ich schon klarkommen." Das klingt fair, verfehlt aber komplett, was gerade wirklich passiert. Die eigentliche Verschiebung ist nicht, dass KI bereits der beste Arbeiter im Raum geworden ist. Die eigentliche Verschiebung ist, dass viele Manager und Kunden langsam darauf trainiert werden, weniger zu akzeptieren.
Ich denke ständig an ein brutal simples Muster. Vor KI brachte dich ein Tool vielleicht auf eine rohe 40, und ein Mensch musste das Ergebnis immer noch zu einer echten 90 hochschleifen. Jetzt bringt dich KI zu einer schnellen, billigen 70. Viele beruhigen sich noch immer mit dem Satz: "Gut, aber die letzten 20 Punkte brauchen immer noch mich." Was sie übersehen: Das System um sie herum will die 90 womöglich gar nicht mehr dringend genug, um dafür zu zahlen. Sobald das passiert, muss die Maschine dich nicht schlagen. Sie muss nur dafür sorgen, dass deine zusätzliche Qualität zu teuer aussieht.
Das Ereignis ist nicht "KI wurde fantastisch". Es ist "Der Standard ist gefallen."
Das ist der Teil, den viele meiner Meinung nach noch immer nicht offen aussprechen wollen.
Die Gefahr ist nicht nur, dass KI inzwischen akzeptable Arbeit erzeugen kann.
Die Gefahr ist, dass Organisationen darauf umtrainiert werden, akzeptable Arbeit für gut genug zu halten.
Das sieht in der Praxis sehr konkret aus:
- hässliche KI-Poster werden trotzdem freigegeben, weil sie den Platz füllen
- Ein-Klick-KI-Berichte landen trotzdem in Meetings, weil sie fertig klingen
- generische Entwürfe werden trotzdem verschickt, weil niemand für den menschlichen Aufräumschritt zahlen will
Das ist das eigentliche Ereignis hier.
Keine maschinelle Genialität.
Ein sinkender Standard.
Der alte Deal lautete: "Tools helfen, Menschen vollenden"
Lange Zeit lief viel White-Collar-Arbeit nach derselben Logik.
Die Tools halfen, aber der teure menschliche Schritt trug die eigentliche Arbeit.
Der Entwurf war roh.
Der Bericht war dünn.
Das Design war generisch.
Der Code war unfertig.
Dann kam eine Person dazu und erledigte den teuren Teil:
- Urteilskraft
- Verfeinerung
- Korrektur
- Geschmack
- Priorisierung
- letzte Qualitätskontrolle
In diesem letzten Stück lebte der professionelle Wert.
Die Leute nahmen an, dass die Rolle geschützt sei, weil die letzten 20 oder 30 Prozent immer noch einen Menschen brauchten.
Diese Annahme wird gerade zerdrückt.
So gefährlich ist das auch deshalb, weil es aus der Ferne okay aussieht
Genau deshalb gewinnt mittelmäßiger KI-Output öfter, als viele erwarten.
Aus der Distanz kommt er oft durch.
Ein schlechtes KI-Poster sieht trotzdem aus wie ein Poster.
Eine dünne KI-Marktzusammenfassung sieht trotzdem aus wie ein Bericht.
Ein generisches KI-Deck sieht trotzdem aus wie etwas, das ein Manager weiterleiten kann.
Und viele Unternehmen werden von Leuten geführt, die weder Zeit noch Geduld noch Anreiz haben, Qualität genau genug zu prüfen, um die versteckte Schwäche zu sehen.
So kollabieren Standards.
Nicht in einer dramatischen Rede.
Sondern in tausenden kleinen Freigaben.
Märkte haben schon immer "billig genug" belohnt
Das ist keine neue Grausamkeit. KI macht sie nur härter.
Märkte haben schon immer belohnt:
- billiger
- schneller
- standardisierter
- skalierbarer
- gut genug
selbst dann, wenn die bessere Version offensichtlich sorgfältiger, menschlicher oder gekonnter war.
Darum beruhigt mich der tröstliche Satz "meine Version ist immer noch besser" inzwischen kaum noch.
Besser ist nicht dasselbe wie wirtschaftlich geschützt.
In der mittleren Schicht breitet sich der Schaden am schnellsten aus
Die Menschen, um die ich mir am meisten Sorgen mache, sind nicht nur absolute Anfänger oder Elite-Stars.
Es ist die riesige mittlere Schicht, deren Job darin besteht, einen groben ersten Durchgang in etwas Sicheres, Solides und Nutzbares zu verwandeln:
- Analysten
- Texter
- Marketer
- Designer
- Junior- und Mid-Level-Entwickler
- Operations-Mitarbeiter
- interne Researcher
- Ersteller von Präsentationen
Diese Leute "machen" nicht nur Dinge. Sie werten Dinge auf.
Das war wertvoll, weil roher Output früher schwach war.
Jetzt kommt roher Output schneller, billiger und in endlosem Volumen. Also stellt das System eine kältere Frage: Wollen wir wirklich noch jedes Mal einen Menschen bezahlen, damit er das aufwertet?
Die eigentliche Verschiebung ist verhaltensbezogen
Darum glaube ich, dass die Bedrohung größer ist als nur "KI kann manche Aufgaben erledigen".
KI trainiert die gesamte Umgebung rund um die Arbeit um.
Manager werden darauf trainiert, sofortigen Output zu erwarten.
Kunden werden darauf trainiert, generischen Output zu akzeptieren.
Teams werden darauf trainiert, loszulaufen, bevor sie zu gründlich nachdenken.
Middle Manager werden darauf trainiert, Ein-Klick-Zusammenfassungen und automatisch erzeugten Berichten zu vertrauen, statt auf einen langsameren menschlichen Durchgang zu warten.
Das ist nicht bloß Automatisierung.
Das ist eine Verschiebung der Standards.
Und genau so wird handwerkliche Qualität aus dem Markt gepreist.
Schlussgedanke
Nein, ich glaube also nicht, dass die eigentliche Frage lautet, ob KI die besten Menschen schon schlagen kann.
Die eigentliche Frage ist, ob KI billig genug, schnell genug und brauchbar genug werden kann, damit das System aufhört, für den Unterschied zu bezahlen.
Genau darin steckt das Messer.
Die Maschine muss keine Meisterwerke produzieren.
Sie muss nur akzeptable Arbeit im industriellen Maßstab liefern, während Käufer, Chefs und Kunden die Latte stillschweigend senken.
So brechen Standards zusammen.
So verschwinden Jobs.
Und genau deshalb schützt "meine Arbeit ist immer noch besser" wahrscheinlich weit weniger Menschen, als sie glauben.