Ich habe es satt, immer wieder derselben Inszenierung zuzusehen. Ein führender KI-Manager geht an die Öffentlichkeit, sagt ein Massaker an White-Collar-Jobs voraus, wirft eine erschreckende Zeitleiste in den Raum, und plötzlich tun alle so, als wäre ein Verkaufspitch eine neutrale Zukunftsanalyse. Ein jüngster Schlagabtausch hat das besonders deutlich gemacht: Ein bekannter Chef eines KI-Unternehmens warnte, dass riesige Mengen an Bürojobs schnell verschwinden könnten, und ein anderer hochrangiger KI-Forscher konterte, dass Arbeitsmärkte nicht von den Leuten erklärt werden sollten, die die Maschinen verkaufen.
Dieser Streit war wichtig, weil er das Theater durchschnitten hat. Wenn die Menschen, die KI bauen und verkaufen, zugleich die lautesten Stimmen werden, die Massenarbeitslosigkeit vorhersagen, solltest du nicht nur Analyse hören. Du solltest Anreize hören. Angst ist rund um KI nicht mehr bloß eine Stimmung. Sie ist Teil der Positionierung. Je düsterer die Prognose klingt, desto zentraler wirkt das Produkt. Als ich das einmal klar sah, klangen viele dieser Endzeit-Prognosen über Arbeit nicht mehr wie nüchterne Wahrheit, sondern wie Marketing mit besserem Schnitt.
Das Ereignis war größer als ein Persönlichkeitskonflikt
Falls jemand das Ganze verpasst hat: Darauf kommt es an.
Ein prominenter KI-Anführer setzte groß auf die inzwischen vertraute Warnung: White-Collar-Arbeit steckt in Schwierigkeiten, eine gewaltige Disruption kommt, die Gesellschaft ist nicht bereit.
Dann sagte ein prominenter Forscher im Grunde: Moment. Wenn es um Arbeitsmärkte, Löhne, Jobschaffung und technologische Verdrängung geht, sollten wir vielleicht aufhören, KI-Gründer als letzte Autorität zu behandeln, nur weil sie nah an den Modellen sitzen.
Das ist der nützliche Teil dieses Zusammenstoßes.
Er hat offengelegt, wie seltsam das Gespräch geworden ist.
Wir geben das Mikrofon immer wieder den Leuten, die am meisten davon profitieren, historisch disruptiv zu klingen.
KI-Untergang ist extrem bequemes Marketing
Die Formel ist inzwischen fast zu sauber:
- sage, die Technologie bewege sich in irrem Tempo
- sage, ganze Berufe seien in Gefahr
- sage, die Gesellschaft sei unvorbereitet
- sage, dein Unternehmen sei eines der wenigen, das die Bedrohung ernst nehme
Das tut zwei Dinge zugleich.
Es lässt den Sprecher prophetisch wirken.
Und es lässt das Produkt des Sprechers unausweichlich erscheinen.
Genau deshalb fällt es mir sehr schwer, das Job-Apokalypsen-Gerede von KI-Managern als neutrale Weisheit zu behandeln. Selbst wenn die Sorge teilweise ehrlich ist, funktioniert sie immer noch als Positionierung.
Arbeitsmärkte sind kein Gründer-Monolog
Das ist der Teil, der offensichtlich sein sollte und trotzdem ständig verloren geht.
Beschäftigung ist keine reine Frage von Modellfähigkeiten.
Sie ist eine ökonomische Frage.
Jobs bewegen sich nach:
- Adoptionsgeschwindigkeit
- Lohndruck
- Regulierung
- Geschäftsanreizen
- Konsumentennachfrage
- organisatorischem Redesign
- neuen Rollen, die später auftauchen als erwartet
Genau deshalb werde ich misstrauisch, sobald jemand direkt von "das Modell kann X" zu "also sind Millionen Jobs weg" springt.
So läuft es in der Realität nie.
Zwischen einer starken Demo und einem veränderten Arbeitsmarkt liegen immer noch Unternehmen, Budgets, Rollouts, Widerstände, Fehlversuche und eine Menge langsamer, hässlicher Entscheidungen.
So funktionieren Arbeitsmärkte nicht.
Technologie kann Aufgaben zerstören.
Sie kann bestimmte Rollen auslöschen.
Sie kann Menschen hart treffen.
Aber der Weg von neuer Fähigkeit zu einem Netto-Ergebnis im Arbeitsmarkt ist chaotisch, politisch und voller Effekte zweiter Ordnung.
Diese Art von Panik sieht in der Praxis immer größer aus, als sie sich zuerst umsetzt
Jede Ära liebt die Vorstellung, ihre Disruption sei die endgültige.
Industriemaschinen lösten Panik aus.
Computer lösten Panik aus.
Geldautomaten lösten Panik aus.
Das Internet löste Panik aus.
Jetzt löst KI Panik aus, nur mit besserem Branding und schöneren Mikrofonen.
Und genau so sieht es auch diesmal aus: eine große Warnung auf der Bühne, viel Dringlichkeit, viel Endzeitton, und danach die viel banalere Realität, dass Branchen Aufgaben ungleich schnell umbauen, Rollen oft verzögert wegbrechen und neue Arbeit meist an ganz anderen Stellen auftaucht.
Das bedeutet nicht, dass die aktuelle Sorge falsch ist.
Es bedeutet, dass Menschen vorsichtiger mit theatralischer Gewissheit umgehen sollten.
Die ehrliche Version ist immer chaotischer:
- manche Aufgaben verschwinden
- manche Jobs schrumpfen
- manche Arbeiter werden hart getroffen
- manche Branchen organisieren sich neu
- manche neuen Rollen tauchen spät auf
Das ist viel weniger filmisch als "die Hälfte der Bürojobs ist bis Jahr X weg", aber meistens näher an der Realität.
Das Beängstigendste ist, was dieses Gerede schon jetzt mit Leuten macht
Was mich am meisten stört, ist nicht nur, dass diese Vorhersagen falsch sein könnten.
Es ist das, was passiert, wenn Menschen sie zu wörtlich aufsaugen.
Arbeiter werden früh demoralisiert.
Politiker jagen Schlagzeilen statt Evidenz hinterher.
Der gruseligste Erzähler wird belohnt.
KI-Unternehmen lernen, dass es gut für Aufmerksamkeit, Status und oft auch für die Produktstory ist, wie Propheten des Zusammenbruchs zu klingen.
Das ist eine verrottete Anreizstruktur.
Die erste Frage sollte immer lauten: Warum sagst du das gerade jetzt?
Wann immer ein KI-Manager eine riesige Behauptung über den Arbeitsmarkt aufstellt, ist das die erste Frage, die ich hören will:
Was optimierst du, indem du das genau jetzt sagst?
Nicht weil jede Warnung fake ist.
Sondern weil Anreize zählen.
Wenn jemand aktiv Frontier-KI-Systeme baut und verkauft, ist seine öffentliche Geschichte über Disruption nie bloß ein Wohltätigkeitsdienst für die Öffentlichkeit. Sie prägt auch, wie Kunden, Regulierer, Medien, Investoren und der Markt die Bedeutung dessen verstehen, was diese Person verkauft.
Das macht die Behauptung nicht automatisch falsch.
Es bedeutet aber ganz klar, dass du sie nicht im Ganzen schlucken solltest.
Eine bessere Art, KI-Jobprognosen zu lesen
Wenn ich es herunterkochen müsste, würde ich einen viel härteren Filter benutzen:
Erstens: trenne Aufgabenverlust von Jobverlust.
Zweitens: trenne kurzfristigen Schock vom langfristigen Gleichgewicht.
Drittens: prüfe, wer spricht und was diese Person aus diesem Framing gewinnt.
Viertens: werde sehr misstrauisch, wenn die Zeitleiste zu sauber klingt.
Fünftens: suche nach realen Adoptionsbelegen und Arbeitsmarktdaten, nicht bloß nach dramatischen Zitaten.
Das ist eine viel bessere Überlebensregel, als jeden gruseligen Satz von jemandem zu reposten, dessen Unternehmen gewinnt, wenn es zentral für die Zukunft wirkt.
Schlussgedanke
Ich sage nicht, dass KI harmlos sein wird.
Sie wird Jobs treffen.
Sie wird Teams komprimieren.
Sie wird vielen Unternehmen einen Vorwand geben, brutal zu handeln.
Aber die Menschen, die am meisten von KI-Panik profitieren, sollten nicht die Menschen sein, denen wir am meisten vertrauen, wenn sie die Zukunft der Arbeit beschreiben.
Wenn du dir von jedem KI-CEO eine Apokalypse verkaufen lässt, endest du mit der schlechtesten Art von Analyse: sensationell, eigennützig und abgekoppelt davon, wie Arbeitsmärkte sich tatsächlich bewegen.
Genau diese Art von Analyse verbreitet sich am schnellsten.
Und genau diese Art sollten Menschen zuerst misstrauen lernen.