Kollege KI
Heute fange ich mal gleich hart an, ich hab nämlich wirklich so richtig den Kaffee auf:
Leute, hört endlich auf damit, KI zu vermenschlichen. Echt jetzt!
KI-Agenten sind keine Arbeitskollegen. Chatbots sind weder Freunde noch Therapeuten. LLMs haben keinen Überlebensinstinkt und „die KI“ belügt euch auch nicht. Schon gar nicht bewusst. Das würde nämlich ein Bewusstsein erfordern.
Ganz ehrlich, jedes Mal, wenn KI laut euch angeblich denkt, eine Meinung hat, ermutigt, kreativ tätig wird oder ähnlich menschliches tut, dann heult irgendwo ein kleines Waschbärbaby. Euretwegen!
Und das könnte ja noch Menschen, denen Tierbabys und co am Allerwertesten vorbei gehen, herzlich egal sein. Aber je mehr man KI vermenschlicht, desto sinnfreier wird ihr Einsatz. Und desto nachhaltig unmenschlicher wird das Miteinander von Menschen davon geprägt.
Ich werde jetzt mal ausnahmsweise anekdotisch. Wundert euch also nicht, dass ich euch für das folgende ausnahmsweise keine Quellen liefere. Die gibt es durchaus, wenn auch oft eher über Querbezüge, und oft auch nur mit geringerem Impact (wie das mit jungen und für Politik und Wirtschaft erstmal unattraktiv erscheinenden Forschungsfeldern halt so ist). Aber ich bleibe hier eher bei meinen Beobachtungen. Die wissenschaftliche Nachlässigkeit möge man mir bitte nachsehen.
Dem immer freundlichen LLM lässt man so einiges durchgehen. Da wird dann zum Beispiel, gerade in komplexere Antworten, eine ganze Menge reininterpretiert - sind ja genug Worte da, und die Formulierungen sind auch schön schwammig. Auf das Geblubber einer KI, wenn die ein Strategiedokument verfasst, eine Roadmap erstellt oder auch eine Persönlichkeitsanalyse anbietet, reagiert man dann folgerichtig gerne mit Applaus.
Dabei ist das meiste, was da drin steht, einfach nur Bullshit. Zugegeben, gefälliger Bullshit, aber das nützt ja auch nichts. Viele Ausgaben übersteigen in ihrer Blubberigkeit noch das, was so mancher überteuert eingekaufter Junior Consultant produziert. Und das dann auch in einer so gefälligen Präsentation, dass der Barnum-Effekt voll greift. Objektive Aussagekraft null, aber Zustimmungsrate besser als bei jedem Wochenhoroskop. Weils irgendwie passt und man sich abgeholt fühlt.
Das führt schnell zu Zustimmung zum Inhalt. Und damit auch zu einer generell stärker ausgeprägten Leichtgläubigkeit. Ein halbwegs brauchbares Prompt, und generative KI liefert dir eine plausible Antwort. Ob die nun auf Fakten, Märchen oder heißer Luft steht, interessiert am Ende ja eh niemanden mehr. Hauptsache der Chatbot schließt mit einem Lob, dass man diese kluge Frage gestellt hat.
Im anderen Extrem zeigt sich schnell die dunkle Seite der Bedienenden. Die angedichtete KI-Persönlichkeit ist ja gegenüber jeder Form der Attacke resilient. Es ist immer die Schuld der KI, und sie wird auch nicht müde, das zu betonen. Beleidigungen und Unhöflichkeiten schluckt sie nur allzu gerne. Wer viel mit den Dingern arbeitet, trägt das dann aber auch nach außen. Und beginnt, so auch mit seinen Mitmenschen umzugehen. Und wer vorher schon kein netter Mensch war, fühlt sich durch die antrainierte Unterwürfigkeit des LLM sogar noch bestätigt in seinen Handlungen. Toxisches Verhalten trifft auf den Pawlowschen Hund. What could possibly go wrong?
Eigentlich nichts Neues. Wer viel mit generativer KI arbeitet, verliert seine Hirnleistung. Das haben wir in Studien vom MIT, von METR etc. schon nachlesen können. Und wer KI-Assistenten terrorisiert, der wird auch schnell zum Alptraum von Angestellten und Kunden. Beides ist eigentlich ziemlich schlecht für’s Geschäft, und das haben wir dank HBR (und deren Studie zum Thema Workslop vom Stanford Social Media Lab und BetterUp Labs) auch mittlerweile schriftlich. Wahrhaben wollen wir das nicht. Zur Not holen wir uns einfach etwas Selbstbestätigung vom LLM unserer Wahl.
Eigentlich Wahnsinn. Total absurd. Man könnte fast sagen, wir schaffen uns selbst ab.
Können wir dagegen was tun?
KI einfach sein lassen?
Muss ja nicht, aber die Perspektive, die viele Menschen auf generative KI haben, muss definitiv gerade gerückt werden, um das zu reparieren. Wie wär’s also damit, mal folgendes zu beherzigen:
-
Worte haben Macht. Und wenn man KI vermenschlicht, dann ändert das, wie man sie wahrnimmt. Also genau das bitte unterlassen. KI ist Mathematik. KI ist auch ein (ziemlich wertvolles) Werkzeug. Aber sie ist kein Mensch. Und wird auch nie ein Mensch sein. Wer den Unterschied nicht sieht (und damit dann vielleicht sogar auf die alberne Idee kommt, Menschen durch KI zu ersetzen) hat definitiv einiges an Bodenhaftung verloren. Und sollte sich vielleicht mal wieder mehr mit echten Menschen umgeben (und im Fall des Ersetzens vielleicht mal unter die Menschen, die man ersetzen möchte, falls man dafür nicht zu feige ist).
-
Gegen kognitive Leistungslosigkeit hilft aktives Hirntraining. Generative KI macht es einem sehr leicht, den eigenen Kopf nicht zu gebrauchen. Gerade deshalb muss man sich wohl oder übel dazu zwingen. Denn aus einem LLM kommen vor allem dann wirklich brauchbare Dinge heraus, wenn ein kluger Kopf sie vorher entsprechend gefüttert hat und auch den Ergebnissen einen ausgiebigen, kritischen Blick schenkt. Gegen den Slop hilft Gehirnjogging – und bei GenAI ist das auch angebracht, denn …
-
Alles, was dir generative KI präsentiert, solltest du erst einmal als falsch betrachten. Prüf es nach, schau, ob die Logik passt, lies die Quellen, lies auch wirklich die Antwort des LLM kritisch, anstatt dich einfach an der Textmenge zu erfreuen. Wenn’s ein interaktives System ist. Wenn es ein automatisch arbeitendes System ist, dann teste es fortwährend, überwache es, mache Stichproben, versuche es gelegentlich, es aus dem Takt zu bringen.
-
Kann man sich das auch sparen? Klar, bei Ausgaben, die eigentlich irrelevant ist. Wenn’s nur um Masse geht, hau unbesehen raus. Wenn keine Gefahr besteht, dass aufgrund einer falschen Ausgabe plötzlich Menschen mit Fackeln und Mistgabeln, oder (schlimmer) dein Chef oder (noch schlimmer) ein Anwalt mit ‘ner Klage vor deiner Tür stehen. Geh lieber mit deinen Kindern auf den Spielplatz (das erdet dann auch dein Ego und dein Menschenbild, wenn du mal wieder von ChatGPT zu sehr verhätschelt worden bist). Aber zumindest ich würde mich da irgendwann doch fragen: wenn’s eh egal ist, wieso mach ich (oder die KI) das dann überhaupt?
Durch den Einsatz von KI gewaltig was gewinnen, das können wir nur, wenn wir uns selbst dabei nicht verlieren.
Sonst wird irgendwann doch der Traum der Tech-CEOs von der übermenschlichen KI wahr. Nicht. weil die so unglaublich klug ist. Sondern weil wir uns unter ihr Niveau verdummt haben.
Sie möchten mehr zu diesem Thema wissen?
Kontaktieren Sie uns gerne für ein unverbindliches Gespräch. Wir freuen uns darauf, gemeinsam mit Ihnen die passende Lösung für Ihre Herausforderungen zu entwickeln.
Jetzt Kontakt aufnehmen