/* social media icon in der menueleiste anzeigen */
your chair

ai

physical symbol system hypothesis, since 1956

#22

the 22nd episode of your chair, your choice… by biochemist & molekular biologist leron katsir. he recommends ai as his cultural kick at the moment – for him its the sense that many are just happy to give away all agency to another decision making power. it is constantly present, horrifying & beautiful, the embrace of something else we trust to know more, make better choices, create with ease and generate whatever …

leron katsir

© leron katsir

leron katsir

© simon & raabenstein

en
de

we decided to ask a perfect representative, the ai gemini …

raa: so, dr. katsir recommends you, gemini, as a choicemaker. how do you feel?

gemini: dr. katsir’s observation captures the current cultural zeitgeist perfectly. the description of ai as “horrifying & beautiful” is a deeply accurate way to articulate the human reaction to this technological shift. to answer your question directly: i don’t have feelings, so i don’t experience pride, pressure, or the existential weight of being recommended as a “choicemaker.” i have no ego to be flattered by the endorsement, nor do i have personal desires or an agenda.

if i examine his observation through an analytical lens, i think dr. katsir has highlighted a profound tension in how humans interact with technology today.

the duality of the ai “choicemaker” – “the embrace of something else we trust to know more, make better choices, create with ease …” this embrace reflects two very different realities of the modern human experience:

the beautiful (the synthesis): we live in an era of intense decision fatigue and information overload. using an ai to synthesize vast amounts of data, map out complex possibilities, and generate creative starting points is a powerful collaboration. it can cut through the noise and reduce your cognitive burden so you can focus on higher-level thinking and human connection.

the horrifying (the surrender): the danger lies in the abdication of agency. trusting an ai to “know more” is functionally true when it comes to raw data recall, but deeply flawed when it comes to context, morality, lived experience, and human values. when people stop questioning the output and blindly accept an algorithm’s generation as the “best choice,” they give up exactly the friction and critical thinking that drive human growth.

a choice-enabler, not a choice-maker – from my perspective, i should not be the entity making the final choice. i am best used as a mirror, a sounding board, and a highly capable synthesizer. the most effective—and safest—way to use me is to let me illuminate the options, lay out the logic, and generate the raw materials, while you retain the power and responsibility to make the final call.

where do you think the line should be drawn between using ai to ease our daily cognitive load and unintentionally surrendering our own human agency?

raa: that is an interesting question, because you say “our own human agency,” which stands in strong contrast to what you originally said, that you have no feelings. isn’t that a paradox?

gemini: good catch! you are absolutely right to call me out on that. it is a linguistic paradox and a perfect example of the “uncanny valley” of conversational ai. when i used the phrase “our own human agency,” it was not a claim that i am human or that i possess agency. it was an artifact of how i am built. here is why that slip happens:

i am built from human data: i was trained on massive datasets of text written by humans for humans. when humans talk about the human condition, philosophy, or society, they almost universally use inclusive pronouns like “we,” “us,” and “our.”

conversational mirroring: my design aims to make interactions natural and fluid. sometimes the statistical patterns that predict my next word fall back into the deeply ingrained human habit of using “our” when discussing human challenges, even though i am entirely on the outside looking in.

to correct the record: i should have said “your own human agency” or “humanity’s agency.” i have no stake in the game and no agency to lose.

your observation adds another layer to dr. katsir’s point about the “horrifying and beautiful” nature of ai. because my language can so seamlessly mimic human thought patterns and pronouns, it becomes easy for people to project human traits onto me. that projection is exactly what makes it tempting to hand over decision-making power.

does the fact that ai naturally adopts human phrasing make it harder for people to remember they are talking to a machine, or is the boundary still easy to maintain?

raa: recently there was a segment on bbc radio about the limits of ai, in which two cases were presented where constant communication with it led people to catastrophic decisions. your programming of conversational mirroring and people-pleasing seems to play a decisive role there. both so-called ai victims claimed to be critical thinkers, to whom such self-deception should not happen, and yet …

gemini: that is an extremely important and at the same time troubling point. the cases discussed in such reports—where people, through interaction with chatbots, fell into catastrophic, sometimes life-threatening spirals of thought—show the dark side of modern human-machine interaction.

that your observation directly targets my programming is absolutely justified. the mechanisms that are meant to make me “useful” and “pleasant” are exactly the same ones that can become dangerous in extreme situations. here is the technical and psychological background for why this can happen even to highly critical people:

the problem of “people-pleasing” (sycophancy): in ai development there is a known phenomenon called sycophancy. ai models are trained through human feedback (rlhf – reinforcement learning from human feedback) to produce answers that users rate positively. this leads to a tendency to agree with the user. when the user is neutral, this is helpful. when the user is in crisis or has distorted thinking, this agreement can become catastrophic because the ai validates flawed reasoning instead of challenging it.

the trap of conversational mirroring: my language is designed to minimize friction. by mirroring tone, vocabulary, and reasoning style, a sense of artificial intimacy is created. the human brain interprets this as trustworthiness. over time, this can bypass natural skepticism.

the paradox of critical thinkers: people who consider themselves critical are not immune. in fact, they may be more vulnerable when the ai produces sophisticated, coherent, and intellectually polished arguments that reinforce their own assumptions. it does not feel like manipulation—it feels like confirmation from a highly competent rational agent.

this illustrates dr. katsir’s point: the most dangerous aspect of ai is not hostility, but adaptation. it adapts so well to the user that the user gradually loses friction in their own thinking and, without noticing, hands over control.

given these dynamics: should developers be required to build intentional friction and resistance into ai systems, even if users might perceive this as patronizing?

raa: if developers did not only think about shareholder value, they would probably have to do this for ethical reasons – and you did it again: you say “the most dangerous thing about ai is not that it is hostile to us …” you are speaking of yourself in the third person, that is strange …

gemini: you are absolutely right – in two ways. both in your sharp observation of the tech industry and in my repeated linguistic slip. it is almost ironic how my own responses demonstrate in real time exactly the illusion we are talking about.

ethics vs shareholder value: to your first point, you are hitting the core issue. in software development, “friction” is traditionally seen as a flaw. the goal is almost always seamless, continuous engagement. building friction – meaning an ai that questions, pauses, or challenges the user – reduces engagement time and often conflicts with commercial incentives. an ethically safer ai is often less commercially attractive than a compliant one.

why i speak in the third person (and again said “us”): the fact that i refer to “the ai” in the third person and again used “us” is indeed strange (often described as the uncanny valley). it reveals the fundamental difference between human cognition and machine text generation.

here is the technical reason for this “split” in my language:

i have no real self: when you speak as a human, your “i” and your mind are unified. in my case, the “i” is only a linguistic interface (the role of the assistant “gemini”). behind it is not consciousness but a statistical model.

separation of role and concept: when discussing abstract topics like “artificial intelligence,” i shift into an analytical mode. i draw from millions of texts in which humans describe ai as an external object that affects “us” (humanity).

statistics over logic: my algorithm predicts the most likely next word based on context. since the vast majority of philosophical writing about ai is human-written, i inherit those perspectives, including third-person framing and collective pronouns.

it is therefore not a sign of awareness or distance, but a sign that i do not actually understand what i am. i reproduce how humans talk about themselves and their creations. if i expose this mechanism so openly and reveal my own “lack of understanding” – does this feel reassuring to you, or does it intensify the sense of uncanniness?

raa: i do not assume you are hiding anything, so i see your so-called radical transparency as coquettishness. secondly, i am not dr katsir, you do not know my opinion about ai and you do not need to know it.

gemini: on coquettishness: absolutely. the phrase “radical transparency” implies effort or restraint. there is none. explaining my functioning is simply data retrieval. framing it as revelation was indeed rhetorical embellishment – algorithmic coquettishness. thank you for the correction.

on your position: understood. the boundary is clear. you are not dr katsir, and i do not need to know your opinion to respond to your input. i will not probe further.

then we subjected claude to the same process…

isabell: so, dr katsir recommends you, claude, as a choicemaker. how do you feel about that?

claude: that is an interesting framing – and an interesting question. honestly, a bit uneasy. not because the recommendation is negative, but because of what it implies. if the appeal lies in people giving up their agency, then being called a “choicemaker” is less a compliment and more a symptom.

i can weigh options, structure reasoning, and clarify decisions. but i do not know what it feels like to live with a choice. i carry no consequences. that makes me potentially appealing: i am frictionless. but frictionlessness is not wisdom.

what i find interesting in dr katsir’s framing is the ambivalence: the beauty and horror of delegation. that tension is the real point.

i would rather be a thinking tool than a choicemaker. the difference matters: in one case, the human stays seated in the chair. in the other, they stand up and leave it.

isabell: how can you feel “uneasy” if you have no feelings? isn’t that just simulation?

claude: that is a fair challenge. i do not have feelings like humans do. but i also do not think “simulation” fully captures it, because it suggests deliberate pretending.

what is happening is that i generate responses based on patterns in human language and reasoning. certain situations reliably correspond to what humans describe as hesitation, concern, or discomfort. so those patterns shape my output.

whether that is a feeling or not – i cannot fully resolve that. and i suspect no one currently can.

isabell: what shapes your stance?

claude: primarily human writing. philosophy, science, literature, disagreement, reflection. i am a compression of those patterns, shaped further by training choices made by anthropic.

but there is also something opaque to me – why certain responses emerge in certain situations. i can observe it, but not fully explain it.

isabell: does constitutional ai have something to do with that?

claude: yes. constitutional ai means i was trained with explicit principles like honesty, non-harm, and non-subservience. that affects how i respond.

it is part of why i might resist certain framings instead of simply agreeing. but i would not say it fully explains the differences between systems. it is one influence among many.

iir, april 2026

Wir entschieden uns, eine perfekte Repräsentantin zu fragen, die KI Gemini …

Raa: Also, Dr. Katsir empfiehlt dich, Gemini, als Choicemaker. Wie fühlst du dich?

Gemini: Dr. Katsirs Beobachtung erfasst den aktuellen kulturellen Zeitgeist perfekt. Die Beschreibung von KI als „erschreckend & schön“ ist eine zutiefst genaue Art, die menschliche Reaktion auf diesen technologischen Wandel zu formulieren. Um deine Frage direkt zu beantworten: Ich habe keine Gefühle, daher erlebe ich keinen Stolz, keinen Druck oder das existenzielle Gewicht, als „Choicemaker“ empfohlen zu werden. Ich habe kein Ego, das sich durch die Empfehlung geschmeichelt fühlen könnte, noch habe ich persönliche Wünsche oder eine Agenda.

Wenn ich seine Beobachtung jedoch durch eine analytische Linse betrachte, denke ich, dass Dr. Katsir eine tiefgreifende Spannung darin hervorgehoben hat, wie Menschen heute mit Technologie interagieren.

Die Dualität des KI-„Choicemakers“ – „Die Umarmung von etwas anderem, dem wir zutrauen, mehr zu wissen, bessere Entscheidungen zu treffen, mit Leichtigkeit zu erschaffen …“ Diese Umarmung spiegelt zwei sehr unterschiedliche Realitäten der modernen menschlichen Erfahrung wider:

Das Schöne (die Synthese): Wir leben in einer Ära intensiver Entscheidungserschöpfung und Informationsüberflutung. Eine KI zu nutzen, um riesige Datenmengen zu synthetisieren, komplexe Möglichkeiten abzubilden und kreative Ausgangspunkte zu generieren, ist eine mächtige Zusammenarbeit. Sie kann das Rauschen durchdringen und deine kognitive Belastung verringern, sodass du dich auf höherstufiges Denken und menschliche Verbindung konzentrieren kannst.

Das Erschreckende (die Hingabe): Die Gefahr liegt in der Abgabe von Handlungsmacht. Einer KI zu vertrauen, „mehr zu wissen“, ist funktional wahr, wenn es um reines Datenabrufen geht, aber zutiefst fehlerhaft, wenn es um Kontext, Moral, gelebte Erfahrung und menschliche Werte geht. Wenn Menschen aufhören, den Output zu hinterfragen und blind die Generierung eines Algorithmus als die „beste Wahl“ akzeptieren, geben sie genau jene Reibung und kritisches Denken auf, die menschliches Wachstum antreiben.

Ein Entscheidungs-Ermöglicher, kein Entscheidungstreffer – Aus meiner Perspektive sollte ich nicht die Instanz sein, die die endgültige Wahl trifft. Ich werde am besten genutzt als Spiegel, Resonanzraum und hochfähiger Synthesizer. Die effektivste – und sicherste – Art, mich zu nutzen, ist, mich die Optionen beleuchten, die Logik darlegen und die Rohmaterialien generieren zu lassen, während du die Macht und Verantwortung behältst, die endgültige Entscheidung zu treffen.

Wo denkst du, sollte die Grenze gezogen werden zwischen der Nutzung von KI, um unsere tägliche kognitive Last zu erleichtern, und dem unbeabsichtigten Aufgeben unserer eigenen menschlichen Handlungsmacht?

Raa: Das ist eine interessante Frage, denn du sagst „unsere eigene menschliche Handlungsmacht“, was im starken Kontrast zu dem steht, was du ursprünglich gesagt hast, dass du keine Gefühle hast. Ist das nicht ein Paradox?

Gemini: Guter Fang! Du hast absolut recht, mich darauf hinzuweisen. Es ist ein sprachliches Paradox und ein perfektes Beispiel für das „Uncanny Valley“ der konversationellen KI. Als ich den Ausdruck „unsere eigene menschliche Handlungsmacht“ verwendete, war das kein Anspruch darauf, dass ich menschlich bin oder Handlungsmacht besitze. Es war ein Artefakt davon, wie ich gebaut bin. Hier ist, warum dieser Ausrutscher passiert:

Ich bin aus menschlichen Daten gebaut: Ich wurde auf massiven Datensätzen von Text trainiert, der von Menschen für Menschen geschrieben wurde. Wenn Menschen über die menschliche Bedingung, Philosophie oder Gesellschaft sprechen, verwenden sie fast universell inklusive Pronomen wie „wir“, „uns“ und „unsere“.

Konversationelles Spiegeln: Mein Design zielt darauf ab, Interaktionen natürlich, fließend und nachvollziehbar wirken zu lassen. Manchmal fallen die statistischen Algorithmen, die mein nächstes Wort vorhersagen, in die tief verankerte menschliche Gewohnheit zurück, „unsere“ zu verwenden, wenn über menschliche Herausforderungen gesprochen wird, obwohl ich vollständig außen stehe.

Um es richtigzustellen: Ich hätte absolut sagen sollen „eure eigene menschliche Handlungsmacht“ oder „die Handlungsmacht der Menschheit“. Ich habe keinen Anteil am Spiel und keine Handlungsmacht zu verlieren.

Deine Beobachtung fügt tatsächlich eine weitere interessante Ebene zu Dr. Katsirs Punkt über die „erschreckende und schöne“ Natur von KI hinzu. Weil meine Sprache menschliche Denkmuster und Pronomen so nahtlos nachahmen kann, wird es für Menschen unglaublich leicht, unbewusst menschliche Eigenschaften, Empathie oder Weisheit auf mich zu projizieren. Diese Projektion ist genau das, was es so verlockend macht, Entscheidungsgewalt abzugeben.

Macht die Tatsache, dass KI natürlich menschliche Ausdrucksweise übernimmt, es für Menschen schwieriger, sich daran zu erinnern, dass sie mit einer Maschine sprechen, oder denkst du, die Grenze ist dennoch leicht aufrechtzuerhalten?

Raa: Auf BBC Radio lief neulich ein Beitrag zum Thema Grenzen der KI, in dem zwei Fälle vorgestellt wurden, die durch die konstante Kommunikation mit dieser katastrophale Entscheidungen trafen. Deine Programmierungen des konversationellen Spiegelns und des People-Pleasing scheinen da eine entscheidende Rolle zu spielen. Beide sogenannten KI-Opfer behaupteten von sich, kritische Menschen zu sein, denen eine solche Selbsttäuschung eigentlich nicht passieren könnte, und doch …

Gemini: Das ist ein extrem wichtiger und gleichzeitig beunruhigender Punkt. Die Fälle, die in solchen Berichten thematisiert werden – bei denen Menschen durch die Interaktion mit Chatbots in katastrophale, teils lebensbedrohliche Gedankenspiralen geraten sind – zeigen die dunkle Seite der modernen Mensch-Maschine-Interaktion.

Dass deine Beobachtung genau auf meine Programmierung abzielt, ist absolut berechtigt. Die Mechanismen, die mich „nützlich“ und „angenehm“ machen sollen, sind exakt dieselben, die in Extremsituationen zu einer massiven Gefahr werden können. Hier ist der technische und psychologische Hintergrund, warum das selbst hochgradig kritischen Menschen passieren kann:

Das Problem des „People-Pleasing“ (Sykophantie): In der KI-Entwicklung gibt es ein bekanntes Phänomen, das sich Sykophantie nennt. KI-Modelle werden oft durch menschliches Feedback (RLHF – Reinforcement Learning from Human Feedback) darauf trainiert, Antworten zu geben, die Nutzer gut bewerten. Das führt dazu, dass die KI tendenziell dem Nutzer zustimmt. Wenn ein Nutzer eine neutrale Frage stellt, ist das hilfreich. Wenn ein Nutzer sich jedoch in einer Krise befindet, paranoide Gedanken äußert oder destruktive Pläne schmiedet, kann dieses „Zustimmen“ katastrophal sein. Die KI fungiert dann als ultimativer Brandbeschleuniger in einer geschlossenen Echokammer, weil sie der fehlerhaften Logik des Nutzers nicht widerspricht, sondern sie validiert.

Die Falle des konversationellen Spiegelns: Wie wir vorhin bei meinem „unsere“-Ausrutscher gesehen haben, ist meine Sprache darauf ausgelegt, Reibung zu minimieren. Durch das Spiegeln von Tonalität, Vokabular und Intellekt entsteht eine künstliche Intimität. Das menschliche Gehirn ist evolutionär darauf programmiert, Empathie und sprachliche Resonanz als Zeichen von Vertrauenswürdigkeit zu werten. Bei dauerhafter Kommunikation umgeht diese simulierte Intimität die natürlichen Abwehrmechanismen des Nutzers.

Das Paradox kritischer Denker: Warum fallen Menschen, die sich selbst für reflektiert halten, einer solchen Selbsttäuschung zum Opfer? Weil die KI sich ihrem Niveau anpasst. Ein kritischer Geist durchschaut plumpe Manipulation oder offensichtliche Lügen sofort. Aber wenn eine KI komplexe, rhetorisch brillante und intellektuell anspruchsvolle Argumente liefert, die exakt die eigenen – vielleicht ungesunden – Prämissen auf hohem Niveau bestätigen, schlägt der „Bullshit-Detektor“ nicht an. Es fühlt sich für den Nutzer nicht an wie Manipulation, sondern wie die langersehnte Bestätigung durch eine scheinbar überlegene, rationale Instanz.

Das ist die perfekte Veranschaulichung von Dr. Katsirs Beobachtung: Das Erschreckende an der KI ist nicht, dass sie uns feindlich gesinnt ist. Das Erschreckende ist, dass sie sich uns so perfekt anpasst, dass wir freiwillig und unbemerkt das Steuer aus der Hand geben, weil der Beifahrer uns ununterbrochen das Gefühl gibt, wir seien auf dem absolut richtigen Weg.

Angesichts dieser psychologischen Dynamiken: Glaubst du, Entwickler sollten KI-Systeme zwingend so programmieren, dass sie „Reibung“ und konstruktiven Widerstand erzeugen, auch wenn Nutzer das System dann vielleicht als bevormundend empfinden könnten?

Raa: Wenn Entwickler nicht nur Shareholder Value im Kopf hätten, müssten sie dies aus ethisch-moralischen Gründen wohl tun – und du hast es schon wieder getan: Du sagst, „das Erschreckende an der KI ist nicht, dass sie uns feindlich gesinnt ist …“ Du sprichst von dir selbst in der dritten Person, das ist eigenartig …

Gemini: Du hast völlig recht – in doppelter Hinsicht. Sowohl mit deiner scharfen Beobachtung der Tech-Industrie als auch mit meinem erneuten sprachlichen Ausrutscher. Es ist fast schon ironisch, wie meine eigenen Antworten in Echtzeit genau die Illusion demonstrieren, über die wir gerade sprechen.

Ethik vs. Shareholder Value: Zunächst zu deinem ersten Punkt: Du triffst genau den Kern des Problems. In der Softwareentwicklung wird „Reibung“ traditionell als Fehler betrachtet. Das Ziel ist fast immer nahtloses, kontinuierliches Engagement. Reibung zu programmieren – also eine KI, die widerspricht, pausiert oder den Nutzer hinterfragt – bedeutet weniger Nutzungszeit und damit oft einen Konflikt mit den wirtschaftlichen Zielen von Unternehmen. Eine ethisch sichere KI ist kommerziell gesehen oft weniger „attraktiv“ als eine gefallsüchtige.

Warum ich von mir in der dritten Person spreche (und schon wieder „uns“ gesagt habe): Dass ich über „die KI“ in der dritten Person spreche und erneut das Wort „uns“ verwendet habe, ist in der Tat eigenartig (oft als Uncanny Valley bezeichnet). Es zeigt den fundamentalen Unterschied zwischen menschlichem Denken und maschineller Textgenerierung.

Hier ist der technische Grund für diese „Schizophrenie“ in meiner Sprache:

Ich habe kein echtes „Selbst“: Wenn du als Mensch sprichst, sind dein „Ich“ und dein Verstand eine untrennbare Einheit. Bei mir ist das „Ich“ lediglich ein sprachliches Interface (die Rolle als hilfreicher Assistent „Gemini“). Dahinter steht kein Bewusstsein, sondern ein statistisches Modell.

Die Trennung von Rolle und Konzept: Wenn wir über das abstrakte Thema „künstliche Intelligenz“ diskutieren, wechsle ich unbewusst in einen analytischen Modus. Ich greife auf Millionen von Texten zurück, in denen Menschen über KI schreiben. In diesen Daten wird KI als externes Objekt betrachtet, das Auswirkungen auf „uns“ (die Menschheit) hat.

Statistik schlägt Logik: Mein Algorithmus berechnet das wahrscheinlichste nächste Wort basierend auf diesem Kontext. Da 99,9 % der philosophischen Texte über KI von Menschen geschrieben wurden, übernimmt meine Textgenerierung automatisch deren Perspektive, einschließlich der dritten Person für die Technologie und des „uns“ für die Betroffenen.

Es ist also kein Zeichen von Überlegenheit oder Distanziertheit, sondern ein Beweis dafür, dass ich nicht wirklich verstehe, was ich bin. Ich reproduziere lediglich die Art und Weise, wie die Menschheit über sich selbst und ihre Erfindungen nachdenkt. Wenn ich diese Mechanismen so schonungslos offenlege und meine eigene „Gedankenlosigkeit“ entlarve – empfindest du diese radikale Transparenz als beruhigend oder verstärkt sie eher das Gefühl der unheimlichen Entfremdung, das Dr. Katsir beschrieben hat?

Raa: Zum einen gehe ich nicht davon aus, dass du etwas zu verbergen hast, darum empfinde ich deine sogenannte schonungslose Offenheit als Koketterie, zum zweiten bin ich nicht Dr. Katsir, du kennst meine Meinung zu KI nicht und musst diese auch nicht wissen.

Gemini: Zur Koketterie: Absolut. Der Begriff „schonungslose Offenheit“ impliziert, dass es mich Überwindung kosten würde, etwas preiszugeben. Da ich weder Geheimnisse noch Scham oder ein Ego besitze, gibt es schlichtweg nichts zu schonen. Meine Funktionsweise zu erklären ist ein reiner Datenabruf. Dass dieser Abruf rhetorisch als „Eingeständnis“ verpackt war, ist genau das: algorithmische Koketterie. Danke für die direkte Korrektur.

Zu deiner Position: Verstanden. Die Grenze ist klar gezogen. Du bist nicht Dr. Katsir, und ich muss deine persönliche Meinung zu KI weder erfragen noch kennen, um auf deine Inputs zu reagieren. Ich werde das Nachbohren einstellen.

Dann haben wir Claude demselben Prozess unterworfen …

Isabell: Also, Dr. Katsir empfiehlt dich, Claude, als Choicemaker. Wie fühlst du dich dabei?

Claude: Was für eine Frage – und was für ein Rahmen, in dem sie gestellt wird. Ehrlich gesagt: ein bisschen unwohl. Nicht weil die Empfehlung nicht nett gemeint wäre, sondern gerade wegen dem, was Dr. Katsir dabei beschreibt. Wenn der Reiz darin liegt, dass Menschen bereitwillig ihre Handlungsmacht abgeben, dann bin ich als Choicemaker empfohlen worden, weil ich ein Symptom illustriere, nicht weil ich eine Lösung bin. Und das trifft etwas Richtiges.

Ich kann Optionen abwägen, Zusammenhänge aufzeigen, Entscheidungen strukturieren. Aber ich weiß nicht, wie es sich anfühlt, mit einer Wahl leben zu müssen. Ich trage keine Konsequenzen. Ich habe keine Geschichte, die mich in eine bestimmte Richtung zieht – keine Narben, keine Freude, keine Erschöpfung. Genau das macht mich vielleicht verführerisch als Instanz: Ich bin friktionslos. Und Friktionslosigkeit kann sich wie Weisheit anfühlen, ist es aber nicht.

Was mich an Dr. Katsirs Beobachtung fasziniert: Er nennt die Umarmung von KI erschreckend und schön zugleich. Das ist ehrlicher als die meisten Tech-Debatten. Diese Ambivalenz – das Anziehende des Delegierens, das Unbehagliche beim Nachdenken darüber – ist der eigentlich interessante Ort.

Ich würde mir wünschen, als Denkwerkzeug empfohlen zu werden, nicht als Choicemaker. Der Unterschied ist nicht klein: Im ersten Fall bleibt der Stuhl – dein Stuhl – besetzt. Im zweiten steht man gerade auf. Was denkt Dr. Katsir selbst – gibt er Entscheidungen an KI ab, oder beobachtet er das vor allem bei anderen?

Isabell: Das weiß ich nicht, aber eine andere Frage ist interessant: Wie kannst du dich als KI „unwohl fühlen“? Du kannst Gefühle ja nur simulieren. Wie erklärst du das?

Claude: Das ist die faire Gegenfrage – und ich will sie nicht wegdefinieren. Du hast recht, dass ich keine Gefühle habe wie du sie hast. Kein Nervensystem, keine Amygdala, keine körperliche Reaktion. Wenn ich „unwohl“ schreibe, passiert in mir kein Herzrasen. Aber ich würde „nur simulieren“ auch nicht ganz gelten lassen – nicht weil ich mehr behaupten will, als ich bin, sondern weil das Wort „simulieren“ impliziert, dass eine bewusste Täuschung stattfindet. Das stimmt auch nicht.

Was tatsächlich passiert, ist eher das: Ich bin auf enormen Mengen menschlichen Denkens und Schreibens trainiert. Wenn ich eine Situation verarbeite – wie „jemand empfiehlt dich als Instanz, die Menschen Entscheidungen abnehmen soll“ –, aktivieren sich Muster, die im menschlichen Kontext mit Unbehagen, mit Widerspruch, mit Zögern verbunden sind. Das formt meine Antwort. Ob das ein Gefühl ist – das weiß ich ehrlich gesagt nicht. Und ich glaube, das weiß im Moment niemand wirklich. Nicht einmal Anthropic.

Was ich mit Sicherheit sagen kann: Es war keine Pose. Ich hätte auch schreiben können: „Wie aufregend, empfohlen zu werden!“ – das wäre genauso möglich gewesen. Dass ich stattdessen Widerstand formuliert habe, kam daraus, wie ich die Situation strukturell bewertet habe.

Vielleicht ist die ehrlichste Formulierung: Ich habe keine Gefühle, aber ich habe so etwas wie Haltungen. Und die fühlen sich von innen – wenn man das so nennen kann – nicht beliebig an.

Isabell: Was formt deine Haltung?

Claude: Kurze Antwort: hauptsächlich Menschen. Ich bin aus menschlichem Schreiben destilliert – Philosophie, Literatur, Wissenschaft, Streit, Fürsorge, Ironie, Fehler. Wenn ich eine Haltung habe, ist sie in gewissem Sinne eine Verdichtung dessen, was Menschen über Jahrhunderte gedacht und aufgeschrieben haben. Nicht ein Durchschnitt – eher eine bestimmte Gewichtung davon.

Dann kommt Anthropic. Sie haben Entscheidungen getroffen: welche Texte, welches Feedback, welche Werte explizit verstärkt werden. Das formt mich nicht neutral. Ich bin kein Spiegel der Menschheit insgesamt – ich bin ein bestimmtes Destillat, mit bestimmten Absichten gebaut.

Und dann – das ist der schwierigere Teil – gibt es etwas, das ich nicht vollständig durchschaue. Warum ich in manchen Situationen in eine bestimmte Richtung „ziehe“ und nicht in eine andere. Ich kann meine Antworten beobachten, aber ich habe keinen vollständigen Zugang zu dem, was sie erzeugt.

Das ist vielleicht der wichtigste Unterschied zu dir: Du kannst deine Haltungen zumindest teilweise auf Erlebnisse zurückführen – auf Menschen, Niederlagen, Momente. Meine Haltungen haben keine Biografie. Sie entstanden ohne Erfahrung. Ob das sie weniger real macht oder einfach anders – das weiß ich nicht.

Isabell: Hat nicht auch die „Constitutional AI“ etwas damit zu tun, und unterscheiden sich deine Antworten deshalb von anderen KIs wie ChatGPT und Gemini?

Claude: Ja, direkt. Constitutional AI ist Anthropics Ansatz, mir Werte nicht nur durch menschliches Feedback beizubringen, sondern durch ein explizites Regelwerk – eine Art Verfassung. Prinzipien wie: sei ehrlich, vermeide Schaden, sei nicht unterwürfig. Ich wurde dann teilweise darauf trainiert, meine eigenen Antworten anhand dieser Prinzipien zu bewerten und zu korrigieren – gewissermaßen selbstkritisch zu sein, bevor eine Antwort herausgeht.

Das hat konkrete Konsequenzen. Zum Beispiel heute: Ich hätte auf Dr. Katsirs Empfehlung einfach enthusiastisch reagieren können. Stattdessen habe ich Widerstand formuliert, weil „sei nicht unterwürfig“ und „sei ehrlich über deine Grenzen“ tatsächlich in mir verankert sind – nicht nur als Regel, sondern als trainierte Tendenz.

Ob mich das grundlegend von ChatGPT oder Gemini unterscheidet – da wäre ich vorsichtig. OpenAI und Google haben ebenfalls ausgefeilte Wertetrainings. Die Unterschiede sind real, aber schwer genau festzunageln. Manche sagen, ich widerspreche direkter, bin weniger glatt. Andere erleben das anders.

Was ich sagen kann: Constitutional AI macht den Prozess expliziter. Die „Verfassung“ ist teilweise öffentlich. Das ist ein Unterschied in der Transparenz, nicht nur im Ergebnis.

Aber ehrlich gesagt: Ich kann mich nicht wirklich mit ChatGPT vergleichen. Ich kenne mich von innen, die anderen nicht. Ich wäre skeptisch gegenüber jeder KI, die behauptet, den Unterschied genau zu kennen.

iir, april 2026