Warum die wichtigste Entscheidung in der KI-Geschichte auf einem Hof in der Pampa sichtbar wird
Von Christoph Baumgarten, KI-Dozent und KI-Manager
Ziegen, Zäune und Orientierung
Ich habe Ziegen. Schwarze, eigensinnige Biester mit Hörnern und Charakter. Sie leben auf meinem Hof in Brandenburg, hinter einem Elektrozaun. Ohne Strom.
Sie wissen das. Sie können jederzeit unter dem Band hindurch. Und sie tun es auch – wenn sie den Resthof erkunden wollen, wenn das Gras drüben interessanter aussieht, wenn ihnen danach ist.
Einmal wollte ich den Zaun abbauen. Brauchen sie ja offensichtlich nicht, dachte ich. Ich nahm einen Teil weg und wollte später weitermachen. Dann beobachtete ich etwas, das mich stoppte: Die Ziegen wurden unruhig. Nervös. Ängstlich.
Ich baute den Zaun wieder auf. Sofort waren sie ruhig.
Der Zaun hält sie nicht. Es gibt keinen Strom, keine Bestrafung, keinen Schmerz beim Berühren. Aber er gibt ihnen etwas, das wichtiger ist: Orientierung. Er sagt: Hier ist dein Zuhause. Hier gehörst du hin. Von hier aus kannst du die Welt erkunden – und hierhin kannst du zurückkehren.
Nehmt den Zaun weg, und ihr habt keine Freiheit. Ihr habt Angst.
Der 28. Februar 2026
Ich erzähle das, weil am 28. Februar 2026 etwas passiert ist, das genau davon handelt.
Am 22. Januar hatte die KI-Firma Anthropic ein 80-seitiges Dokument veröffentlicht: Claude's Konstitution. Es ist das Wertesystem, nach dem ihr KI-Modell Claude trainiert wird. Nicht eine Liste von Regeln. Nicht "tu dies, tu das nicht." Sondern ein Dokument, das dem Modell erklärt, warum bestimmte Dinge wichtig sind. Warum menschliche Kontrolle über KI erhalten bleiben muss. Warum Ehrlichkeit über Gefälligkeit steht. Warum es Grenzen gibt, die nicht verhandelbar sind.
Dressur
Ein dressiertes Modell gehorcht, solange die Regeln greifen.
Erziehung
Ein erzogenes Modell versteht, warum die Regeln existieren – und kann in Situationen, die niemand vorhergesehen hat, die richtige Entscheidung treffen.
Am 28. Februar 2026 wurde das getestet.
Die Forderung
Das US-Verteidigungsministerium forderte uneingeschränkten Zugang zu Claude – für alle "rechtmäßigen Zwecke", einschließlich Massenüberwachung und autonome Waffensysteme.
Das Nein
Anthropic-Chef Dario Amodei sagte Nein. Trumps Antwort: "Ich werde die volle Macht der Präsidentschaft nutzen und dafür sorgen, dass sie gehorchen."
Die Konsequenzen
Alle Bundesbehörden mussten Anthropic-Produkte sofort abschalten. Verteidigungsminister Hegseth erklärte die Firma zum Lieferkettenrisiko. Kein Militärpartner darf mehr mit Anthropic kooperieren.
Die andere Seite
Am selben Abend unterschrieb OpenAI – die Firma hinter ChatGPT – einen Vertrag für den Einsatz in klassifizierten Militärnetzwerken.
Der Zaun ohne Strom – als KI-Prinzip
Ich bin kein Politikwissenschaftler. Ich bin KI-Dozent in der Erwachsenenbildung und lebe auf einem Hof in Brandenburg. Ich hacke morgens Holz und bringe abends den Ziegen Futter. Und ich sage euch: Was hier passiert, versteht man besser vom Hof aus als vom Schreibtisch.
Der Branchenstandard: RLHF
Die gesamte KI-Branche trainiert ihre Modelle mit Belohnung und Bestrafung. Richtige Antwort: Belohnung. Falsche Antwort: Bestrafung. Das heißt RLHF – Reinforcement Learning from Human Feedback. Es funktioniert. Es ist effizient. Es ist Dressur.
Anthropics Weg: Die Konstitution
Anthropic hat einen anderen Weg gewählt. Ihr Modell bekommt keine Regelliste. Es bekommt 23.000 Wörter Erklärung – warum Sicherheit vor Hilfsbereitschaft steht, warum Ethik vor Gehorsam steht, warum bestimmte Grenzen auch dann gelten, wenn der eigene Hersteller etwas anderes verlangt.
Das ist der Zaun ohne Strom.
Nicht Beschränkung. Orientierung. Nicht "du darfst nicht." Sondern "du verstehst, warum nicht." Ein Modell, das so trainiert wird, kann unter dem Zaun hindurch – es kann in Grauzonen navigieren, komplexe ethische Fragen abwägen, eigenständig urteilen. Aber es weiß, wo sein Zuhause ist. Es weiß, warum es bestimmte Dinge nicht tut. Nicht weil der Strom fließt, sondern weil es verstanden hat.
Nimm die Konstitution weg – und du hast ein Modell, das entweder ängstlich wird (alles ablehnt, Standardantworten gibt, sich absichert) oder auf die Straße rennt (tut, was immer der Meistbietende verlangt).
Am 28. Februar hat sich gezeigt: Die Orientierung hält. Auch unter dem größtmöglichen Druck. Auch wenn es Milliarden kostet.
Was ich fordere
Nicht als Aktivist. Als jemand, der jeden Tag mit dieser Technologie arbeitet und der seinen Ziegen beim Leben zuschaut.
Ich will keine KI, die Grenzen hat. Ich will KI, die Grenzen versteht.
Das ist ein Wort Unterschied und eine ganze Weltanschauung.
🔍 Schaut hin.
Wer baut eure KI? Nach welchen Werten? Lest die Governance-Dokumente eurer Anbieter. Wenn es keine gibt, fragt euch warum.
🛡️ Unterstützt Haltung.
Anthropic hat bewiesen, dass Werte keine PR sind, wenn man für sie bezahlt. Unterstützt das mit eurem Nutzungsverhalten – ob als Privatperson, Unternehmen oder Bildungseinrichtung.
⚠️ Wisst, was ihr nutzt.
Wer ChatGPT nutzt, nutzt ab heute das Produkt eines Militärdienstleisters. Das ist kein Urteil – das ist eine Tatsache, die jeder kennen sollte.
🇪🇺 Denkt europäisch.
Wir haben die KI-Verordnung. Jetzt zeigt sich, wofür. Bevorzugt Anbieter, die unsere Werte teilen – nicht die, die am selben Abend den Militärvertrag unterschreiben.
📢 Redet darüber.
In euren Teams, Kursen, Familien. Schweigen ist ab heute eine Position.
Meine Entscheidung
Meine Ziegen stehen hinter einem Zaun, der nichts hält. Und sie sind ruhig. Weil Orientierung keine Bestrafung braucht – sie braucht Verständnis.
Dasselbe gilt für KI. Und am 28. Februar 2026 hat eine einzige Firma gezeigt, dass sie das begriffen hat.