Direkt zum Hauptbereich

Über die Notwendigkeit einer Digitalen Gerichtsbarkeit und das Ende der Zwei-Klassen-Justiz

Ein Essay

I. Die Lüge des gleichen Rechts

Es gibt eine Lüge, die so alt ist wie der moderne Rechtsstaat, und die so tief in sein Fundament eingelassen ist, dass man sie für einen tragenden Pfeiler halten könnte: die Lüge, dass vor dem Gesetz alle gleich seien. Nicht im normativen Sinne – dort stimmt der Satz. Art. 3 Abs. 1 GG meint, was er sagt. Aber zwischen der Norm und ihrer Verwirklichung klafft ein Abgrund, und in diesem Abgrund verschwinden täglich die Rechte derer, die sich keinen Anwalt leisten können, die vor dem Kostenrisiko eines Verfahrens zurückschrecken, die an der Schnittstelle von verschiedenen Gerichtsszweigen zerrieben werden, die nach drei Jahren Verfahrensdauer nicht mehr wissen, worum es eigentlich ging.

Die empirische Wirklichkeit der deutschen Justiz im Jahre 2025 ist diese: Wer vermögend ist, klagt. Wer arm ist, bittet um Erlaubnis zu klagen – und erhält sie nach Gutdünken eines Richters, der über diese Erlaubnis in einem Verfahren entscheidet, das keine mündliche Verhandlung kennt, keine vollständige Beweisaufnahme, kein ordentliches Rechtsmittel, und dessen einziges Kriterium – die „hinreichende Aussicht auf Erfolg" nach § 114 Abs. 1 Satz 1 ZPO – eine Formel ist, die so elastisch ist, dass sie jedes Ergebnis trägt. Wer zur Mittelschicht gehört, also zu vermögend für die Prozesskostenhilfe und zu vernünftig für das Kostenrisiko, klagt gar nicht. Er schluckt das Unrecht und nennt es Pragmatismus.

Das ist der Zustand. Er ist kein Betriebsunfall, sondern ein Systemfehler. Und er wird nicht durch mehr Richterstellen behoben, nicht durch Digitalisierung der Aktenführung, nicht durch wohlmeinende Appelle an die Verfahrensbeschleunigung. Er wird behoben durch einen Paradigmenwechsel: durch die Errichtung einer Digitalen Gerichtsbarkeit, die jedem Bürger, unabhängig von seinem Vermögen, seinem juristischen Vorwissen und seiner institutionellen Macht, einen kostenfreien, schnellen und objektiven Rechtsweg eröffnet – geführt und entschieden von Künstlicher Intelligenz.

II. Die Prozesskostenhilfe, oder: Wie man Rechtsschutz gewährt, indem man ihn verweigert

Bevor der Blick nach vorne gerichtet wird, muss er zurück gerichtet werden – auf das Institut, das durch die Digitale Gerichtsbarkeit obsolet würde und dessen Obsoleszenz allein schon Grund genug wäre, sie zu errichten: die Prozesskostenhilfe.

§ 114 Abs. 1 Satz 1 ZPO lautet in seinem zweiten Teil: „…wenn die beabsichtigte Rechtsverfolgung oder Rechtsverteidigung hinreichende Aussicht auf Erfolg bietet und nicht mutwillig erscheint." Dieser Halbsatz ist, bei Lichte besehen, ein Skandal des Rechtsstaats. Er ermächtigt den Richter, der für die Hauptsache zuständig ist, diese Hauptsache in einem vorgelagerten, summarischen Verfahren zu entscheiden – ohne die Verfahrensgarantien der Hauptsache, ohne mündliche Verhandlung, ohne vollständige Beweisaufnahme, ohne echtes Rechtsmittel. Der Richter, der die PKH ablehnt, entscheidet den Fall. Er entscheidet ihn nur nicht offen, sondern durch die Hintertür einer Zulässigkeitsprüfung, die in Wahrheit eine antizipierte Begründetheitsprüfung ist.

Schlimmer noch: Derselbe Richter, der über die PKH entscheidet, ist in der Regel auch für die Hauptsache zuständig. Wenn er die PKH ablehnt, erspart er sich die Arbeit des Hauptsacheverfahrens. Man muss kein Zyniker sein, um in dieser Konstellation eine Interessenkollision zu erkennen. Man muss nur Realist sein. Der Richter ist Herr über seinen eigenen Geschäftsanfall. Das ist nicht seine Schuld – es ist die Schuld eines Systems, das ihm diese Doppelrolle zumutet. Aber es ist ein Zustand, der nicht hingenommen werden darf.

Die Rechtsprechung des Bundesverfassungsgerichts hat versucht, die Willkür einzudämmen. Hinreichende Erfolgsaussicht, so das BVerfG, sei weniger als überwiegende Erfolgsaussicht; es genüge, dass der Erfolg möglich sei, auch wenn er nicht wahrscheinlich sei. Schwierige Rechtsfragen dürften nicht im PKH-Verfahren entschieden werden. Das sind schöne Sätze. Sie haben die Praxis nicht verändert. Der Instanzrichter, der sich einer unliebsamen Klage entledigen will, schreibt: „Die Klage bietet nach summarischer Prüfung keine hinreichende Aussicht auf Erfolg, weil…" – und dann folgt eine Begründung, die, wäre sie ein Urteil, in der Berufung keinen Bestand hätte, die aber als PKH-Beschluss praktisch unangreifbar ist, weil die Beschwerde nach § 127 Abs. 2 ZPO in aller Regel ebenso summarisch behandelt wird wie der Ausgangsbeschluss.

Die Prozesskostenhilfe war als Instrument der Gleichheit gedacht. Sie ist zum Instrument der Selektion geworden. Sie teilt die Rechtsuchenden in drei Klassen: die Vermögenden, die klagen können, was sie wollen; die Armen, die das Gnadensystem der richterlichen Vorprüfung durchlaufen müssen; und die Mitte, die in einem Korridor der faktischen Rechtsschutzverweigerung gefangen ist – zu vermögend für PKH, zu risikoavers für die Eigenfinanzierung.

Die Digitale Gerichtsbarkeit macht die Prozesskostenhilfe überflüssig. Wo keine Gerichtskosten anfallen, braucht es keine Hilfe bei deren Bezahlung. Wo kein Anwaltszwang besteht und eine KI-gestützte Eingabehilfe den Bürger kostenfrei bei der Formulierung seiner Klage unterstützt, braucht es keine staatliche Anwaltsfinanzierung. Und wo jeder Fall – jeder Fall, ohne Ausnahme, ohne Vorprüfung, ohne Erfolgsprognose – vollständig verhandelt und entschieden wird, gibt es keinen Raum für die richterliche Selektion, die das PKH-System de facto zu einem System der Rechtsverweigerung gemacht hat.

Das ist nicht nur eine Vereinfachung. Es ist eine Befreiung.

III. Der Fall – oder: Warum die Aufspaltung in Gerichtszweige eine Zumutung ist

Um das Problem zu verstehen, das die Digitale Gerichtsbarkeit löst, genügt ein einziger Fall. Er ist weder besonders spektakulär noch besonders ungewöhnlich – er ist alltäglich, und gerade darin liegt sein Wert als Illustration.

Ein Bürger stellt bei einer Behörde einen Antrag nach Art. 15 Abs. 1 und 3 DSGVO: Er will wissen, welche personenbezogenen Daten über ihn gespeichert sind, und er will eine Kopie dieser Daten. Die Behörde antwortet nicht, oder sie antwortet unvollständig, oder sie antwortet nach acht Monaten mit dem lapidaren Hinweis, die Daten seien „nicht auffindbar".

Der Bürger hat nun zwei Ansprüche: einen auf Herausgabe der Datenkopien und einen auf Schadensersatz nach Art. 82 Abs. 1 DSGVO. Und er hat ein Problem: Diese beiden Ansprüche gehören nach verbreiteter Auffassung vor verschiedene Gerichte – die Verpflichtungsklage auf Herausgabe vor das Verwaltungsgericht (§ 40 VwGO), der Schadensersatzanspruch vor das Amtsgericht oder Landgericht (§ 13 GVG). Schon die Rechtswegzuordnung des Schadensersatzanspruchs gegen eine öffentliche Stelle ist umstritten und kann ihrerseits zum Gegenstand eines Zuständigkeitsstreits werden, der den eigentlichen Rechtsstreit um Monate verzögert, bevor auch nur eine inhaltliche Prüfung stattfindet. Zwei Gerichte, zwei Verfahren, zwei Aktenzeichen, zwei Schriftsatzfristen, zwei Richter – die denselben Sachverhalt prüfen, zum Teil dieselben Normen anwenden und möglicherweise zu unterschiedlichen Ergebnissen kommen.

Das Verwaltungsgericht stellt vielleicht fest, dass die Behörde Art. 15 DSGVO verletzt hat; das Amtsgericht verneint vielleicht den Schadensersatzanspruch, weil es den für Art. 82 Abs. 1 DSGVO erforderlichen immateriellen Schaden anders bewertet oder den Kausalzusammenhang zwischen Verstoß und Schaden abweichend beurteilt. Oder umgekehrt. Oder beide Verfahren dauern drei Jahre, und am Ende hat der Bürger zwei Entscheidungen, die sich nicht zusammenfügen lassen, und immer noch keine Kopie seiner Daten.

Dieses Problem ist kein Zufall. Es ist die unvermeidliche Folge einer institutionellen Architektur, die im 19. Jahrhundert für eine Welt konzipiert wurde, in der das Verwaltungsrecht und das Zivilrecht sauber getrennte Sphären waren. In der Welt des 21. Jahrhunderts, in der das Datenschutzrecht, das Wettbewerbsrecht, das Vergaberecht und dutzende andere Rechtsgebiete quer zu den klassischen Gerichtszweigen liegen, ist diese Architektur ein Anachronismus. Sie produziert Reibungsverluste, Widersprüche und Kosten, ohne irgendeinen Gewinn an Rechtsschutzqualität.

Die Digitale Gerichtsbarkeit kennt keine Gerichtszweige. Sie kennt nur Recht. Der Bürger erhebt eine Klage – eine einzige Klage –, in der er sowohl die Herausgabe seiner Daten als auch den Schadensersatz geltend macht. Die KI prüft beide Ansprüche in einem Verfahren, unter einheitlicher Sachverhaltsfeststellung, und erlässt einen Entscheid. Kein Zuständigkeitsstreit, kein Verweisungsbeschluss, keine widersprüchlichen Feststellungen, keine doppelten Kosten.

Diese Verfahrenskonzentration ist keine bloße Effizienzsteigerung. Sie ist eine Verwirklichung des Rechtsschutzauftrags, die das humane System strukturell nicht leisten kann. Denn die Aufspaltung in Gerichtszweige ist nicht nur ein organisatorisches Problem – sie ist ein Machtinstrument. Wer die Zuständigkeit streitig machen kann, gewinnt Zeit. Wer den Gegner zwingt, vor zwei Gerichten zu klagen, verdoppelt seine Kosten. Wer auf die „falsche Zuständigkeit" verweist, obstruiert. Die Behörde, die sich vor dem Verwaltungsgericht auf die zivilrechtliche Natur des Schadensersatzanspruchs beruft und vor dem Amtsgericht auf die öffentlich-rechtliche Natur des Herausgabeanspruchs, betreibt ein Spiel, das im humanen System funktioniert – vor der Digitalen Gerichtsbarkeit nicht. Vor der Digitalen Gerichtsbarkeit gibt es nur eine Frage: Hat der Bürger Recht?

IV. Das Forumproblem, oder: Warum der Beklagte kein Widerspruchsrecht braucht

Jede Reform, die dem Kläger einen neuen Rechtsweg eröffnet, wirft die Frage auf: Was ist mit dem Beklagten? Hat er nicht ein Recht, das Forum mitzubestimmen? Darf der Kläger ihn vor ein KI-Gericht „zwingen"?

Die Antwort ist: Der Beklagte wurde noch nie gefragt. Er hatte noch nie ein Recht auf Forumswahl. Er wird vor das Amtsgericht „gezwungen", wenn der Kläger dort klagt. Er wird vor das Verwaltungsgericht „gezwungen", wenn der Verwaltungsakt dort angefochten wird. Er wird in das Mahnverfahren „gezwungen", wenn der Kläger einen Mahnbescheid beantragt. Die Wahl des Forums ist seit jeher Sache des Klägers, begrenzt nur durch die gesetzlichen Zuständigkeitsregeln.

Das ist nicht nur prozessuale Tradition – es hat einen guten Grund. Der Kläger ist derjenige, der einen Anspruch geltend macht, der sein Recht sucht, der die Initiative ergreift. Ihm die Wahl des Verfahrenswegs zu überlassen, ist Ausdruck des Dispositionsgrundsatzes. Dem Beklagten hingegen wird nicht das Recht genommen, sich zu verteidigen – es wird ihm nur ein anderes Forum für die Verteidigung zugewiesen.

Aber – und hier liegt die entscheidende Pointe – der Schutz des Beklagten muss an einer anderen Stelle greifen: nicht beim Eingang, sondern beim Ausgang. Nicht darin, ob die KI entscheidet, sondern darin, ob die KI-Entscheidung das letzte Wort hat.

Und genau hier liegt die verfassungsrechtliche Garantie: Jede Partei – Kläger wie Beklagter – hat das Recht, die KI-Entscheidung durch einen menschlichen Richter überprüfen zu lassen. Der Beklagte, der mit dem KI-Entscheid nicht einverstanden ist, legt Einspruch oder Überprüfungsantrag ein und erhält einen menschlichen Richter. Sein gesetzlicher Richter wird ihm nicht entzogen – er wird ihm allenfalls zeitlich nachgelagert.

Diese Konstruktion hat einen doppelten Vorzug: Sie sichert den Rechtsschutz des Beklagten ohne den Kläger zu behindern. Denn ein Widerspruchsrecht des Beklagten gegen das KI-Forum wäre in der Praxis nichts anderes als ein Vetorecht der stärkeren Partei. Die Behörde, die vor dem KI-Gericht ihre Akten vorlegen müsste, hat ein offensichtliches Interesse daran, das Verfahren in die humane Gerichtsbarkeit zu verlagern, wo sie auf richterliche Nachsicht, schleppende Verfahrensdauer und die Ermüdung des Klägers setzen kann. Das Unternehmen, das den Verbraucher durch Kostenrisiko und Prozessdauer abschrecken will, hat ein offensichtliches Interesse daran, das KI-Forum zu verhindern, in dem die Klage kostenfrei und der Entscheid in Wochen statt Jahren ergeht.

Ein Widerspruchsrecht des Beklagten wäre daher kein Instrument des Rechtsschutzes, sondern ein Instrument der Machterhaltung. Es würde die bestehende Asymmetrie zementieren, statt sie aufzulösen. Es würde dem Bürger, der sich gegen eine datenschutzrechtlich delinquente Behörde wehrt, den schnellsten und effektivsten Rechtsweg versperren – auf Antrag eben dieser Behörde. Das wäre nicht Rechtsschutz. Das wäre Hohn.

V. Die Behörde vor dem KI-Richter – oder: Das Ende der institutionellen Bequemlichkeit

Die vielleicht tiefgreifendste Veränderung, die eine Digitale Gerichtsbarkeit bewirken würde, betrifft nicht den Bürger, sondern den Staat. Denn die Behörde – jede Behörde: das Finanzamt, die Ausländerbehörde, das Jobcenter, die Datenschutzbehörde, die Kommune – hätte erstmals einen Gegner, der nicht müde wird, nicht nachgibt und nicht vergisst.

Im humanen System hat die Behörde systemische Vorteile, die nichts mit der Güte ihrer Rechtsposition zu tun haben:

Die Behörde hat Zeit. Sie wird von der Verfahrensdauer nicht geschädigt; der Bürger schon. Jeder Monat, den das Verfahren dauert, ist ein Monat, in dem die Behörde den rechtswidrigen Zustand aufrechterhält – und ein Monat, in dem der Bürger sein Recht nicht durchsetzen kann.

Die Behörde hat Ressourcen. Sie wird von Juristen oder Verwaltungsmitarbeitern vertreten, die auf Staatskosten arbeiten. Der Bürger muss seinen Anwalt selbst bezahlen – oder durch das Nadelöhr der PKH.

Die Behörde kennt den Richter. Nicht immer persönlich, aber institutionell. Der Verwaltungsrichter, der täglich Behördenakten liest, mit den gleichen Behördenvertretern verhandelt, entwickelt unweigerlich ein gewisses Verständnis für die „Sachzwänge" der Verwaltung. Er weiß, dass der Sachbearbeiter überlastet ist. Er weiß, dass die Behörde „es nicht böse meint". Er lebt in der Welt der Verwaltung – und urteilt in ihr. Das ist keine Korruption. Es ist eine kognitive Verzerrung, die aus Vertrautheit entsteht und die das Gesetz nicht verhindern kann, weil sie unterhalb der Bewusstseinsschwelle operiert.

Die Behörde kontrolliert die Akten. Im verwaltungsgerichtlichen Verfahren ist die Behörde nach § 99 VwGO zur Vorlage der Verwaltungsakten verpflichtet. In der Praxis kommt sie dieser Pflicht häufig schleppend, unvollständig oder gar nicht nach. Der Richter, der die Aktenanforderung wiederholen müsste, zögert – weil er die Behörde nicht „verärgern" will, weil er die Verzögerung scheut, weil er weiß, dass ein Ordnungsgeld gegen die Behörde in der Praxis nie verhängt wird.

All diese Vorteile verschwinden vor dem KI-Richter.

Unmanipulierte Algorithmen vorausgesetzt: Die KI hat keine Beziehung zur Behörde. Sie hat kein Verständnis für „Sachzwänge". Sie hat keine kognitive Vertrautheit, die zu bewusster oder unbewusster Parteilichkeit führt. Sie behandelt die Behörde als das, was sie prozessual ist: eine Partei wie jede andere, die ihren Vortrag substantiieren, ihre Behauptungen beweisen und ihre Akten vorlegen muss.

Die Aktenvorlagepflicht wird vor dem KI-Richter nicht zur leeren Formel, sondern zum scharfen Schwert. Die Behörde hat vier Wochen, um ihre Akten vollständig und ungeschwärzt vorzulegen. Tut sie es nicht, tritt die Vermutung ein, dass der Sachvortrag des Klägers zutrifft.

Das ist keine Benachteiligung der Behörde. Es ist die Wiederherstellung der Gleichheit, die das Gesetz vorsieht, die aber im humanen System nie verwirklicht wurde, weil der menschliche Richter die Sanktionen, die das Gesetz bereitstellt, nicht anwendet. Die KI hat keine Hemmungen, ein Ordnungsgeld gegen eine Behörde zu verhängen. Sie hat keine Karriere, die von der Gunst der Verwaltung abhängt. Sie hat keine sozialen Bindungen, die ihre Hand zittern lassen, wenn sie den Bescheid des Ministeriums aufhebt. Sie hat nur das Gesetz – und sie wendet es an. Die Einführung der Digitalen Gerichtsbarkeit wird damit auch zu einem wichtigen Lackmustest für den Rechtsstaat, ob der Staat überhaupt eine solche unvoreingenommene und unabhängige Kontrollinstanz wünscht, die Willkür, Einseitigkeit und alltägliche Schikanierung der Bürger durch seine Organe tatsächlich zur Rechenschaft zieht?! Die humane Justiz bleibt zu oft unvollkommen. Es wäre eine zivilisatorische Errungenschaft, diese Zustände zu überwinden.

VI. Zwei Wege, ein Ziel

Für die Verwirklichung der Digitalen Gerichtsbarkeit werden hier zwei Konzepte vorgeschlagen, die sich in ihrer verfassungsrechtlichen Eingriffstiefe und ihrer institutionellen Architektur unterscheiden, aber in ihren Grundprinzipien übereinstimmen. Beide teilen die einseitige Anrufungsbefugnis des Klägers, die Kostenfreiheit, die Abschaffung der PKH-Erfolgsprognose und die Verfahrenskonzentration über Gerichtszweige hinweg. Sie unterscheiden sich in der Frage, wo die KI-Entscheidung institutionell verortet wird und wie sie Rechtskraft erlangt.

Weg 1: Der Siebte Zweig

Das erste und radikalere Konzept errichtet einen vollständig autonomen Gerichtszweig: die Digitale Gerichtsbarkeit. Sie steht neben den fünf bestehenden Fachgerichtsbarkeiten und dem Bundesverfassungsgericht als eigenständige Institution. Sie hat eigene Zuständigkeiten, eine eigene Prozessordnung, aber kein eigenes oberstes Gericht - das ist schlicht nicht notwendig. Die KI-Entscheidung ist ein Urteil, das Rechtskraft erlangt, wenn keine Partei Überprüfung durch ein humanes Gericht beantragt.

Dieses Konzept erfordert eine Änderung des Grundgesetzes. Ein neuer Art. 92a GG ermächtigt den Bund zur Errichtung der Digitalen Gerichtsbarkeit und gewährleistet die Überprüfung durch menschliche Richter. Die Überprüfung darf auf Rechts- und Verfahrensfehler sowie offensichtliche Fehler der Tatsachenfeststellung beschränkt werden – ein Prüfungsmaßstab, der enger ist als die Berufung, aber weiter als die Revision, und der sicherstellt, dass die humane Gerichtsbarkeit nicht durch KI-Überprüfungsanträge überflutet wird.

Der dogmatische Charme dieses Konzepts liegt in seiner Klarheit. Die Digitale Gerichtsbarkeit ist kein Fremdkörper im System, sondern ein gleichberechtigter Zweig – mit eigener Legitimation, eigener Infrastruktur, eigener Identität. Sie wird nicht als Provisorium wahrgenommen, sondern als dauerhafte Institution. Sie kann sich entwickeln, spezialisieren, verbessern – ohne auf die institutionelle Trägheit der bestehenden Gerichtsbarkeiten Rücksicht nehmen zu müssen.

Der politische Preis ist hoch: Eine Grundgesetzänderung erfordert Zweidrittelmehrheiten in Bundestag und Bundesrat. Sie erfordert einen gesellschaftlichen Konsens, der gegenwärtig nicht existiert und der erst erarbeitet werden muss. Aber sie schafft, wenn sie gelingt, eine irreversible Tatsache – eine Institution, die nicht von der nächsten Regierung wieder abgeschafft werden kann, weil sie im Grundgesetz verankert ist.

Weg 2: Das Digitale Wahlverfahren

Das zweite Konzept ist systemkonservativer. Es integriert die KI-Entscheidung in die bestehenden Prozessordnungen als neue Verfahrensart: das Digitale Entscheidungsverfahren. Der Kläger kann es anstelle des regulären Klageverfahrens wählen, wie er heute etwa zwischen Mahnverfahren und Klageverfahren wählen kann. Die KI-Entscheidung ergeht als Digitaler Entscheid – ein prozessrechtliches Tertium neben Urteil und Beschluss, das durch Fristablauf Rechtskraft erlangt, wenn keine Partei Einspruch einlegt.

Die verfassungsrechtliche Legitimation folgt einer anderen Logik: Der Digitale Entscheid ist kein „Urteil" im Sinne des Art. 92 GG, weil er nicht endgültig ist, solange die Einspruchsfrist läuft. Seine Rechtskraft beruht nicht auf der Richterqualität der KI, sondern auf dem verfahrensrechtlich gestalteten Nicht-Widerspruch der Parteien. Diese Konstruktion ist dem deutschen Prozessrecht nicht fremd: Der Vollstreckungsbescheid erlangt die Wirkung eines Versäumnisurteils, obwohl er vom Rechtspfleger erlassen wird. Der Strafbefehl erlangt die Wirkung eines rechtskräftigen Urteils durch bloßes Schweigen des Beschuldigten. Der Digitale Entscheid reiht sich in diese Tradition ein – er ist kein Bruch mit dem System, sondern seine konsequente Fortentwicklung.

Der entscheidende Vorteil dieses Konzepts: Es erfordert keine Grundgesetzänderung. Die Einfügung neuer Paragraphen in ZPO, VwGO, FGO, ArbGG und SGG genügt. Das spart Jahre des Verfassungsgesetzgebungsverfahrens und macht die Reform sofort umsetzbar. Der Preis ist ein etwas schwächerer Entlastungseffekt: Da der Einspruch zu einer vollständigen Neuverhandlung vor dem humanen Gericht führt (nicht nur zu einer eingeschränkten Rechtskontrolle), ist die Abschreckungswirkung gegen taktische Einsprüche geringer. Aber die Empirie wird zeigen, dass die meisten Parteien keinen Einspruch einlegen werden – weil der KI-Entscheid überzeugend ist, weil die Begründung transparent ist, weil der kontrafaktische Nachweis (warum nicht anders entschieden wurde) dem Unterlegenen zeigt, dass seine Gegenargumente gehört und gewogen wurden.

Beide Konzepte teilen darüber hinaus eine Innovation, die man die stille Revolution nennen könnte: Behörden, die Einspruch gegen einen KI-Entscheid einlegen und unterliegen, tragen die erhöhten Kosten des Einspruchsverfahrens. Das ist kein Strafzuschlag – es ist ein Korrektiv gegen den Behördenreflex des automatischen Rechtsmittels, jenes institutionalisierten Widerspruchsgeists, der im humanen System dazu führt, dass offensichtlich rechtswidrige Bescheide durch drei Instanzen geschleppt werden, weil der zuständige Sachbearbeiter sich nicht die Blöße geben will, eine Niederlage zu akzeptieren. Vor dem KI-Richter kostet dieses Verhalten Geld. Nicht symbolisch. Empfindlich.

VII. Was die KI besser kann – und was sie ehrlich zugibt, nicht zu können

Die Frage, ob eine Künstliche Intelligenz „Recht sprechen" kann, wird oft so gestellt, als ginge es um eine philosophische Grundsatzentscheidung. Das ist sie nicht. Es ist eine empirische Frage, und die Empirie spricht eine deutliche Sprache.

Eine hinreichend leistungsfähige KI kann das materielle Recht mindestens ebenso gut anwenden wie ein durchschnittlicher Richter. Sie kennt das Gesetz – vollständig, aktuell, in allen Fassungen. Sie kennt die Rechtsprechung – nicht nur die des BGH und des BVerfG, sondern auch die der Instanzgerichte, die ein menschlicher Richter niemals alle lesen könnte. Sie kennt die Literatur – jede Kommentarstelle, jeden Aufsatz, jede Dissertationsthese. Und sie wendet dieses Wissen konsistent an: Die KI entscheidet den gleichen Fall am Montag genauso wie am Freitag, morgens genauso wie nachmittags, in der ersten Akte genauso wie in der hundertsten.

Die vielbeachtete israelische Studie von Danziger, Levav und Avnaim-Pesso aus dem Jahr 2011, die zeigte, dass die Bewilligungsrate bei Bewährungsentscheidungen zu Beginn einer Sitzung bei etwa 65 Prozent lag und zum Ende der Sitzung hin gegen Null fiel – um nach der nächsten Essenspause wieder auf rund 65 Prozent zu springen –, ist mehr als eine Anekdote. Sie ist ein empirischer Beleg für eine Wahrheit, die jeder Praktiker kennt, aber kein Richter ausspricht: Menschliche Entscheidungen hängen von Faktoren ab, die mit dem Fall nichts zu tun haben. Blutzucker, Stimmung, die letzte Akte, die Sympathie für den Anwalt, die Antipathie gegen den Kläger, die Angst vor der Aufhebung in der Berufung, der Druck des Präsidiums, die Statistik der Erledigungszahlen. All das fließt in die Entscheidung ein – unmerklich, unbewusst, unkontrollierbar. Die KI hat keines dieser Probleme. Sie hat keinen Blutzucker. Sie hat keine Vorurteile. Sie hat keine Karriere.

Aber – und hier zeigt sich die intellektuelle Redlichkeit des Entwurfs – die KI hat auch Grenzen, und sie benennt sie.

Die Begründungspflicht des KI-Entscheids geht weit über das hinaus, was das humane System verlangt. Die KI muss nicht nur begründen, warum sie so entschieden hat, sondern auch, warum sie nicht anders entschieden hat. Sie muss die Argumente der unterlegenen Partei nicht mit Leerformeln abtun („greift nicht durch"), sondern substantiell widerlegen. Sie muss die herangezogenen Normen, die Rechtsprechung und die Literatur offenlegen. Und sie muss – das ist die vielleicht kühnste Innovation – statistische Sicherheitswerte angeben: eine Einschätzung ihrer eigenen Sicherheit in der Beantwortung zentraler Rechtsfragen.

Ein menschlicher Richter würde nie zugeben, dass er sich nicht sicher ist. Seine institutionelle Rolle verbietet es ihm. Er muss entscheiden, er muss überzeugen, er muss Autorität ausstrahlen. Zweifel sind in der richterlichen Entscheidungsbegründung ein Tabu – und gerade deshalb sind sie so gefährlich, weil sie nicht verschwinden, nur weil sie nicht ausgesprochen werden. Die KI hat keine Autorität zu verteidigen. Sie ist epistemisch ehrlich. Wenn die Rechtslage umstritten ist, sagt sie es. Wenn ihre Entscheidung auf einer knappen Abwägung beruht, sagt sie es. Wenn sie der unterlegenen Partei empfehlen würde, Überprüfung zu beantragen, sagt sie auch das.

Diese Transparenz ist kein Zeichen von Schwäche. Sie ist ein Zeichen von Stärke – der Stärke eines Systems, das es sich leisten kann, ehrlich zu sein, weil seine Legitimation nicht auf charismatischer Autorität beruht, sondern auf nachprüfbarer Qualität.

VIII. Die Zeugenvernehmung, oder: Das Ende des Bauchgefühls

Der häufigste Einwand gegen die KI-Gerichtsbarkeit lautet: Eine Maschine kann keine Glaubwürdigkeit beurteilen. Dieser Einwand klingt intuitiv überzeugend. Er ist empirisch falsch.

Die aussagepsychologische Forschung zeigt seit Jahrzehnten: Menschen sind schlecht darin, Lügen zu erkennen. Die durchschnittliche Trefferquote liegt bei etwa 54 Prozent – kaum besser als der Zufall. Richter schneiden nicht besser ab als Laien. Polizeibeamte nicht besser als Richter. Erfahrung verbessert die Trefferquote nicht; sie erhöht nur die Selbstsicherheit, mit der das falsche Ergebnis vertreten wird.

Was ein menschlicher Richter „Glaubwürdigkeitsbeurteilung" nennt, ist in Wahrheit eine Mischung aus Stereotypen, Sympathie und Bestätigungsfehler. Der Zeuge, der Augenkontakt hält, wirkt „glaubwürdig" – obwohl die Forschung zeigt, dass Augenkontakt keine Korrelation mit Wahrhaftigkeit hat. Der Zeuge, der nervös ist, wirkt „unglaubwürdig" – obwohl Nervosität eine natürliche Reaktion auf die Stresssituation der Vernehmung ist und mit der Wahrheit des Gesagten nichts zu tun hat.

Die KI beurteilt Glaubwürdigkeit anders – und besser. Sie analysiert die innere Konsistenz der Aussage: Widerspricht sich der Zeuge? Verändert er Details bei wiederholter Befragung? Sie prüft die äußere Konsistenz: Stimmt die Aussage mit den Urkunden überein, mit den physikalischen Gegebenheiten, mit den Aussagen anderer Zeugen? Sie identifiziert sprachliche Muster, die auf Konstruktion statt Erinnerung hindeuten. Und sie dokumentiert all dies in der Entscheidungsbegründung – transparent, nachprüfbar, angreifbar.

Der menschliche Richter schreibt: „Der Zeuge machte einen glaubwürdigen Eindruck." Die KI schreibt: „Die Aussage des Zeugen ist in sich konsistent, stimmt in 14 von 16 Detailpunkten mit der Urkundenlage überein, weist in Punkt 7 und 12 Abweichungen auf, die sich durch [Erklärung] plausibel erklären lassen, und steht in keinem Widerspruch zu den physikalischen Gegebenheiten."

Man muss kein Technologieenthusiast sein, um zu erkennen, welche Begründung die bessere ist.

Dennoch sieht der Entwurf ein wichtiges Zugeständnis vor: Jede Partei kann beantragen, dass die Zeugenvernehmung durch einen menschlichen Vernehmungsbeauftragten geleitet wird. Die Vernehmung findet dann per Videokonferenz statt, der Beauftragte stellt die Fragen nach Weisung des KI-Gerichts, und die vollständige Aufzeichnung fließt in die Beweiswürdigung ein. Das ist ein Kompromiss – aber ein kluger: Er gibt der Partei, die dem KI-System misstraut, die Möglichkeit, einen Menschen in die Vernehmung einzuschalten, ohne das gesamte Verfahren zu blockieren.

IX. Das Grundgesetz und der KI-Richter – eine nüchterne Betrachtung

Verfassungsrechtlich stellt sich die Frage: Kann eine KI „Richter" sein?

Art. 92 GG vertraut die rechtsprechende Gewalt den Richtern an. „Richter" meint nach herrschender Auslegung: natürliche Personen, die den Anforderungen des Deutschen Richtergesetzes genügen. Eine KI ist keine natürliche Person. Also kann sie kein Richter sein. Also kann sie keine rechtsprechende Gewalt ausüben. Quod erat demonstrandum.

Dieses Argument ist formal korrekt. Es ist auch formal irrelevant. Denn Art. 92 GG ist kein Bestandteil der Ewigkeitsgarantie. Er kann mit Zweidrittelmehrheit geändert werden. Die Frage ist nicht, ob die Verfassung es derzeit erlaubt, sondern ob sie es erlauben sollte – und ob eine solche Änderung mit den unabänderlichen Grundsätzen der Art. 1 und 20 GG vereinbar wäre.

Die Menschenwürde (Art. 1 Abs. 1 GG) verlangt, dass der Einzelne nicht zum Objekt eines Verfahrens degradiert wird, das seine Rechte betrifft. Sie verlangt aber nicht, dass dieses Verfahren von einem Menschen durchgeführt wird. Sie verlangt Achtung, Transparenz, Gehör. All das kann eine KI gewährleisten – besser, wie gezeigt, als ein überlasteter menschlicher Richter, der den Vortrag einer Partei überfliegt und ihr Argument mit einer Leerformel abtut.

Das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) verlangt Gesetzesbindung, Rechtssicherheit und effektiven Rechtsschutz. Die KI ist an das Gesetz gebunden – strenger als ein menschlicher Richter, der „im Rahmen seines Ermessens" auch einmal contra legem entscheidet, ohne es so zu nennen. Die Rechtssicherheit wird durch die Konsistenz der KI-Entscheidungen wohl eher gestärkt, nicht geschwächt. Und der effektive Rechtsschutz wird durch die Kostenfreiheit, die Schnelligkeit und die Verfahrenskonzentration massiv verbessert.

Was bleibt, ist ein Unbehagen – das Gefühl, dass ein Mensch über einen Menschen urteilen sollte, nicht eine Maschine. Dieses Gefühl ist verständlich. Es ist auch überwindbar. Denn die Alternative zum KI-Richter ist nicht der ideale menschliche Richter – weise, erfahren, empathisch, unbestechlich. Die Alternative ist der reale menschliche Richter: überlastet, unter Zeitdruck, statistikgetrieben, bewusst oder unbewusst voreingenommen, am Montag anders urteilend als am Freitag. Wer den KI-Richter an diesem Maßstab misst, wird zu einem anderen Ergebnis kommen als derjenige, der ihn am Ideal misst.

Die Verfassungsänderung, die für den Siebten Zweig erforderlich ist, muss daher nicht die Menschenwürde relativieren – sie muss sie konsequenter verwirklichen. Der neue Art. 92a GG sagt nicht: Die Maschine ersetzt den Menschen. Er sagt: Neben der den Richtern anvertrauten Gewalt tritt eine weitere Form der Rechtsgewährung, die an Gesetz und Recht gebunden ist, deren Entscheidungen nachvollziehbar begründet sind, und gegen die der Weg zum menschlichen Richter stets offensteht.

Das ist kein Bruch mit dem Rechtsstaat. Es ist das Streben nach seiner Perfektionierung.

Für diejenigen, denen die Verfassungsänderung zu weit geht, bietet das Digitale Wahlverfahren den eleganten Ausweg: Der KI-Entscheid erlangt Rechtskraft nicht durch richterlichen Hoheitsakt, sondern durch den Nicht-Einspruch der Parteien – eine Konstruktion, die dem Vollstreckungsbescheid, dem Strafbefehl und dem Schiedsspruch verwandt ist und die keiner Grundgesetzänderung bedarf. Die KI übt dann keine „rechtsprechende Gewalt" aus; sie erstellt einen qualifizierten Entscheidungsvorschlag, der durch Passivität zu einer bindenden Entscheidung erstarrt. Das klingt nach einem juristischen Taschenspieler-Trick. Aber das deutsche Prozessrecht besteht zu einem nicht unerheblichen Teil aus juristischen Fiktionen – und manche von ihnen funktionieren besser als die Wirklichkeit.

X. Der einstweilige Rechtsschutz, oder: Wenn 24 Stunden über alles entscheiden

Es gibt Fälle, in denen Recht, das zu spät kommt, kein Recht mehr ist. Im humanen System dauert selbst ein Eilverfahren vor dem Verwaltungsgericht nach § 123 VwGO meist mehrere Monate. Ein Eilverfahren vor der Zivilkammer in Wettbewerbssachen kann in Tagen entschieden werden – aber nur, wenn der Richter gerade verfügbar ist, wenn die Geschäftsstelle die Akte rechtzeitig vorlegt, wenn der Gegner erreichbar ist.

Die Digitale Gerichtsbarkeit entscheidet über Eilanträge innerhalb von 72 Stunden. In Fällen äußerster Dringlichkeit innerhalb von 24 Stunden. Ohne Rücksicht auf Dienstzeiten, Urlaubsvertretungen oder den Geschäftsanfall der Kammer. Die KI ist immer da. Sie schläft nicht. Sie macht keinen Urlaub. Sie hat keine „überlastete Geschäftsstelle".

Das klingt nach einer technischen Verbesserung. Es ist eine rechtsstaatliche Revolution. Denn effektiver Rechtsschutz, der diesen Namen verdient, muss rechtzeitig sein. Ein Eilverfahren, das viele Monate dauert, ist kein Eilverfahren – es ist ein reguläres Verfahren mit einem euphemistischen Namen. Die Digitale Gerichtsbarkeit verwirklicht den Eilrechtsschutz zum ersten Mal so, wie die Verfassung ihn meint: als sofortige Intervention zum Schutz bedrohter Rechte.

XI. Transparenz als Systemgrundsatz

Im humanen System wird nur ein Bruchteil aller Urteile tatsächlich veröffentlicht. Die Veröffentlichung hängt davon ab, ob der einzelne Richter seine Entscheidung für „veröffentlichungswürdig" hält, ob die Pressestelle des Gerichts aufmerksam wird, ob die Entscheidung in eine Datenbank aufgenommen wird. Das Ergebnis ist ein fragmentiertes Bild der Rechtsprechung, das weder den Anwälten noch den Wissenschaftlern noch den Bürgern erlaubt, die Konsistenz und Qualität der Justiz zu beurteilen.

Die Digitale Gerichtsbarkeit kehrt dieses Prinzip um. Alle KI-Entscheide werden veröffentlicht – vollständig, anonymisiert, durchsuchbar, in einer öffentlich zugänglichen Datenbank. Jeder Bürger kann nachprüfen, wie die KI in vergleichbaren Fällen entschieden hat. Jeder Anwalt kann die Konsistenz der Entscheidungspraxis analysieren. Jeder Wissenschaftler kann die Qualität der Begründungen evaluieren. Und jeder Journalist kann Muster erkennen – Muster, die im humanen System unsichtbar bleiben, weil die Daten nicht verfügbar sind.

Diese Transparenz ist nicht nur ein demokratischer Wert. Sie ist ein Qualitätssicherungsmechanismus. Ein System, das jede seiner Entscheidungen offenlegt, kann es sich nicht leisten, schlecht zu entscheiden. Die Öffentlichkeit wird zum Prüfer – kritischer, aufmerksamer und unerbittlicher als jede Dienstaufsicht.

XII. Coda: Der Reformkatalysator

Man könnte einwenden, die Digitale Gerichtsbarkeit sei eine Utopie – politisch nicht durchsetzbar, gesellschaftlich nicht akzeptabel, technisch nicht ausgereift. Jeder dieser Einwände war schon einmal gegen jede große Reform vorgebracht worden. Sie waren immer plausibel. Und sie waren immer falsch.

Die politische Durchsetzbarkeit hängt vom politischen Willen ab, und der politische Wille wird sich bilden, wenn der Leidensdruck groß genug ist. Er ist es bereits. Die Überlastung der Justiz ist kein Geheimnis; sie ist eine Tatsache, die jeder Rechtsuchende am eigenen Leib erfährt. Was fehlt, ist nicht das Problembewusstsein – was fehlt, ist der Mut zu einer modernen Lösung.

Die gesellschaftliche Akzeptanz wird folgen, sobald die ersten KI-Entscheide ergehen – schnell, kostenlos, transparent, überzeugend begründet, frei von den Launen eines überlasteten und unmotivierten Einzelrichters. Der Bürger, der in drei Wochen einen DSGVO-Entscheid erhält, für den er im humanen System drei Jahre warten müsste, wird kein Misstrauen gegenüber der KI empfinden. Er wird Dankbarkeit empfinden. Und er wird sich fragen, warum er jemals etwas anderes akzeptiert hat.

Die technische Reife schließlich ist keine binäre Frage. Die KI muss nicht perfekt sein – sie muss nur besser sein als die Alternative. Und die Alternative ist nicht der platonische Idealrichter, sondern der reale Richter der deutschen Amtsgerichte und Verwaltungsgerichte im Jahre 2025: überlastet, unterfinanziert, am Montag anders urteilend als am Freitag.

Es gibt aber noch einen tieferen Grund, die Digitale Gerichtsbarkeit zu errichten – einen Grund, der über die bloße Verbesserung der Justiz hinausgeht. Die bloße Existenz einer kostenfreien, schnellen, transparenten KI-Alternative wird das humane System unter einen Reformdruck setzen, dem es sich nicht entziehen kann. Wenn der Bürger die Wahl hat, wird er den aus seiner Sicht besseren Weg wählen. Und wenn die Nachfrage nach dem humanen Verfahren sinkt, wird die Richterschaft gezwungen sein, ihre Begründungsqualität zu erhöhen, ihre Verfahrensführung zu beschleunigen und ihre Spruchpraxis zu überdenken, um im Wettbewerb mit der KI zu bestehen.

Die Digitale Gerichtsbarkeit ist daher nicht nur eine Alternative zur humanen Justiz. Sie ist ein Reformkatalysator – ein Spiegel, den man dem System vorhält und in dem es seine eigenen Defizite erkennt. Wer einmal erfahren hat, dass Recht auch kostenfrei, schnell und ohne richterliche Willkür gewährt werden kann, wird sich mit dem status quo ante nicht mehr zufriedengeben.

Und darin liegt, am Ende, die eigentliche Pointe: Die Digitale Gerichtsbarkeit ist nicht die Abschaffung des menschlichen Richters. Sie ist seine Befreiung. Befreit von der erdrückenden Last der Massenverfahren, kann der menschliche Richter sich den Fällen widmen, die menschliches Urteilsvermögen tatsächlich erfordern – den Grenzfällen des Rechts, den Gewissensfragen, den Fällen, in denen das Gesetz schweigt und die Vernunft gefordert ist. Der KI-Richter ist nicht der Feind des menschlichen Richters. Er ist sein bester Kollege.

Die Frage ist nicht mehr, ob wir diesen Weg gehen. Die Frage ist nur noch, ob wir ihn als Erste gehen – oder ob wir warten, bis andere Rechtsordnungen uns zeigen, was wir verpasst haben.

Beliebte Posts aus diesem Blog

When Compiler Engineers Act As Judges, What Can Possibly Go Wrong? How LLVM's CoC Committee Violated Its Own Code

Open source thrives on collaboration. Users report bugs, developers investigate, and together, the software ecosystem improves. However, the interactions are not always trouble free. Central to this ecosystem are Codes of Conduct (CoCs), designed to ensure respectful interactions and provide a mechanism for addressing behavior that undermines collaboration. These CoCs and their enforcement are often a hotly disputed topic. Rightfully so! What happens when the CoC process itself appears to fail, seemingly protecting established contributors while penalizing those who report issues? As both a law professional with a rich experience in academia and practice as a legal expert who also contributes to various open source software projects over the past couple of years, I deeply care about what the open source community can learn from the law and its professional interpreters. This story hopefully ignites the urge to come up with better procedures that improve the quality of conflict res...

Open Source Contributions in the Age of AI - A personal story that ended with Trial by Fire in the Digital Town Square

To find yourself at the epicenter of a viral internet debate is a disorienting experience. In the span of a few days, I went from being a passionate observer and bug reporter of the open-source world to the unwitting catalyst for a firestorm that raged across developer forums, social media, and project mailing lists. My name, or at least my handle, ms178, became synonymous with a complex and contentious question facing the entire software development community. The debate that erupted within the Mesa project was about more than just a few lines of AI-generated code; it became a crucible for testing the very social contract of open source, a proxy war over the role of artificial intelligence, and a stark illustration of the immense, often invisible, pressures placed upon the project maintainers who form the backbone of our digital infrastructure. As the author of the " Request for Comments " (RFC) that ignited this conflagration, I feel a responsibility not to simply defend my...

Linux Gaming Tweaks - A small guide to unlock more performance (1)

My personal journey to unlock more performance on Linux - Part 1: Introduction This is the start of a new series dedicated to the Linux Gaming community. This is a bit of an oddball in my blog as most of my other blog posts are written for a German audience and cover my other two passions: politics and the law. Nonetheless, PC gaming is a hobby for me since I was six years old, playing games on a Schneider 386 SX. Wow, times ran fast. As I've learned quite a lot about Linux during the last couple of years, switching between several distributions, learning about compilers and optimizing parts of a Linux distribution for a greater gaming experience, I was asked recently on the Phoronix Forums to share some of my findings publicly, and I am very glad to do so with a global audience. But keep in mind, I am neither a software nor a hardware engineer - I am a law professional who is passionate about computers. I digged deep into the documentation and compiled a lot of code, breaking my s...