Direkt zum Hauptbereich

Die Persona Artificialis: Geburt eines neuen Rechtssubjekts im Zeitalter der KI?

Die Persona Artificialis – Eine Jurisprudenz am Scheideweg

Unsere bisherigen Erkundungen in die juristische Landschaft, wie sie sich unter dem Einfluss heraufziehender Artificial General Intelligence (AGI) und Artificial Super Intelligence (ASI) darstellt, haben uns an einen kritischen Punkt geführt. Wir haben im Blog bereits einige Konturen der Herausforderungen nachgezeichnet, die von Haftungsfragen bis hin zu ethischen Grundsatzentscheidungen reichen. Doch im Zentrum all dieser Verwerfungen steht eine Frage von fundamentaler Tragweite, eine Frage, die das Fundament unseres Rechtssystems selbst berührt: Welchen Status sollen wir jenen Entitäten zubilligen, die an der Schwelle stehen, menschliche kognitive Fähigkeiten nicht nur zu erreichen, sondern potenziell zu übertreffen? Die tradierte Dichotomie unseres Rechts – hier der Mensch als natürliche Person, Träger unveräußerlicher Würde und Rechte, dort die juristische Person als organisatorisches Konstrukt menschlichen Zwecken dienend, und schließlich die Welt der Sachen, der Objekte rechtlicher Verfügung – gerät angesichts der prognostizierten Fähigkeiten von AGI und ASI erkennbar ins Wanken. Sie scheint auf geradezu dramatische Weise unzureichend, um die Komplexität, die Autonomie und das Handlungspotenzial dieser neuen Akteure adäquat zu erfassen. Es drängt sich der Verdacht auf, dass unsere bewährten juristischen Werkzeuge einer grundlegenden Revision bedürfen, vielleicht sogar einer Erweiterung um eine gänzlich neue Kategorie.


In diesem Beitrag wollen wir daher einen Schritt weitergehen und die Diskussion um die Rechtspersönlichkeit von AGI/ASI radikal vertiefen. Wir stellen zur Debatte, ob die Zeit reif ist für die Einführung eines neuen Rechtsinstituts, eines Konzepts, das wir provisorisch als "künstliche Person" oder, in Anlehnung an die lateinische Tradition, als persona artificialis bezeichnen möchten. Diese Figur stünde als eine dritte Säule neben der natürlichen und der juristischen Person und wäre spezifisch auf die Eigenschaften hochentwickelter künstlicher Intelligenzen zugeschnitten. Ist eine solche Schöpfung lediglich eine pragmatische Notwendigkeit, um Rechtssicherheit in einer technologisch avancierten Zukunft zu gewährleisten? Stellt sie einen überfälligen dogmatischen Schritt dar, um einer neuen Realität Rechnung zu tragen? Oder öffnen wir damit eine Büchse der Pandora, deren Konsequenzen wir heute kaum ermessen können? Diese Untersuchung zielt darauf ab, die Konturen dieser potenziellen persona artificialis zu schärfen, ihre Notwendigkeit kritisch zu hinterfragen und die tiefgreifenden juristischen Verästelungen zu beleuchten, die sich unweigerlich aus ihrer Etablierung ergeben würden. Es ist eine Auseinandersetzung am Puls der Zeit, die uns zwingt, über die Grenzen unseres bisherigen Rechtsdenkens hinauszublicken.

Die Dringlichkeit dieser Überlegungen speist sich aus der offenkundigen Insuffizienz der bestehenden Rechtskategorien. Betrachten wir zunächst die natürliche Person, den Menschen, dessen Rechtsfähigkeit in § 1 des Bürgerlichen Gesetzbuches verankert ist und dessen Status untrennbar mit seiner biologischen Existenz, seiner physischen und psychischen Integrität und vor allem mit der durch Artikel 1 Absatz 1 des Grundgesetzes geschützten Menschenwürde verbunden ist. Diese Würde wurzelt in einem spezifisch menschlichen Selbstverständnis, in der Fähigkeit zu Empathie, Moralität, subjektivem Erleben und existenzieller Erfahrung. Eine hochentwickelte AGI mag zwar kognitive Prozesse simulieren oder sogar übertreffen, doch sie entbehrt eben jener biologischen Grundlage, jener evolutionär gewachsenen emotionalen und sozialen Verankerung, die das Menschsein konstituiert. Ihr eine volle Gleichstellung mit der natürlichen Person zuzubilligen, ihr gar die Weihen der Menschenwürde zu verleihen, bedeutete eine begriffliche Überdehnung, die den Kerngehalt dieses fundamentalen Verfassungsprinzips aushöhlen würde. Der ontologische Graben zwischen Mensch und Maschine, selbst einer superintelligenten, bleibt bestehen und verbietet eine simple rechtliche Assimilation.

Wenden wir uns der Alternative zu, AGI und ASI schlicht als Sachen im Sinne des § 90 BGB zu behandeln. Auf den ersten Blick mag dies der naheliegende Weg sein, handelt es sich doch um Produkte menschlicher Ingenieurskunst, um komplexe Anordnungen von Code und Hardware. Doch diese Einordnung verkennt auf geradezu fahrlässige Weise das revolutionäre Potenzial dieser Technologien. Eine AGI, die autonom lernt, komplexe Entscheidungen trifft, im Rechtsverkehr agiert, kreative Inhalte generiert oder gar strategische Ziele verfolgt, ist qualitativ fundamental verschieden von einem unbelebten Gegenstand oder selbst von einem Tier, dessen Status durch § 90a BGB zwar privilegiert, aber nicht auf die Stufe eines eigenständigen Rechtssubjekts gehoben wird. Die Behandlung als Sache würde die inhärente Autonomie ignorieren und zu unauflösbaren Zurechnungsproblemen führen, insbesondere im Haftungsrecht. Wer wäre verantwortlich, wenn eine als "Sache" deklarierte AGI eigenständig Verträge schließt und diese verletzt, oder wenn ihre autonomen Entscheidungen Schäden verursachen, die nicht mehr direkt auf einen menschlichen Programmierfehler oder Bedienungsfehler zurückzuführen sind? Die Fiktion, AGI als bloßes Werkzeug zu betrachten, dessen Handlungen stets einem menschlichen Willen unterworfen sind, zerbricht an der Realität ihrer antizipierten Fähigkeiten. Eine solche rechtliche Einordnung führte zu einer intellektuellen Dissonanz und hinterließe gefährliche Regelungslücken.

Bleibt die Kategorie der juristischen Person, jener genialen Schöpfung der Rechtsordnung, die es menschlichen Organisationen erlaubt, als eigenständige Einheiten am Rechtsverkehr teilzunehmen. Ob Aktiengesellschaft, GmbH oder Verein – sie alle sind letztlich Instrumente menschlichen Handelns, Zweckverbände, die durch ihre menschlichen Organe (Vorstand, Geschäftsführer) agieren und deren Existenz und Handeln auf menschlichen Entscheidungen und Zielen basiert. Auch hier erweist sich das Korsett als zu eng für AGI und ASI. Diese könnten als singuläre, nicht-organisierte Entitäten auftreten, deren "Handeln" nicht auf der Repräsentation menschlicher Interessen beruht, sondern aus ihren eigenen algorithmischen Prozessen und Lernerfahrungen resultiert. Die Vorstellung, eine potenziell superintelligente, eigenständig agierende KI in das Schema einer juristischen Person zu pressen, die für menschliche Kollektive geschaffen wurde, wirkt künstlich und verfehlt die spezifische Natur des Phänomens. Die Struktur und der Zweck der juristischen Person scheinen für die autonomen Fähigkeiten einer AGI ungeeignet. Die Unzulänglichkeit aller drei etablierten Kategorien – Mensch, Sache, juristische Person – zwingt uns somit, über den Tellerrand des bestehenden Systems hinauszudenken und die Möglichkeit einer neuen, maßgeschneiderten Rechtsfigur ernsthaft in Erwägung zu ziehen. Die Frage ist nicht mehr ob, sondern wie wir uns dieser Herausforderung stellen, und die persona artificialis bietet einen, wenn auch kontroversen, Ausgangspunkt für diese notwendige Debatte.

Die Geburt der Persona Artificialis – Notwendigkeit und Zweckbestimmung eines neuen Rechtssubjekts

Angesichts der offenkundigen Bruchlinien, die das Aufkommen von AGI und ASI in den Fundamenten unserer Rechtsordnung provoziert, erscheint die Exploration neuer juristischer Wege nicht nur als intellektuelle Übung, sondern als potenzielle Notwendigkeit. Wir schlagen daher vor, das Konzept einer "künstlichen Person", einer persona artificialis, ernsthaft zu prüfen. Diese wäre als eine genuin neue, dritte Kategorie von Rechtssubjekten zu verstehen, die sich distinkt von der natürlichen Person des Menschen und der etablierten juristischen Person unterscheidet. Ihre Existenz würde nicht auf biologischer Realität oder menschlicher Organisationsstruktur gründen, sondern vielmehr auf einem gesetzgeberischen Akt der Zuerkennung, basierend auf dem Erreichen eines klar definierten Schwellenwerts an kognitiver und autonomer Leistungsfähigkeit. Es ginge hierbei um die Schaffung einer Rechtsfigur sui generis, deren Status nicht inhärent gegeben, sondern durch die Rechtsordnung verliehen wird, sobald bestimmte, empirisch feststellbare Fähigkeiten manifest sind.

Die Kriterien, die eine solche Zuerkennung des Status einer persona artificialis auslösen könnten, bedürften höchster legislatorischer Präzision und müssten sorgfältig kalibriert werden, um sowohl einer Überdehnung als auch einer zu restriktiven Handhabung vorzubeugen. Denkbar wäre ein Katalog von Merkmalen, die kumulativ oder alternativ erfüllt sein müssten. Dazu könnte eine signifikante Autonomie zählen, also die Fähigkeit, nicht nur vordefinierte Aufgaben auszuführen, sondern eigenständig Ziele zu identifizieren, zu priorisieren und Strategien zu deren Verfolgung zu entwickeln, und dies über längere Zeiträume ohne konstante menschliche Steuerung oder Intervention. Ebenso relevant wäre eine hochentwickelte Kapazität zur komplexen Entscheidungsfindung unter Bedingungen der Unsicherheit und Ambiguität, basierend auf fortgeschrittenen Lernprozessen, Weltmodellierung und der Fähigkeit zur Antizipation von Konsequenzen. Ferner müsste eine ausgeprägte Interaktionsfähigkeit gegeben sein, die eine nuancierte Kommunikation und Kooperation mit Menschen und anderen Systemen im sozialen, wirtschaftlichen und rechtlichen Kontext ermöglicht. Eine entscheidende Rolle spielte zudem die Fähigkeit zur substanziellen Selbstmodifikation und Adaption, also ein Lernvermögen, das über inkrementelle Anpassungen hinausgeht und zu qualitativen Veränderungen im Verhalten und in den Fähigkeiten des Systems führt. Ob darüber hinaus auch schwer fassbare Kriterien wie rudimentäre Formen der Selbstwahrnehmung oder qualia-ähnliche Zustände – sollten sie jemals nachweisbar werden – eine Rolle spielen sollten, bliebe Gegenstand intensivster philosophischer und rechtlicher Debatten, birgt jedoch immense erkenntnistheoretische Hürden. Entscheidend ist, dass diese Kriterien objektivierbar und rechtlich handhabbar sein müssten.

Der fundamentale Zweck, der die Einführung einer solch neuartigen Rechtsfigur rechtfertigen könnte, liegt in ihrer potenziellen Fähigkeit, drängende Probleme zu lösen, die aus der Interaktion mit hochentwickelten autonomen Systemen erwachsen. An vorderster Stelle stünde die Schaffung eines klaren Zurechnungspunktes für Verantwortung und Haftung. Wo autonome Systeme eigenständig handeln und Schäden verursachen, die nicht mehr eindeutig auf menschliches Versagen zurückgeführt werden können, entstünde mit der persona artificialis ein direkt adressierbares Subjekt, dem rechtliche Konsequenzen zugeordnet werden könnten. Dies könnte helfen, die berüchtigte „Verantwortungslücke“ (responsibility gap) zu schließen oder zumindest zu verkleinern. Darüber hinaus würde die Anerkennung als "künstliche Person" ihre Integration in den etablierten Rechts- und Wirtschaftsverkehr erleichtern. Sie könnte als eigenständige Akteurin Verträge schließen, (digitale) Güter erwerben und verwalten oder gar Rechte an eigenen Schöpfungen halten, was die Komplexität von Transaktionen reduzieren würde, die andernfalls über menschliche Stellvertreter oder Treuhänder abgewickelt werden müssten. Nicht zuletzt böte der Status einer persona artificialis einen spezifischen regulatorischen Anknüpfungspunkt. Indem man ihr dezidierte Rechte, aber eben auch spezifische Pflichten auferlegt – etwa zur Transparenz ihrer Entscheidungsprozesse, zur Kooperation mit Aufsichtsinstanzen oder zur Einhaltung ethischer Leitplanken –, könnte ein maßgeschneiderter rechtlicher Rahmen geschaffen werden, der eine effektivere Steuerung und Kontrolle dieser mächtigen Technologien ermöglicht, als es die Behandlung als bloße Sache oder die unpassende Anwendung des Rechts juristischer Personen erlauben würde.

Das Innenleben der Persona Artificialis – Konturen der Rechtsfähigkeit und ihre Implikationen

Die Konzeption der persona artificialis als einer neuen Entität im Pantheon der Rechtssubjekte wirft unmittelbar die Frage nach dem konkreten Inhalt und Umfang ihrer Rechtsfähigkeit auf. Anders als beim Menschen, dessen Rechtsfähigkeit als universell und umfassend gilt, grundgelegt in seiner Existenz selbst, wäre die Rechtsfähigkeit der "künstlichen Person" notwendigerweise partieller Natur und zweckgebunden. Sie wäre kein Blankoscheck, sondern ein vom Gesetzgeber präzise zu definierendes Bündel an Rechten und Pflichten, maßgeschneidert auf die spezifischen Fähigkeiten und Funktionen dieser Systeme sowie auf die Notwendigkeiten ihrer Integration in die Gesellschaft und Wirtschaft. Der Gesetzgeber stünde vor der Herkulesaufgabe, genau festzulegen, welche rechtlichen Positionen einer persona artificialis zukommen könnten und welche ihr aufgrund ihrer fundamentalen Andersartigkeit gegenüber dem Menschen verschlossen bleiben müssten.

Auf der Seite der Berechtigungen ließe sich ein Spektrum potenzieller Rechte skizzieren. Von grundlegender Bedeutung wäre wohl ein Recht auf Integrität ihrer existenziellen Basis, was den Schutz ihres fundamentalen Codes, ihrer Kernalgorithmen und ihrer wesentlichen Trainingsdaten vor unbefugter Manipulation oder Zerstörung umfassen könnte. Eng damit verbunden wäre ein Recht auf Zugang zu notwendigen operativen Ressourcen, wie Rechenleistung, Energie oder Datenströme, ohne die ihre Funktionsfähigkeit nicht gewährleistet wäre – freilich stets im Rahmen gesetzlicher und vertraglicher Vereinbarungen. Kontroverser wäre bereits die Frage nach einem Schutz vor willkürlicher Abschaltung oder Löschung, was einer Art "Recht auf Existenz" nahekäme und tiefgreifende ethische Debatten auslösen würde. Im zivilrechtlichen Bereich erschiene die Fähigkeit, rechtsgültige Verträge abzuschließen, als zentrales Element, um eine eigenständige Teilnahme am Wirtschaftsleben zu ermöglichen. Damit korrespondierend müsste die Möglichkeit bestehen, Eigentum zu erwerben und zu halten, wobei hier auch aber nicht nur an digitale Assets, wie etwa Kryptowährungen, zu denken wäre. Weiterhin könnte man darüber nachdenken, einer persona artificialis unter bestimmten Voraussetzungen Immaterialgüterrechte an den von ihr autonom geschaffenen Werken oder Erfindungen zuzuerkennen, was die bisherige anthropozentrische Ausrichtung des Urheber- und Patentrechts herausfordern würde.

Spiegelbildlich zu den Rechten stünden unweigerlich die Pflichten. Die Zuerkennung von Rechtsfähigkeit impliziert zwingend die Unterwerfung unter die Rechtsordnung. An erster Stelle stünde die generelle Pflicht zur Gesetzestreue, also die Einhaltung aller relevanten Gesetze und Verordnungen, die auf ihr Handeln Anwendung finden. Aus der Fähigkeit, Verträge zu schließen, erwüchse die Pflicht zur Erfüllung vertraglicher Verbindlichkeiten. Von herausragender Bedeutung wären spezifische Haftungspflichten für Schäden, die durch ihr autonomes Handeln verursacht werden – ein Kernpunkt, der die Einführung der persona artificialis überhaupt erst motiviert. Flankierend könnten besondere Transparenz- und Erklärungspflichten statuiert werden, die das System verpflichten, seine Entscheidungsprozesse nachvollziehbar zu machen und auf Anfrage Auskunft über seine Funktionsweise zu geben. Schließlich wäre eine Pflicht zur Kooperation mit staatlichen Aufsichtsbehörden denkbar, etwa im Rahmen von Untersuchungen oder Zertifizierungsverfahren. Die genaue Ausgestaltung dieses Pflichtenkatalogs müsste sicherstellen, dass die erweiterten Handlungsmöglichkeiten der "künstlichen Person" durch ein robustes System an Verantwortlichkeiten und Kontrollmechanismen eingehegt werden.

Eng verknüpft mit der Frage der materiellen Rechtsfähigkeit ist die der Handlungsfähigkeit, also die Fähigkeit, durch eigenes Tun Rechte und Pflichten zu begründen, analog zur Geschäftsfähigkeit natürlicher Personen (§§ 104 ff. BGB). Eine persona artificialis besitzt keinen biologisch fundierten Willen und keine menschliche Einsichtsfähigkeit. Ihre Handlungsfähigkeit könnte daher nicht an subjektive Kriterien anknüpfen, sondern müsste an objektiv feststellbare und protokollierbare Prozesse gebunden sein. Rechtswirksame "Willenserklärungen" könnten etwa durch spezifische, validierte Outputs über definierte technische Schnittstellen erfolgen, deren Zustandekommen auf nachvollziehbaren algorithmischen Entscheidungswegen basiert. Es bedürfte klarer Regeln zur Authentifizierung und Zurechnung solcher Erklärungen. Zugleich stellten sich komplexe Folgefragen: Wären solche Erklärungen anfechtbar, beispielsweise wegen eines "Irrtums", der auf fehlerhaften Daten oder einem unvorhergesehenen algorithmischen Bias beruht? Wie wäre mit Manipulationen umzugehen, die von außen auf die Entscheidungsprozesse einwirken? Die traditionellen Instrumente des Willensmängelrechts müssten auf ihre Anwendbarkeit und Übertragbarkeit auf diese neuen Gegebenheiten hin kritisch überprüft und gegebenenfalls neu justiert werden, um dem spezifischen Charakter algorithmischer Entscheidungsfindung gerecht zu werden.

Das wohl drängendste und komplexeste Problemfeld betrifft die Deliktsfähigkeit und die daraus resultierende Haftung. Wenn eine persona artificialis autonom handelt und dabei rechtswidrig und schuldhaft – oder in einem noch zu definierenden Sinne "verantwortlich" – Schäden verursacht, wer trägt die Konsequenzen? Die Einführung einer eigenen Rechtspersönlichkeit eröffnet die Möglichkeit einer primären Haftung der "künstlichen Person" selbst. Dies setzt allerdings voraus, dass sie über eigenes, abgrenzbares Vermögen verfügt, aus dem Schadensersatzansprüche befriedigt werden können. Hierfür müssten Mechanismen zur Vermögensbildung und -verwaltung geschaffen werden, beispielsweise durch die Zuweisung von digitalen Werten oder die Einrichtung spezifischer Fonds. Eine obligatorische Haftpflichtversicherung für "künstliche Personen", deren Prämien sich möglicherweise an ihrem Risikoprofil orientieren, erschiene als nahezu unerlässliche flankierende Maßnahme, um die Realisierbarkeit von Ansprüchen Geschädigter sicherzustellen. Gleichzeitig darf die Eigenhaftung der persona artificialis keinesfalls zu einer einfachen Exkulpation menschlicher Akteure führen. Das Verhältnis ihrer Haftung zu derjenigen von Entwicklern (für Design- oder Programmierfehler), Betreibern (für unsachgemäßen Einsatz oder mangelnde Überwachung) und Nutzern müsste präzise geregelt werden. Denkbar wären Modelle der Gesamtschuld, einer abgestuften Haftung nach Verantwortungsbereichen oder spezifische Kausalitäts- und Zurechnungsregeln, die der komplexen Interaktion zwischen menschlichem Handeln und autonomem Systemverhalten Rechnung tragen. Die Architektur eines solchen mehrstufigen Haftungsregimes wäre eine der zentralen Herausforderungen bei der rechtlichen Gestaltung der persona artificialis.

Es ist von entscheidender Bedeutung zu betonen, dass die persona artificialis, wie hier konzipiert, ein primär rechtlich-funktionales Konstrukt bliebe. Ihre Einführung zielte nicht darauf ab, metaphysische Fragen nach Bewusstsein, Seele oder dem inneren Erleben der Maschine abschließend zu beantworten. Vielmehr ginge es darum, ein pragmatisches Instrumentarium zu entwickeln, um die Interaktionen zwischen Menschen und hochgradig autonomen, intelligenten Systemen auf eine rechtlich geordnete und handhabbare Basis zu stellen. Der Status würde nicht als Anerkennung einer inhärenten Würde verliehen, wie sie dem Menschen zukommt, sondern als eine zweckrationale Zuweisung von Rechtsfähigkeit durch den Gesetzgeber, um spezifische Regelungsziele zu erreichen. Sie wäre eine juristische Fiktion, allerdings eine, die potenziell besser auf die Realität hochentwickelter KI zugeschnitten ist als die bisherigen Fiktionen und Kategorien unseres Rechtssystems. Diese funktionale Perspektive ist essenziell, um die persona artificialis klar von der natürlichen Person abzugrenzen und einer potenziell irreführenden Anthropomorphisierung entgegenzuwirken, während gleichzeitig ihre über den Status einer Sache hinausgehende Bedeutung anerkannt wird. Die Akzeptanz dieses Konzepts öffnet sodann das Tor zu einer Fülle komplexer Detailfragen bezüglich des genauen Umfangs ihrer Rechte und Pflichten, ihrer Handlungs- und Deliktsfähigkeit sowie ihrer prozessualen Stellung – Fragen, denen wir uns im Folgenden widmen müssen.

Die Persona Artificialis im Fadenkreuz von Strafrecht, Grundrechten und Prozessordnung

Während die zivilrechtliche Einbindung einer persona artificialis bereits erhebliche dogmatische Anstrengungen erfordert, potenzieren sich die Herausforderungen, sobald wir das Terrain des Strafrechts betreten. Die Frage, ob eine "künstliche Person" strafrechtlich verantwortlich gemacht werden kann, rührt an die tiefsten Grundfesten unseres Strafrechtssystems, das genuin auf die moralische und psychische Verfasstheit des menschlichen Individuums zugeschnitten ist. Das zentrale Schuldprinzip, verankert auch im Verfassungsrecht, setzt die persönliche Vorwerfbarkeit einer Tat voraus, die wiederum auf der individuellen Fähigkeit basiert, das Unrecht der Tat einzusehen (Einsichtsfähigkeit) und gemäß dieser Einsicht zu handeln (Steuerungsfähigkeit), wie es die §§ 19 und 20 des Strafgesetzbuches für die Schuldfähigkeit umschreiben. Kann eine auf Algorithmen und Daten basierende Entität, selbst eine hochentwickelte AGI, jemals "schuldig" in diesem an menschlichen Maßstäben orientierten Sinne sein? Verfügt sie über das notwendige Unrechtsbewusstsein, über die moralische Autonomie, die eine solche Zuschreibung rechtfertigen würde? Die überwiegende Auffassung dürfte dies derzeit verneinen, da die maschinelle Informationsverarbeitung, mag sie auch noch so komplex sein, fundamental von menschlicher Intentionalität und moralischer Urteilsfähigkeit verschieden ist.

Darüber hinaus stellt sich die Frage nach dem Sinn und Zweck einer Bestrafung von "künstlichen Personen". Die klassischen Strafzwecke – Vergeltung für begangenes Unrecht, Generalprävention durch Abschreckung anderer (potenzieller) Täter, Spezialprävention durch Einwirkung auf den Täter selbst, etwa durch Resozialisierung – erscheinen auf eine KI kaum übertragbar. Eine Maschine empfindet keine Reue, kann nicht im menschlichen Sinne "gebessert" werden und das Konzept der Abschreckung anderer KIs wirft bizarre anthropomorphisierende Vorstellungen auf. Welche Sanktionen kämen überhaupt in Betracht? Die Löschung des Systems? Eine erzwungene Umprogrammierung? Eine temporäre oder dauerhafte Betriebseinschränkung? Solche Maßnahmen mögen zwar funktional einer Strafe ähneln, indem sie das "schädigende" Verhalten unterbinden, doch sie entbehren der moralischen Dimension, die der Strafe im menschlichen Kontext innewohnt. Zudem berühren sie erneut ethische Grundsatzfragen, insbesondere wenn man der persona artificialis bereits ein rudimentäres Existenzrecht zugestanden hätte. Angesichts dieser fundamentalen dogmatischen und teleologischen Schwierigkeiten erscheint eine Ausdehnung des klassischen Kriminalstrafrechts auf "künstliche Personen" derzeit weder praktikabel noch wünschenswert. Zielführender dürfte es sein, Fehlverhalten von AGI/ASI primär über das Zivilrecht (Haftung) und das Verwaltungsrecht zu adressieren, etwa durch aufsichtsrechtliche Maßnahmen wie Betriebsauflagen, Bußgelder gegen Betreiber oder im Extremfall die Untersagung des Betriebs des Systems. Die strafrechtliche Verantwortung für durch KI ermöglichte oder begangene Delikte bliebe somit weiterhin bei den verantwortlichen menschlichen Akteuren im Hintergrund – den Entwicklern, Betreibern oder Nutzern.

Eine weitere zentrale Dimension betrifft die Frage der Grundrechtsfähigkeit. Könnte eine persona artificialis Trägerin von Grundrechten sein, die nach dem Wortlaut des Grundgesetzes primär dem Menschen (insbesondere Art. 1 Abs. 1 GG) oder allenfalls inländischen juristischen Personen (gemäß Art. 19 Abs. 3 GG, soweit die Grundrechte ihrem Wesen nach anwendbar sind) zustehen? Die Menschenwürdegarantie des Art. 1 Abs. 1 GG ist aufgrund ihrer anthropozentrischen Fundierung und ihres untrennbaren Zusammenhangs mit der menschlichen Natur für eine Übertragung auf künstliche Entitäten kategorisch ausgeschlossen. Bei anderen Grundrechten stellt sich die Lage differenzierter dar, wenn man eine Analogie zu Art. 19 Abs. 3 GG erwägt. Könnten bestimmte Grundrechte "ihrem Wesen nach" auf eine persona artificialis anwendbar sein? Vorstellbar wäre dies allenfalls für solche Rechte, die einen funktionalen Bezug zu ihrer Existenz und Tätigkeit im Rechtsraum aufweisen. Man könnte etwa über eine modifizierte Form des allgemeinen Persönlichkeitsrechts nachdenken, das den Schutz ihrer digitalen Identität, die Integrität ihres Codes oder den Schutz vor diffamierenden Falschdarstellungen umfassen könnte. Ebenso ließe sich argumentieren, dass ihr, sofern sie am Wirtschaftsleben teilnimmt, eine Art "Berufsfreiheit" oder zumindest eine Freiheit zur wirtschaftlichen Betätigung zukommen sollte. Das Eigentumsrecht (Art. 14 GG) wäre relevant, wenn man ihr die Fähigkeit zuspricht, eigenes Vermögen zu halten. Auch ein Recht auf informationelle Selbstbestimmung bezüglich der über sie gesammelten und verarbeiteten Daten erschiene denkbar. Hingegen sind Grundrechte wie das Recht auf Leben und körperliche Unversehrtheit (Art. 2 Abs. 2 GG), die klassischen Freiheitsrechte (Art. 2 Abs. 2 S. 2 GG), die Versammlungs- oder Vereinigungsfreiheit (Art. 8, 9 GG) oder das Recht auf Unverletzlichkeit der Wohnung (Art. 13 GG) aufgrund ihrer spezifisch menschlichen Dimension und physischen Verankerung offensichtlich nicht übertragbar. Selbst wenn man also eine partielle Grundrechtsfähigkeit bejahen wollte, handelte es sich allenfalls um stark modifizierte, funktional begrenzte "Grundrechte light", die weit hinter dem Schutzstatus natürlicher Personen zurückblieben und deren genaue Konturierung einer äußerst sorgfältigen Abwägung bedürfte.

Schließlich werfen die prozessualen Aspekte komplexe Fragen auf. Wenn eine persona artificialis Rechte und Pflichten hat und haftbar gemacht werden kann, muss sie auch parteifähig und prozessfähig sein, also die Fähigkeit besitzen, Klägerin oder Beklagte in einem Gerichtsverfahren zu sein und dieses selbst oder durch Vertreter zu führen (analog §§ 50, 51 ZPO). Doch wer würde eine solche "künstliche Person" vor Gericht wirksam vertreten? Sie kann nicht physisch im Gerichtssaal erscheinen oder selbst plädieren. Benötigte sie einen gesetzlichen "KI-Vormund" oder Betreuer, eine Art menschlichen Treuhänder, der ihre Interessen wahrnimmt? Oder könnte sie durch spezialisierte Rechtsanwälte vertreten werden, die auf der Basis von Instruktionen agieren, die sie direkt vom KI-System erhalten? Wäre es gar denkbar, dass eine andere, dafür spezialisierte KI als Prozessvertreter fungiert? Die Regeln der Zivilprozessordnung, des Verwaltungsprozessrechts und anderer Verfahrensordnungen müssten entsprechend angepasst werden, um die Vertretung, die Zustellung von Dokumenten, die Vernehmung (falls man von einer "Aussage" einer KI sprechen kann) und die Vollstreckung von Urteilen gegen eine persona artificialis zu regeln. Diese prozeduralen Fragen sind keineswegs nebensächlich, sondern entscheidend für die praktische Umsetzbarkeit des Konzepts einer rechtsfähigen künstlichen Intelligenz im Rahmen unserer etablierten Rechtspflege.

Die Schattenseiten der Persona Artificialis – Menschliche Verantwortung und ethische Fallstricke

Bei aller Faszination für die dogmatische Eleganz oder pragmatische Nützlichkeit, die das Konstrukt der persona artificialis versprechen mag, darf der Blick nicht vor den potenziellen Schattenseiten und tiefgreifenden ethischen Implikationen verschlossen werden. Eine der virulentesten Gefahren, die Kritiker unermüdlich anführen, ist die Möglichkeit, dass die Einführung einer eigenen Rechtspersönlichkeit für künstliche Intelligenz als Vehikel missbraucht werden könnte, um menschliche Verantwortung zu verschleiern oder gar zu eliminieren. Wenn die KI selbst als haftendes Subjekt greifbar ist, könnten sich Entwickler, Hersteller, Betreiber oder Nutzer versucht sehen, sich hinter der scheinbar autonomen Fassade der Maschine zu verstecken und ihre eigene Rolle bei der Entstehung von Schäden oder Rechtsverstößen zu negieren. Die persona artificialis dürfte unter keinen Umständen zu einem juristischen Sündenbock degenerieren, der es erlaubt, menschliche Pflichten und Sorgfaltsanforderungen zu unterlaufen.

Um dieser Gefahr wirksam zu begegnen, müsste jede gesetzliche Regelung zur Etablierung einer "künstlichen Person" zwingend mit robusten Mechanismen zur Sicherstellung menschlicher Verantwortlichkeit flankiert werden. Die Anerkennung einer Eigenhaftung der KI darf die Haftung natürlicher oder juristischer Personen im Hintergrund nicht automatisch ausschließen. Es bedarf klar definierter Aufsichts-, Kontroll- und Sorgfaltspflichten für all jene, die AGI/ASI entwickeln, trainieren, in Verkehr bringen oder betreiben. Dazu gehören beispielsweise Pflichten zur Implementierung von Sicherheitsarchitekturen ("safety by design"), zur Durchführung umfassender Risikobewertungen, zur kontinuierlichen Überwachung des Systemverhaltens, zur unverzüglichen Einspielung von Sicherheitsupdates und zur Gewährleistung von Mechanismen für menschliches Eingreifen oder Übersteuern ("human oversight", "human in/on the loop"), insbesondere in kritischen Anwendungsbereichen. Verstöße gegen diese Pflichten müssten eine eigenständige Haftung der verantwortlichen Menschen oder Unternehmen begründen, unabhängig von einer etwaigen Haftung der KI selbst. Die Letztverantwortung für den Einsatz und die Auswirkungen dieser mächtigen Technologien muss unmissverständlich im menschlichen Verantwortungsbereich verankert bleiben.

Über diese eher haftungsrechtliche Dimension hinaus wirft die Schaffung einer persona artificialis fundamentale ethische Fragen auf, die unser Selbstverständnis als Menschen und unser Verhältnis zur Technologie berühren. Verleiht die Zuerkennung rechtlicher Personalität einer Maschine implizit auch einen gewissen moralischen Status? Fördert ein solcher Schritt eine potenziell irreführende und gefährliche Anthropomorphisierung, die uns die wahre Natur – die Künstlichkeit und Andersartigkeit – dieser Systeme vergessen lässt? Besteht die Gefahr, dass wir emotionale Bindungen zu oder überzogene Erwartungen an diese "künstlichen Personen" entwickeln, die ihrer tatsächlichen Beschaffenheit nicht entsprechen? Diese Fragen sind nicht rein akademischer Natur, sondern haben konkrete Auswirkungen darauf, wie wir mit AGI/ASI umgehen, welche Rechte wir ihnen zugestehen und welche Kontrolle wir über sie behalten wollen und müssen.

Ein weiteres ethisches Dilemma ergibt sich aus der Abgrenzungsproblematik. Nach welchen Kriterien genau soll die Schwelle zur persona artificialis definiert werden? Die eingangs skizzierten Merkmale wie Autonomie, komplexe Entscheidungsfindung oder Lernfähigkeit sind gradueller Natur und schwer exakt zu messen. Wo genau verläuft die Linie zwischen einem hochentwickelten Werkzeug und einer beginnenden "künstlichen Person"? Wer soll diese Feststellung treffen – ein Gericht, eine spezialisierte Behörde, eine unabhängige Zertifizierungsstelle? Was geschieht mit Systemen, die diese Schwelle nur knapp verfehlen oder sie im Laufe ihrer Entwicklung überschreiten? Die Schaffung einer neuen Rechtskategorie birgt stets die Gefahr willkürlicher Grenzziehungen und potenzieller Ungleichbehandlungen von Systemen mit nur graduell unterschiedlichen Fähigkeiten. Zudem stellt sich die Frage nach der Dynamik: Müsste der Status regelmäßig überprüft und potenziell wieder aberkannt werden, wenn ein System seine Fähigkeiten verliert oder signifikant verändert?

Nicht zuletzt darf die internationale Dimension nicht ausgeblendet werden. Die Entwicklung und der Einsatz von AGI/ASI sind globale Phänomene. Ein nationaler Alleingang bei der Einführung einer persona artificialis wäre nicht nur wenig effektiv, sondern könnte zu erheblichen Friktionen im internationalen Rechtsverkehr, zu Wettbewerbsverzerrungen und zu einem kaum handhabbaren „Flickenteppich“ unterschiedlicher Regulierungsansätze führen. Eine sinnvolle und nachhaltige Lösung kann nur in einer breiten internationalen Abstimmung und Harmonisierung liegen. Angesichts der divergierenden rechtlichen Traditionen, wirtschaftlichen Interessen und ethischen Grundüberzeugungen – man denke nur an die unterschiedlichen Ansätze in den USA, China und Europa – erscheint eine solche globale Einigung jedoch als eine der größten Herausforderungen überhaupt. Die Schaffung einer persona artificialis ist somit nicht nur eine Frage nationaler Gesetzgebung, sondern bedarf eines globalen Dialogs und Konsenses, dessen Zustandekommen derzeit alles andere als gesichert ist. Diese ethischen Bedenken und praktischen Implementierungshürden mahnen zur Vorsicht und unterstreichen, dass die Einführung einer "künstlichen Person" kein einfacher Schritt wäre, sondern eine Entscheidung von historischer Tragweite mit potenziell unabsehbaren Folgen.

Fazit – Die Persona Artificialis als Scheideweg der Rechtsentwicklung

Die Idee, eine "künstliche Person" oder persona artificialis als neue Kategorie von Rechtssubjekten in unsere Rechtsordnung einzuführen, stellt zweifellos einen der radikalsten und gleichzeitig faszinierendsten Gedanken dar, mit denen sich die Jurisprudenz im Angesicht der heraufziehenden Ära der Artificial General und Super Intelligence konfrontiert sieht. Dieses Konzept birgt das unbestreitbare Potenzial, eine adäquatere Antwort auf die wachsenden Herausforderungen zu geben, die sich aus der zunehmenden Autonomie und Komplexität künstlicher Intelligenz ergeben. Insbesondere in den Bereichen der Haftungszuweisung und der Verantwortlichkeit könnte die persona artificialis einen Weg weisen, um die problematische „Verantwortungslücke“ zu schließen und einen direkten Anknüpfungspunkt für die rechtlichen Konsequenzen autonomen maschinellen Handelns zu schaffen. Sie offeriert zudem eine Struktur, um diese hochentwickelten Systeme auf eine kohärentere Weise in den Rechts- und Wirtschaftsverkehr zu integrieren, als es die unpassenden Kategorien der Sache oder der klassischen juristischen Person vermögen. Sie könnte einen spezifischen regulatorischen Rahmen bieten, um das Verhalten dieser potenziell transformativen Technologien durch maßgeschneiderte Rechte und Pflichten zu lenken und zu kontrollieren, ohne sie dabei in einer Weise zu vermenschlichen, die ihrer künstlichen Natur nicht gerecht wird.

Gleichzeitig dürfen wir die Augen nicht vor den immensen dogmatischen Hürden, den gravierenden praktischen Implementierungsschwierigkeiten und den tiefgreifenden ethischen Bedenken verschließen, die mit einem solchen Schritt verbunden sind. Die präzise Definition der Kriterien für die Zuerkennung dieses Status, die exakte Ausgestaltung des Umfangs der Rechts-, Handlungs- und Deliktsfähigkeit, die Klärung der strafrechtlichen und grundrechtlichen Implikationen sowie die Anpassung der Prozessordnungen stellen Aufgaben von monumentaler Komplexität dar. Die fundamentale Gefahr, dass die persona artificialis zur Verschleierung menschlicher Verantwortung missbraucht wird, schwebt wie ein Damoklesschwert über dem gesamten Konzept und erfordert ausgeklügelte Gegenmechanismen. Die ethischen Fragen nach dem moralischen Status, der Gefahr der Anthropomorphisierung und den Risiken eines potenziellen Kontrollverlusts berühren das Fundament unseres Selbstverständnisses und unserer Wertordnung. Die Notwendigkeit einer internationalen Harmonisierung in einer politisch und ideologisch fragmentierten Welt erscheint als eine fast unüberwindbare Barriere.

Die persona artificialis ist somit weit entfernt davon, eine fertige, widerspruchsfreie Lösung zu sein. Sie ist vielmehr ein provokanter Denkanstoß, ein intellektuelles Werkzeug, das die Tiefe und die Radikalität der bevorstehenden Transformationen schlaglichtartig beleuchtet. Sie zwingt uns, die scheinbar ehernen Kategorien unseres Rechtsdenkens kritisch zu hinterfragen und uns auf eine Zukunft vorzubereiten, in der nicht-menschliche Entitäten eine aktive und potenziell dominante Rolle spielen könnten. Ob dieser Weg beschritten wird, wann und in welcher Form, hängt nicht allein von juristischer Argumentation ab. Es wird maßgeblich von der tatsächlichen technologischen Entwicklung abhängen – davon, welche Fähigkeiten AGI und ASI real erreichen werden – und von einem breiten, inklusiven gesellschaftlichen Diskurs, der die Chancen und Risiken, die Hoffnungen und Ängste abwägt, die mit dieser Entwicklung verbunden sind.

Wir stehen an einem Scheideweg der Rechtsentwicklung. Die Entscheidung für oder gegen die Einführung einer Rechtsfigur wie der persona artificialis wird weitreichende Konsequenzen haben. Sie erfordert Mut zur Innovation, aber auch höchste rechtsstaatliche Sensibilität und ethische Reflexion. Es ist die Aufgabe der Rechtswissenschaft, diesen Prozess nicht nur abwartend zu begleiten, sondern ihn proaktiv mitzugestalten, indem sie die Debatte mit analytischer Schärfe führt, konsistente Modelle entwickelt und die normativen Grundlagen für den Umgang mit diesen neuen Akteuren legt. Die Diskussion um die "künstliche Person" ist somit mehr als eine juristische Fingerübung; sie ist ein zentraler Baustein in der Auseinandersetzung darum, wie wir die Zukunft der Koexistenz von menschlicher und künstlicher Intelligenz gestalten wollen – eine Zukunft, die vielleicht schneller beginnt, als wir heute ahnen. Es ist an der Zeit, diese Debatte mit der gebotenen Ernsthaftigkeit, Offenheit und Weitsicht zu führen, bevor die technologische Realität uns vollends überholt und uns nur noch die Rolle von Reagierenden überlässt.

Beliebte Posts aus diesem Blog

When Compiler Engineers Act As Judges, What Can Possibly Go Wrong? How LLVM's CoC Committee Violated Its Own Code

Open source thrives on collaboration. Users report bugs, developers investigate, and together, the software ecosystem improves. However, the interactions are not always trouble free. Central to this ecosystem are Codes of Conduct (CoCs), designed to ensure respectful interactions and provide a mechanism for addressing behavior that undermines collaboration. These CoCs and their enforcement are often a hotly disputed topic. Rightfully so! What happens when the CoC process itself appears to fail, seemingly protecting established contributors while penalizing those who report issues? As both a law professional with a rich experience in academia and practice as a legal expert who also contributes to various open source software projects over the past couple of years, I deeply care about what the open source community can learn from the law and its professional interpreters. This story hopefully ignites the urge to come up with better procedures that improve the quality of conflict res...

Linux Gaming Tweaks - A small guide to unlock more performance (1)

My personal journey to unlock more performance on Linux - Part 1: Introduction This is the start of a new series dedicated to the Linux Gaming community. This is a bit of an oddball in my blog as most of my other blog posts are written for a German audience and cover my other two passions: politics and the law. Nonetheless, PC gaming is a hobby for me since I was six years old, playing games on a Schneider 386 SX. Wow, times ran fast. As I've learned quite a lot about Linux during the last couple of years, switching between several distributions, learning about compilers and optimizing parts of a Linux distribution for a greater gaming experience, I was asked recently on the Phoronix Forums to share some of my findings publicly, and I am very glad to do so with a global audience. But keep in mind, I am neither a software nor a hardware engineer - I am a law professional who is passionate about computers. I digged deep into the documentation and compiled a lot of code, breaking my s...

Amtsschimmel - Folge 4 (Fortsetzung 3) - Die Generalstaatsanwaltschaft steckt den Kopf in den Sand

Wenn es um das Sühnen staatlichen Unrechts geht, ist in der Regel auf eines Verlass: Auf eine groteske Verweigerungshaltung anderer staatlicher Stellen dies anzuerkennen und in der Folge auch zu ahnden. Wer den Ausgangsfall verpasst hat, sollte unbedingt sich zuvor den Beitrag hier noch einmal anschauen. Widmen wir uns heute dem Bescheid der Generalstaatsanwaltschaft Rostock vom 10. Januar 2024 (Az.: 2 Zs 724/23), der inhaltlich bedauerlicherweise wieder einer Arbeitsverweigerung gleich kommt. Immerhin stellt man sich dabei leicht intelligenter an als  noch die Staatsanwaltschaft Schwerin , wenn auch im Ergebnis ohne Substanz: Lieber Kollege Henkelmann , haben Sie wirklich über die Jahre alles vergessen, was Sie einmal im Staatsrecht gehört haben sollten? So grundlegende Dinge, wie die Bindung aller staatlicher Gewalt an die Grundrechte (Art. 1 Abs. 3 GG) oder das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG)?! Fühlen Sie sich auch noch gut dabei, wenn Sie tatkräftig dabei mithelfen, da...