The Jury Experience in Frankfurt am Main - Tod durch KI: Wer zahlt den Preis? (Achtung Spoiler!)

[Werbung] Bereits zum zweiten Mal war ich bei The Jury Experience von Fever. Diesmal sogar alleine, da ich das letzte Ticket ergattert habe. Das zeigt ja schon, dass es mir gut gefallen hat. Diesmal gehe ich näher auf den Fall ein, daher gibt es eine klare Spoilerwarnung!


The Jury Experience - Tod durch KI: Wer zahlt den Preis?

Veranstaltungsort: ZOOM Frankfurt am Main

Preise: Variieren je nach Sitzkategorie.

Beschreibung: Du wurdest zur Geschworenenpflicht berufen. Tauche ein in ein spannendes Gerichtsdrama, in dem das Publikum auf der Geschworenenbank sitzt. Höre Zeugenaussagen, analysiere Beweise und entscheide dich schließlich: schuldig oder unschuldig?

Moralisches Dilemma #1: Ein selbstfahrendes Auto weicht einem Zusammenstoß aus … und nimmt dabei einem Menschen das Leben. Nun musst du entscheiden, wer dafür verantwortlich ist. 

 


The Jury Experience in Frankfurt am Main - Tod durch KI: Wer zahlt den Preis?
 


Meine Meinung: Der Ablauf war nahezu identisch, auch wenn der Einlass etwas später stattfand. Bereits über eine Stunde vorher hatte sich schon eine riesige Schlange gebildet. Drinnen wird man von den Mitarbeitern wieder entsprechend der gebuchten Kategorie platziert. Ich habe jedoch meinen Platz nochmal gewechselt um bessere Sicht zu haben. In der Zone B habe ich diesmal 45,68 € bezahlt und das ist eine echte Hausnummer. Zum Vergleich: Das letzte Mal kostete ein Ticket eine Kategorie schlechter (Zone C) 33,00 €. Diesmal haben wir übrigens keine bedruckten Bierdeckel zur Abstimmung erhalten, sondern haben das einfach per Handzeichen gemacht. Die Schauspieler sind ebenfalls dieselben.

Der Fall: Ein selbstfahrendes Auto weicht einem Dritten aus, der ein kritisches Überholmanöver macht. Durch das Ausweichen wird ein Fahrradfahrer überfahren. Die Staatsanwaltschaft bringt hervor, dass der Sicherheitschef geraten habe, die Fahrzeuge einer weiteren Testreihe zu unterziehen, bevor diese in den Straßenverkehr gelassen werden. Die Verteidigung argumentiert, dass sich an alle Gesetze halten wurde.

Vor dem Urteil der Jury durften wir wieder 2 weitere Dinge entscheiden: Ob ein gewisses Beweismittel zugelassen wird und welche letzte Frage der Angeklagten gestellt werden soll.

Insgesamt empfand ich den Fall als kürzer und weniger komplex. Der Blick auf die Uhr bestätigte mich. Knapp 15 Minuten weniger als beim ersten Fall!

Bei dieser Verhandlung wurde die Angeklagte zu 55 % schuldig gesprochen, obwohl zu Anfang die meisten für einen Freispruch waren. Der Genauigkeit gegenüber bin ich aber etwas skeptisch, da die Mitarbeiter für die Auszählung zuständig waren.

Eine offizielle Auflösung gibt es wieder nicht und man nimmt das Thema als Gesprächsstoff mit nach Hause.

Passend zum Thema habe ich aber die KI dazu befragt und das ist die Antwort:

 

1. Die Prüfung des § 222 StGB (Fahrlässige Tötung)

Damit die Entwicklerin verurteilt werden kann, müssen vier Elemente kumulativ vorliegen:

A. Erfolgseintritt und Kausalität 
Check: Der Radfahrer ist tot, und ohne die Programmierung der KI wäre er nicht überfahren worden. Die Kausalität ist gegeben.

B. Objektive Sorgfaltspflichtverletzung
Dies ist der Knackpunkt.

Argument für Unschuld: Die Entwicklerin hat alle gesetzlichen Standards eingehalten. Wenn der Gesetzgeber das Inverkehrbringen unter diesen Bedingungen erlaubt hat, kann die Einhaltung dieser Normen nicht gleichzeitig eine „Sorgfaltswidrigkeit“ sein.

Argument für Schuld: Der Hinweis des Sicherheitschefs. Wenn der Stand der Technik (Wissenschaft) weiter war als das Gesetz und sie wusste, dass das System in dieser spezifischen Situation (Ausweichen vs. Radfahrer) versagt, hat sie ihre Sorgfaltspflicht gegenüber dem Leben Dritter verletzt.

C. Objektive Vorhersehbarkeit 

War es absehbar, dass die KI so reagiert? Da der Sicherheitschef gewarnt hat, lautet die Antwort: Ja. Das Risiko war bekannt.

D. Objektive Zurechenbarkeit (Pflichtwidrigkeitszusammenhang)
Hätte der Tod auch bei pflichtgemäßem Alternativverhalten (also 6 Monate mehr Testen) vermieden werden können? Wenn ja, ist es ihr zuzurechnen.

2. Das Problem der "Dilemma-Situation" 
Im deutschen Recht gibt es keine Erlaubnis zur Aufrechnung von Leben gegen Leben.

Die KI hat eine Güterabwägung vorgenommen (Ausweichen, um Kollision mit dem Dritten zu vermeiden, dabei den Radfahrer getroffen).

Rechtlich gilt: Ein Leben darf nicht geopfert werden, um ein anderes zu retten. Eine Programmierung, die aktiv einen Unbeteiligten (Radfahrer) opfert, um eine andere Kollision zu vermeiden, ist rechtlich eigentlich unzulässig.

3. Warum der Freispruch dennoch wahrscheinlich ist 
Die Mehrheit wird vermutlich auf Unschuld entscheiden, basierend auf zwei Prinzipien:

Erlaubtes Risiko: Die Teilnahme am Straßenverkehr ist generell gefährlich. Wenn staatliche Stellen das System zugelassen haben, wird das Risiko als „sozialadäquat“ eingestuft. Die Entwicklerin handelt im Rahmen des erlaubten Risikos.

Individuelle Schuld: Man müsste ihr persönlich vorwerfen können, dass sie bewusst ein mangelhaftes Produkt freigegeben hat. Da sie sich an alle Gesetze hielt, fehlt es oft am Vorwurf der persönlichen Vorwerfbarkeit.

Zusammenfassung der Urteilsbegründung 
„Die Angeklagte handelte innerhalb des erlaubten Risikos. Zwar hat der Sicherheitschef zu weiteren Tests geraten, doch die Einhaltung sämtlicher staatlicher Zulassungsnormen indiziert ein sorgfaltsgemäßes Verhalten. Ein strafrechtlicher Vorwurf lässt sich nicht allein aus der Tatsache ableiten, dass eine sicherere Alternative theoretisch möglich gewesen wäre, solange der gesetzliche Mindeststandard gewahrt blieb.“

Fazit: Auch dieses Mal verging die Zeit wie im Flug und ich habe mich gut unterhalten gefühlt. Einzig der Preis mit der verminderten Qualität stört im Gesamtbild. 

*Werbung 
***Keine Kooperation