Wer haftet, wenn die KI Schaden anrichtet?
In immer mehr Lebensbereichen macht sich die künstliche Intelligenz breit und ändert Arbeitsweisen, Produktionsprozesse und die Kommunikation – inklusive aktueller Haftungsfragen. Nachdem die Europäische Union überraschenderweise den Vorschlag zu einer Richtlinie zu diesem Thema vorerst zurückgezogen hat, bleibt die rechtliche Situation weiterhin schwierig.
Bereits Ende 2022 hatte die EU-Kommission einen Entwurf präsentiert, der im Rahmen einer Richtlinie rechtliche Sicherheit schaffen sollte und für Verbraucher und Unternehmen Klarheit schaffen sollte zu der Frage, wer in die Haftung genommen wird, wenn künstliche Intelligenz Schäden verursacht.
Die damalige Richtlinie beinhaltete die Einführung der sogenannten „Kausalitätsvermutung“.
Im Kern bedeutete dies, dass ein Geschädigter nicht genau nachzuweisen hätte, wie und an welcher Stelle eine KI-Schaden angerichtet hat. Die Begründung wurde gleich mitgeliefert: Angesichts hochkomplexer Prozesse, die zumeist in „Blackboxes“ ablaufen, sei es Verbrauchern und Unternehmen nicht zuzumuten, in die Prozessdetails vorzudringen. Somit verlagerte der Richtlinien-Entwurf die Verantwortung und damit die Haftung auf die Betreiber sogenannter „Hochrisiko-KI-Systeme“. Der „Hochrisiko-KI-Anwender“ muss also die Haftung übernehmen, wenn der Einsatz dieser KI zu Schäden führt.
Rückzug der EU-Kommission: Unterschiedliche nationale Regelungen gelten
Nachdem die Mitgliedstaaten auf EU-Ebene keine Einigung erzielen konnten, zog die EU-Kommission den Vorschlag im Februar dieses Jahres kurzerhand zurück. Was bleibt, sind eine uneinheitliche Handhabe und eine Fülle nationaler Regelungen. Viele dieser nationalen Regelungen reduzieren die Frage der Haftung beim Einsatz von KI rechtlich auf bestehende Gesetze zur Produkthaftung. Das heißt unterm Strich, dass Prozesse, die von einer KI gesteuert werden, genauso bewertet werden wie beispielsweise beim Einsatz herkömmlicher Maschinen. Entscheidend ist, dass ein Unternehmen ein „Produkt“ als marktfähig in Umlauf bringt und in der Folge in allen rechtlichen Bereichen über die Produkthaftung für dieses Produkt zur Verantwortung gezogen wird. Wird ein Verbraucher beispielsweise durch das Nutzen eines solchen Produkts verletzt, ist es unerheblich, ob der Schaden durch einen Fehler der KI entstanden ist oder beispielsweise durch einen Materialfehler.
Produkthaftungsgesetz (ProdHaftG) als vorübergehende Lösung in Deutschland
Dass die Zuordnung Von KI-Systemen in die Kategorie „Produkt“ sich als schwierig erweist, liegt unter anderem daran, dass künstliche Intelligenz einen lernenden Prozess durchläuft, also niemals im Sinne eines Produkts „fertig“ und physisch greifbar ist. Das Produkthaftungsgesetz wurde ursprünglich für Produkte im klassischen, gegenständlichen Wortsinn verfasst und bezieht sich im Wortlaut auf „bewegliche Sachen“. Software, Cloudbasierte Services oder KI-Anwendungen sind unter diesem Begriff kaum zu fassen. Gleichwohl haftet nach dem Produkthaftungsgesetz (§ 1 ProdHaftG) der Hersteller eines fehlerhaften Produkts auf Schadensersatz, wenn:
- dadurch ein Mensch verletzt oder getötet wird oder
- dadurch eine Sache beschädigt wird, die normalerweise für den privaten Gebrauch bestimmt ist oder es sich um eine verschuldensunabhängige Gefährdungshaftung handelt.
Der Hersteller haftet unabhängig davon, ob ihm ein Fehler nachgewiesen werden kann.
Über die Reform der Produkthaftungsrichtlinie aus dem Jahr 2024 sollte hier ein Schritt in die richtige Richtung absolviert werden. In der Neufassung werden Software und KI-generierte Produkte ausdrücklich mit einbezogen. So ist nach aktueller Rechtslage ein Unternehmen auch dann in die Produkthaftung zu nehmen, wenn die verwendete KI unvorhersehbare Entscheidungen trifft, durch die ein Produkt, unabhängig davon, ob gegenständlich oder nicht, Schäden verursacht. Wenn ein KI-System, beispielsweise bei einer KI-gesteuerten Operation im Krankenhaus, unvorhersehbar agiert und den Patienten schädigt, ist dies eindeutig dem Hersteller des Operationsgeräts zuzuordnen. In diesem Fall können Gerichte annehmen, dass ein Produktfehler vorlag, solange der Hersteller nicht das Gegenteil beweist.
Fazit: Durch die Neu-Definition des Produktbegriffs werden etliche Bereiche vorübergehend rechtlich geregelt. Was aber noch fehlt, sind durch KI verursachte Schäden, die nicht „vergegenständlicht“ werden können, wie beispielsweise Irrtümer von Chatbots, oder KI-generierte Inhalte textlicher, sprachlicher oder grafischer Art, die Persönlichkeitsrechte verletzen. Hier klafft weiterhin eine juristische Lücke, die schnell geschlossen werden sollte.

Abonnieren Sie unseren kostenlosen Datenschutz-Fachinformationsdienst und bleiben Sie stets aktuell informiert:
- Datenschutz-Fokusthemen
- Veröffentlichungen der Behörden
- Relevante Gerichtsentscheidungen
Als Dankeschön für Ihre Anmeldung erhalten Sie eine Gratis-Mustervorlage für die Umsetzung eines Löschkonzepts.
Datenschutz & Datensicherheit Das Fachinformationsportal
- Aktuelles Fachwissen
- Rechtssichere Entscheidungen
- Praktische Arbeitshilfen
- Schritt-für-Schritt-Anleitungen
- Sofort einsetzbare Schulungen