Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.
Einsatz von Chatbots durch Unternehmen
Ein Chatbot ist ein Softwareprogramm, das automatisiert und in Echtzeit mit Nutzern kommunizieren kann. Auf Websites werden Chatbots häufig im Kundendienst eingesetzt, um Fragen zu beantworten, Informationen bereitzustellen oder Nutzer zu bestimmten Ressourcen oder Dienstleistungen zu leiten. Sie können rund um die Uhr verfügbar sein, was ihnen einen Vorteil gegenüber menschlichen Mitarbeitern verschafft.
Chatbots haben Ihre Berechtigung, wobei die mitunter sinnentleert platzierten Chat-Möglichkeiten (die auch noch gerne ungefragt aufploppen) echt nervig sein können. Juristisch geht mit dem Einsatz von Chatbots aber immer ein Bataillon von Pflichten einher, ganz vorn steht der Datenschutz – die Haftung kann aber auch Thema werden.
In Deutschland sind beim Einsatz von Chatbots auf Webseiten durchaus rechtliche Rahmenbedingungen zu beachten, so drängen sich auf
- Datenschutz: Nach der Datenschutzgrundverordnung (DSGVO) müssen Nutzerinnen und Nutzer über die Erhebung und Verwendung ihrer Daten informiert werden. Da bei der Nutzung von Chatbots häufig personenbezogene Daten verarbeitet werden, muss eine rechtskonforme Datenschutzerklärung und evt. auch Auftragsverarbeitung vorhanden sein.
- Einwilligung: Wenn ein Chatbot personenbezogene Daten erhebt, muss die Einwilligung des Nutzers eingeholt werden. Diese Einwilligung muss freiwillig und in Kenntnis der Sachlage erfolgen.
- Transparenz: Es sollte klar kommuniziert werden, dass der Nutzer mit einem Chatbot und nicht mit einem menschlichen Mitarbeiter interagiert. So können zum einen Verwirrung und Missverständnisse vermieden werden – zum anderen wird im Regelfall ein kommerzielles Angebot im Sinne des §6 Abs.1 Nr.1 TMG (in Zukunft DDG statt TMG) vorliegen, das als solches zu kennzeichnen ist. Bedauerlich ist, dass der Gesetzgeber in seiner Schläfrigkeit übersehen hat, hier eine ausdrückliche Benennung von KI-Kommunikation einzuführen.
- Sicherheit: Gesammelte Daten müssen sicher aufbewahrt und vor unbefugtem Zugriff geschützt werden.
- Verantwortlichkeit: Der Betreiber der Website ist für die Einhaltung der gesetzlichen Bestimmungen verantwortlich und muss bei Verstößen mit Sanktionen rechnen. Doch, und das ist ja nun der Kern hier: Haftet man auch für falsche Auskünfte?
Der Chatbot als Mitarbeiter?
Das Worst-Case-Szenario bei der Frage nach der Haftung für Chatbots wäre sicherlich, wenn der Chatbot als juristisches Subjekt zu behandelt wäre – wenn das, was er da von sich gibt, dem Unternehmen bzw. dem Unternehmer als eigene Erklärung zuzurechnen wäre. In etwa so, als würde ein Stellvertreter handeln. Davon aber sind wir weit weg.
Das Bedürfnis ist dabei größer als vielen klar ist: Warum sollten etwa nicht in Rahmenbedingungen von den Benutzern zugelassene Bestellungen rechtsverbindlich möglich sein? Wer sich dazu Entscheidet, dass sein Kühlschrank Milch nachbestellt, wenn Sie leer zu gehen droht und sich hinterher ärgert, weil er keine Milch wollte, sollte seine eigene Entscheidung hinterfragen – und nicht die des Kühlschranks.
Jedenfalls setzt alles, was wir rechtlich kennen, eine juristische Autonomie des Handelnden voraus: Bei Vertragsabschlüssen, auch durch einen Stellvertreter, ist die Abgabe einer Willenserklärung erforderlich; das aber setzt die Teilrechtsfähigkeit des autonomen Systems voraus (womit wir bisher nicht bei der philosophisch-juristischen Fragen der Fähigkeit natürlicher Willensbildung sind!). Die klassische Zurechnung des Handelns Dritter (§278 BGB) setzt ausdrücklich Personen voraus und selbst die Zurechnung faktischen Handelns in §56 HGB verlangt nach einer Person (deutlich gemacht durch das „wer“). Auch der Verrichtungsgehilfe in §831 BGB ist eindeutig als Person verlangt, all diese Zurechnungsnormen führen also ins Leere (wenn Sie das alles vertiefen wollen, empfehle ich folgende Literatur: Duden in ZRP 2020, 102; Kainer/Förster in ZfPW 2020, 275; Kaulartz in Leupold/Wiebe/Glossner, IT-Recht, 4. Auflage 2021, Teil 9.6.3 Vertragsrecht, Rn. 9-15; Borges in NJW 2018, 977).
Vertragsrecht verstehen
Keine Grenzen für Chatbots?
Wenn das, was der Chatbot da tut, nicht unmittelbar zurechenbar ist – lockt dann das große Geld? Erfüllt sich der Traum vom Mitarbeiter, der alles tut, was man sagt, Geld einbringt – und für den man keine Haftung hat, wenn es schiefgeht? Bevor der Champagner geöffnet wird, sollte man sich noch das Vertragsrecht ansehen, denn irgendwie bleibt – bei seriösen Geschäftsleuten – dann doch ein mulmiges Gefühl, wenn man es so formuliert.
Der Trick kann darin liegen, weniger an die (juristisch derzeit nicht vorhandene) „Person“ zu denken, sondern vielmehr an das allgemeine Vertragsrecht: Die Frage ist ja weniger, ob man sich das zurechnen lassen muss, was der Bot da äußert, sondern vielmehr, ob das irgendwie Auswirkungen auf vertragliche Vereinbarungen hat. So gilt beim Kaufvertrag etwa mit §434 Abs.3 BGB:
Soweit nicht wirksam etwas anderes vereinbart wurde, entspricht die Sache den objektiven Anforderungen, wenn sie (…) eine Beschaffenheit aufweist, die bei Sachen derselben Art üblich ist und die der Käufer erwarten kann unter Berücksichtigung (…) der öffentlichen Äußerungen, die von dem Verkäufer oder einem anderen Glied der Vertragskette oder in deren Auftrag, insbesondere in der Werbung oder auf dem Etikett, abgegeben wurden (…)
Das Gesetz sieht an der Stelle vor, dass mittelbare Äußerungen Auswirkungen auf den Vertragsinhalt haben könnten – man muss aber nicht lange prüfen, denn 1:1-Kommunikation ist nach gefestigter Auffassung keine „öffentliche Äußerung“ in diesem Sinne! Und gleich wie man zu Chatbots steht. Solange es ein 1:1-Chat ist, wird man hier nicht in den Tatbestand kommen. Im besonders relevanten Pauschalreiserecht dürfte ein Fall wie bei Air Canada schon nicht relevant sein, weil die Art der Informationsgebung nach §651d BGB so klar strukturiert ist, dass eine dümmliche Chat-Auskunft außerhalb der gesetzlichen Formalia liegen wird. Und im Werkvertragsrecht kommt es mit §633 BGB auf die vereinbarte Beschaffenheit hat, wie dargelegt, kann ein Chatbot (derzeit) keine Vereinbarungen treffen und eine vergleichbare Norm zu §434 Abs.3 BGB existiert im Werkvertragsrecht nicht.
Vorsicht vor dem Roboter der nur Quatsch spricht*
Bis hierhin – in dieser sehr kurzen, sehr unwissenschaftlichen aber dafür leserlichen Betrachtung – zeigt sich, dass man sich de facto nach üblichem Denk-Schema nicht zurechnen lassen muss, was der Chatbot quatscht. Aber.
Die vertragsrechtliche Betrachtung ist bis jetzt nicht beendet. Es gibt da noch diese eine kleine Sache. Und die kann sich recht hässlich auswirken.
In Deutschland – und im europäischen Rechtssystem insgesamt – haben Vertragspartner eine Treue- und Rücksichtnahmepflicht, das findet sich gesetzlich normiert in §241 II BGB:
Das Schuldverhältnis kann nach seinem Inhalt jeden Teil zur Rücksicht auf die Rechte, Rechtsgüter und Interessen des anderen Teils verpflichten.
Mit §280 I BGB wird dabei das Verschulden des Vertragspartners, der die Pflichten verletzt, vermutet. Und wenn noch gar kein Vertrag geschlossen wurde, wenn man gerade Informationen sammelt, um dann zu entscheiden, ob ein Vertrag geschlossen wird? Dafür wurde §311 Abs.2 BGB erfunden, der einen Blick wert ist:
Ein Schuldverhältnis mit Pflichten nach § 241 Abs. 2 entsteht auch durch
Da ein Vertragsschluss mit einem autonom agierenden System nicht in Betracht kommt, dürfte §311 Abs.2 Nr.1 BGB ausscheiden – die weiteren Ziffern 2 und 3 aber bieten Anlass nachzudenken. So sollen hier für Ziffer 2 bereits schlichte Informationsgespräche ausreichen und eine Vertragsanbahnung gerade nicht zwingend sein (BeckOK BGB/Sutschet BGB § 311 Rn. 48-50); wobei Ziffer 3 dann eine Auffangfunktion zukommt. Ich möchte hier offen lassen, ob schon Ziffer 2 oder erst Ziffer 3 Anwendung findet – sehe aber erheblichen Anlass dafür, dass ein (dafür eingerichteter!) Chatbot den Anwendungsbereich des §311 Abs.2 BGB eröffnen kann. Insbesondere dürfen Nutzer erwarten, dass ein extra angebotener Kommunikationskanal mit autonomer Reaktionsmöglichkeit wenigstens dem Stand der Technik entspricht.
An dieser Stelle eröffnet sich damit die Möglichkeit von Schadenersatz, gleich ob schon ein Vertrag geschlossen wurde oder man sich nur diesbezüglich informiert. Ein gut trainierter bzw. programmierter Chatbot wird dabei in der Lage sein, sensible Fragen zu erkennen und hier dann auf eine Nachfrage bei einem Kundenberater drängen – dieses Vorgehen dürfte dem eigenen Interesse zur Haftungsvermeidung am ehesten dienen (?)
* Der „Roboter der gerne Quatsch erzählte“ ist eine Kurzgeschichte von Fei Dao, u.a. im Sammelband „Zerbrochene Sterne“ in Deutschland zu finden; es geht darum, wie jemand liebenswert und weise sein kann, gerade durch das Erzählen von Quatsch.
Der Chatbot, der gerne Unsinn produziert, kann durchaus Geld kosten – derzeit nur theoretisch, in Zukunft ganz konkret!
Wofür haftet man denn da?
Nun habe ich oben herausgestellt, dass eigentlich gar nichts zugerechnet wird – und für verbreitete Vertragstypen klargestellt, dass die Inhalte des Vertrages sich durch Chatbots nicht bestimmen lassen. Was soll dann die Rücksichtnahmepflicht bedeuten, wo liegt hier die Haftung des Nutzers des Chatbots? (Achtung: NUTZER ist hier nicht der Anwender der Webseite, sondern der Webseitebetreiber, der den Service gegenüber dem Anwender „nutzt“!).
Die Betrachtung wird verschoben, man ist zwar nicht im Vertrags- bzw. Schuldverhältnis. Es geht aber nicht um vertragliche Inhalte, sondern die allgemeine Rücksichtnahmepflicht, die hier möglicherweise durch die schlechte Auswahl oder schlechte Pflege eines Chatbots verursacht wurde. Die Vermutung des §280 I BGB hilft dem Nutzer dabei ein wenig, wobei die größere Hürde derzeit der Nachweis der Kausalität zwischen Verschulden und Schadenseintritt sein wird; aber auch bei der Bezifferung eines konkreten Schadens (wenn nicht, wie bei Air Canada, die Auskunft eine unmittelbare monetäre Frage betraf). Damit sind obige Ausführungen dem Grunde nach theoretischer Natur.
Doch: Auch das wird sich ändern, zeitnah ändern. Mit der KI-Haftungsrichtlinie kommen erhebliche Anforderungen auf diejenigen zu, die KI entwickeln, vertreiben – und nutzen. Bei der Kausalität etwa hilft ein Anspruch auf Offenlegung, der auch gegenüber Nutzern von KI besteht (Art. 3 Abs.1 KI-Haftungsrichtlinie-E) und welche die Vermutung hinsichtlich der Sorgfaltspflichtverletzung bei mangelnder Offenlegung begründet (Art. 3 Abs.5 KI-Haftungsrichtlinie-E). Damit wird der Weg zur Vermutung eines Verschuldens eröffnet (Art. 4 Abs.1 KI-Haftungsrichtlinie-E). Die Vereinfachungen erweitern dann das oben beschriebene System der schon jetzt bestehenden theoretischen Haftung.
Fazit zur Haftung für Chatbots
Nach hiesiger Betrachtung existiert schon jetzt eine Haftung für Chatbots, ja. Diese ist derzeit eher theoretischer Natur, aber nicht von der Hand zu weisen. Letztlich wird sich durch faktische Fragen wie Nachweis von Kausalität und konkret bezifferbarem Schaden der Anwendungsbereich stark in Grenzen halten.
Wer derzeit Chatbots auf seiner Webseite einsetzt, sollte gleichwohl reflektieren, wie sinnvoll dies ist: In vielen Fällen sind es lästige Overheads, die an die frühen Zeiten des HTML erinnern, als umgesetzt wurde, was nur umzusetzen war.
Spätestens mit der KI-Richtlinie aber wird sich dies weiterentwickeln und es steht – nicht nur bei Chatbots – ein ernsthaftes Haftungsszenario im Raum. Frühzeitig zu überlegen, wie sinnvoll solche Lösungen im konkreten Einzelfall sind, und welche Kosten man für professionelle Lösungen aufbringen muss, ist schon heute ratsam. Dabei sind auch komplexere Betrachtungen ratsam – etwa dahin gehend, ob die Verlagerung von kommunikativen Prozessen auf (schlechte) Chatbots als Dark-Patterns einzustufen sind.
- Russische Militärische Cyber-Akteure nehmen US- und globale kritische Infrastrukturen ins Visier - 11. September 2024
- Ransomware Risk Report 2024 von Semperis - 11. September 2024
- Künstliche Intelligenz in Deutschland – Status, Herausforderungen und internationale Perspektiven - 10. September 2024