Unternehmen setzen zunehmend sogenannte Chatbots ein, um mit ihren Kunden zu interagieren. Diese künstliche Intelligenz ermöglicht schnelle Antworten auf Kundenanfragen. Doch was passiert, wenn der Chatbot falsche Informationen gibt?
Ein kanadisches Gericht, das Civil Resolution Tribunal of British Columbia (Urteil vom 14.02.2024 - BCCRT 149) entschied, dass sich Air Canada für die irreführende Auskunft seines Chatbots verantworten muss.
Ein tragischer Anlass veranlasste einen Mann, auf der Website von Air Canada nach Flügen von Vancouver nach Toronto zu suchen. Nach dem Tod seiner in Ontario lebenden Großmutter interessierte er sich für die angebotenen Trauertarife, vergünstigte Flüge für Hinterbliebene. Hierbei kam er mit einem Chatbot-Programm der Fluggesellschaft in Kontakt.
Der Chatbot teilte dem Kunden fälschlicherweise mit, dass er reguläre Tickets kaufen und innerhalb von 90 Tagen eine Rückerstattung beantragen könne, um den ermäßigten Preis zu erhalten. Im Vertrauen darauf buchte der Mann die Tickets, folgte den Anweisungen des Chatbots und reichte später einen Erstattungsantrag ein, den Air Canada ablehnte.
Das Civil Resolution Tribunal of British Columbia hat entschieden, dass Air Canada die irreführende Aussage des Chatbots zu verantworten hat. Das Unternehmen wurde dazu verurteilt, dem Kunden eine Rückerstattung in Höhe von 650,88 Dollar sowie Anwalts- und Gerichtskosten zu zahlen.
Das Gericht argumentierte, dass die Aussagen des Chatbots mit den Informationen auf der Website gleichzusetzen seien und daher für die Fluggesellschaft bindend seien. Die Argumentation von Air Canada, den Chatbot mit einem menschlichen Mitarbeiter zu vergleichen, wurde zurückgewiesen. Die nötige Sorgfalt, um die Richtigkeit der Aussagen des Chatbot-s zu gewährleisten, sei nicht eingehalten worden.
Der Fall wirft Fragen zur rechtlichen Verantwortlichkeit von Unternehmen im Zusammenhang mit Chatbots auf. Eine ähnliche Rechtsprechung ist auch i Deutschland denkbar, wenn Unternehmen nicht ausreichend sicherstellen, dass die Aussagen ihrer Chatbots korrekt sind. Die Entscheidung zeigt, dass Unternehmen eine Sorgfaltspflicht haben, um sicherzustellen, dass ihre künstlichen Assistenten korrekte Informationen liefern.
Unternehmen sollten sich bewusst sein, dass die Aussagen von vorprogrammierten Chatbots als verbindlich angesehen werden können und dass falsche Aussagen rechtliche Konsequenzen haben können.
In einer Zeit, in der die Automatisierung von Dienstleistungen zunimmt, betont dieses Urteil die Notwendigkeit einer effektiven Kontrolle und Überwachung von Chatbots, um rechtlichen Problemen vorzubeugen.
Autor: Diplomjurist Benjamin Schmidt - externer Datenschutzbeauftragter (TÜV) - Leiter Team E-Commerce
Bildquelle: Bild von mohamed nohassi auf unsplash.com