Firmy są odpowiedzialne za informacje udzielane przez chatboty.

Firma zapłaci za "kłamstwo" chatbota. Precedensowy wyrok

Źródło zdjęć: © canva
Marta Grzeszczuk,
17.02.2024 10:05

Pasażer Air Canda został wprowadzony w błąd przez chatbota na stronie firmy. Linia lotnicza próbowała przekonywać, że nie ponosi za to odpowiedzialności.

W dniu śmierci babci Jake Moffat z Vancouver w Kanadzie odwiedził stronę internetową Air Canada, aby zarezerwować lot do Toronto. Chciał dowiedzieć się, jak działają "stawki żałobne" Air Canada, więc poprosił chatbota Air Canada o wyjaśnienie. Chatboty to programy symulujące rozmowę, które coraz częściej są używane przez korporacje do komunikacji z klientami. Chatbot linii lotniczej odpisał Moffatowi:

Jeśli musisz odbyć podróż natychmiast lub już ją odbyłeś i chcesz zgłosić swój bilet do obniżonej stawki żałobnej, zrób to w ciągu 90 dni od daty wystawienia biletu, wypełniając nasz formularz wniosku o zwrot kosztów biletu.

- Air Canada Chatbot

Okazało się, że chatbot podał nieprawdziwą informację, zachęcając Moffatta do natychmiastowej rezerwacji lotu, a następnie zażądania zwrotu pieniędzy w ciągu 90 dni. W rzeczywistości polityka Air Canada wyraźnie stwierdzała, że linie lotnicze nie zapewniają zwrotu kosztów podróży żałobnej po zarezerwowaniu lotu. Moffatt postąpił zgodnie z zaleceniami chatbota i wnioskował o zwrot pieniędzy. Był zszokowany, gdy prośba została odrzucona.

Linia lotnicza utrzymywała, że ponieważ odpowiedź chatbota w innym miejscu zawierała link do strony z rzeczywistą polityką podróży w żałobie, Moffatt powinien był wiedzieć, że "stawki żałobne" nie są naliczane wstecz. Zamiast zwrotu pieniędzy, Air Canada obiecała zaktualizować chatbota i zaoferowała Moffattowi voucher o wartości 200 dolarów kanadyjskich do wykorzystania na przyszłe podróże.

Klient twierdził, że firma jest odpowiedzialna za "słowa" chatbota

Moffatt nie przyjął vouchera i złożył skargę w kanadyjskim Trybunale Rozwiązywania Sporów Cywilnych. W pozwie nie zgadzał się z tym, że według Air Canada nie powinien zaufać chatbotowi, a linia lotnicza nie chce ponosić odpowiedzialności za wprowadzające w błąd informacje, ponieważ "chatbot jest odrębnym podmiotem prawnym, który jest odpowiedzialny za swoje własne działania". Eksperci komentowali dla portalu vancouversun.com, że sprawa Moffatta wydaje się być pierwszym przypadkiem, w którym kanadyjska firma próbowała argumentować, że nie ponosi odpowiedzialności za informacje dostarczone przez jej chatbota.

Członek rozstrzygającego spór trybunału Christopher Rivers nazwał linię obrony obraną przez linię lotniczą "kuriozalną". Napisał: "Air Canada twierdzi, że nie może zostać pociągnięta do odpowiedzialności za informacje dostarczone przez jednego z jej pracowników lub przedstawicieli - w tym chatbota. Nie wyjaśnia, dlaczego tak uważa ani dlaczego zakładka zatytułowana 'Podróż w żałobie' miałaby z natury być bardziej godna zaufania niż chatbot na tej samej stronie internetowej". Trybunał orzekł, że Moffet nie miał obowiązku sprawdzać informacji uzyskanej w jednej części strony w innych jej zakładkach.

Sprawa została rozstrzygnięta na korzyść pasażera. Trybunał orzekł, że Moffatt był uprawniony do częściowego zwrotu 650 dolarów kanadyjskich (ok. 1,9 tys. zł) z pierwotnej ceny biletu, która wynosiła 1,640 tys. dolarów (ok. 4,9 tys. zł). Zasądził także dodatkowe odszkodowania pokrywającego odsetki oraz opłaty sądowe pasażera. Air Canada poinformowała, że zastosuje się do wyroku i uważa sprawę za zamkniętą.

Źródło: arstechnica.com

Co o tym myślisz?
  • emoji serduszko - liczba głosów: 0
  • emoji ogień - liczba głosów: 1
  • emoji uśmiech - liczba głosów: 0
  • emoji smutek - liczba głosów: 0
  • emoji złość - liczba głosów: 0
  • emoji kupka - liczba głosów: 1