Sagen kostede Air Canada flere hundrede dollar, men endnu vigtigere kan den danne præcedens for fremtidige sager om kunstig intelligens, der agerer kundeservice, skriver CBS News.
Flyselskabet skal refundere en passager, som for to år siden købte en billet til sin bedstemors begravelse i den tro, at hvis han betalte fuld pris, kunne han senere indgive et krav om rabat i henhold til selskabets dødsfaldspolitik – han skulle bare indgive kravet inden for 90 dage, fortalte en chatbot ham.
Men det var en fejl: Tilbuddet gælder kun, hvis man anmoder om refusion inden rejse.
»Dødsfaldspolitikken tillader ikke refusioner for rejser, som allerede er foretaget. Vores politik er lavet til at give mest mulig fleksibilitet på din kommende rejse i en svær tid,« lyder det på flyselskabets hjemmeside ifølge CBS News.
Det fastholdt selskabet også, da kunden efterfølgende henvendte sig for at få den rabat, som robotten havde lovet ham.
Sagen kom for retten, hvor Air Canada samtidig forsøgte at forklare sig med, at de egentlige regler fremgik af hjemmesiden.
Men den gik ikke: Der blev lagt vægt på, at chatbotten er en del af Air Canadas hjemmeside, og at det ikke er kundens ansvar at skelne mellem, hvad der er korrekt og ukorrekt information på siden.
Således fangede bordet, og selskabet skal punge ud.