Après des mois de résistance, Air Canada a été forcé pour rembourser partiellement un passager en deuil qui a été induit en erreur par un chatbot de la compagnie aérienne expliquant de manière inexacte la politique de voyage en cas de deuil de la compagnie aérienne.
Le jour du décès de la grand-mère de Jake Moffatt, Moffat a immédiatement visité le site Web d'Air Canada pour réserver un vol de Vancouver à Toronto. Incertain du fonctionnement des tarifs de deuil d'Air Canada, Moffatt a demandé au chatbot d'Air Canada de s'expliquer.
Le chatbot a fourni des informations inexactes, encourageant Moffatt à réserver un vol immédiatement, puis à demander un remboursement dans les 90 jours. En réalité, la politique d'Air Canada stipule explicitement que la compagnie aérienne ne remboursera pas les voyages en cas de deuil une fois le vol réservé. Moffatt a consciencieusement tenté de suivre les conseils du chatbot et de demander un remboursement, mais a été choqué que la demande ait été rejetée.
Moffatt a tenté pendant des mois de convaincre Air Canada qu'un remboursement était dû, partageant une capture d'écran du chatbot qui affirmait clairement :
Air Canada a fait valoir que, comme la réponse du chatbot était liée à une page contenant la politique réelle en matière de voyages en cas de deuil, Moffatt aurait dû savoir que les tarifs pour les personnes en deuil ne pouvaient pas être demandés rétroactivement. Au lieu d'un remboursement, la meilleure chose qu'Air Canada ferait était de promettre de mettre à jour le chatbot et d'offrir à Moffatt un coupon de 200 $ à utiliser sur un prochain vol.
Mécontent de cette résolution, Moffatt a refusé le coupon et a déposé une plainte aux petites créances auprès du Tribunal de résolution civile du Canada.
Selon Air Canada, Moffatt n'aurait jamais dû faire confiance au chatbot et la compagnie aérienne ne devrait pas être tenue responsable des informations trompeuses du chatbot car, selon Air Canada, « le chatbot est une entité juridique distincte qui est responsable de ses propres actions », un ordonnance du tribunal dit.
Experts dit le Soleil de Vancouver que le cas de Moffatt semblait être la première fois qu'une entreprise canadienne tentait de faire valoir qu'elle n'était pas responsable des informations fournies par son chatbot.
Christopher Rivers, membre du Tribunal, qui a tranché en faveur de Moffatt, a qualifié la défense d'Air Canada de « remarquable ».
« Air Canada affirme qu'elle ne peut être tenue responsable des informations fournies par l'un de ses agents, préposés ou représentants, y compris un chatbot », a écrit Rivers. « Il n'explique pas pourquoi il pense que c'est le cas » ou « pourquoi la page Web intitulée 'Voyage de deuil' était intrinsèquement plus digne de confiance que son chatbot. »
De plus, Rivers a conclu que Moffatt n'avait « aucune raison » de croire qu'une partie du site Web d'Air Canada serait exacte et qu'une autre ne le serait pas.
Air Canada « n'explique pas pourquoi les clients devraient vérifier les informations trouvées dans une partie de son site Web dans une autre partie de son site Web », a écrit Rivers.
En fin de compte, Rivers a statué que Moffatt avait droit à un remboursement partiel de 650,88 $ en dollars canadiens sur le tarif initial (environ 482 $ US), qui était de 1 640,36 $ CAD (environ 1 216 $ US), ainsi qu'à des dommages-intérêts supplémentaires pour couvrir les intérêts sur le billet d'avion. et les frais de tribunal de Moffatt.
Air Canada a déclaré à Ars qu'elle se conformerait à la décision et considérait l'affaire close.
Le chatbot d'Air Canada semble être désactivé
Lorsqu'Ars a visité le site Web d'Air Canada vendredi, il ne semblait y avoir aucun support de chatbot disponible, ce qui suggère qu'Air Canada a désactivé le chatbot.
Air Canada n'a pas répondu à la demande d'Ars de confirmer si le chatbot fait toujours partie des offres d'assistance en ligne de la compagnie aérienne.