Customize this title in frenchAprès que son chatbot hallucine et ment, Air Canada est poursuivie et perd le procès

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Si un chatbot vous ment, ce n’est pas de sa faute, c’est l’entreprise qui l’a « employé » qui en est responsable. Alors laissez un peu de répit au pauvre chatbot (mais poursuivez son employeur et allez au tribunal, s’il le faut) !

Il y a quelques années, un homme nommé Jake Moffatt a parlé au chatbot d’Air Canada, mais a obtenu des informations extrêmement fausses et frustrantes qui lui ont coûté du temps et de l’argent. Il a porté l’affaire devant les tribunaux, et maintenant, la décision est en sa faveur (via Mashable).

L’histoire suit Moffatt qui essayait d’obtenir des informations sur la manière de bénéficier du tarif de deuil pour un voyage de dernière minute pour assister à des funérailles. Le chatbot d’Air Canada a ensuite expliqué que le client pouvait demander rétroactivement un remboursement de la différence entre le coût d’un billet régulier et le tarif d’un billet de deuil, à condition que ce soit dans les 90 jours suivant l’achat.

Cependant, Moffatt a appris plus tard que cela était complètement faux et qu’en revanche, il s’agit de la politique réelle de la compagnie aérienne sur son site Web : « La politique d’Air Canada en matière de voyages en cas de deuil offre une option à nos clients qui doivent voyager en raison du décès imminent ou du décès d’un membre de la famille immédiate. Veuillez noter que notre politique en matière de deuil n’autorise pas le remboursement des voyages déjà effectués.

Lorsqu’Air Canada a refusé d’accorder le remboursement promis par son chatbot, Moffatt l’a poursuivi en justice. La compagnie aérienne a tenté de faire valoir qu’elle n’était pas responsable des « propos trompeurs » de son chatbot et que le chatbot était une « entité juridique distincte » qui devrait être tenue responsable de ses propres actes, affirmant que la compagnie aérienne n’était pas non plus responsable des informations fournies par « agents, préposés ou représentants — y compris un chatbot ».

Bien essayé.

« Bien qu’un chatbot ait une composante interactive, il ne constitue qu’une partie du site Web d’Air Canada », a répondu un membre du tribunal canadien. « Il devrait être évident pour Air Canada qu’elle est responsable de toutes les informations figurant sur son site Web. Peu importe que les informations proviennent d’une page statique ou d’un chatbot ».

Cela signifie-t-il que si l’on incite le chatbot d’une entreprise donnée à divulguer de fausses informations, cela pourrait se traduire par de l’argent facile grâce à un procès ? Des temps intéressants à venir.

Source link -57