Air Canada: la decisión es un recordatorio de la responsabilidad, dicen los expertos

Air Canada: la decisión es un recordatorio de la responsabilidad, dicen los expertos

TORONTO-

Una decisión sobre la responsabilidad de Air Canada por lo que dijo su chatbot es un recordatorio de cómo las empresas deben ser cautelosas cuando dependen de la inteligencia artificial, dicen los expertos.

La decisión del Tribunal de Resolución Civil de Columbia Británica emitida el miércoles mostró que Air Canada intentó negar su responsabilidad cuando su chatbot proporcionó información engañosa sobre las tarifas de duelo de la aerolínea.

“En efecto, Air Canada sugiere que el chatbot es una entidad legal separada que es responsable de sus propias acciones”, dijo en su decisión el miembro del tribunal Christopher Rivers.

“Esta es una presentación notable”, dijo.

Jake Moffatt presentó el desafío después de intentar obtener la tarifa más baja por duelo después de haber pagado el precio completo de un vuelo, como el chatbot había insinuado que podía hacerlo, pero la aerolínea negó el reclamo diciendo que tenía que presentar la solicitud antes de realizar el viaje.

Rivers dijo en su decisión que debería ser obvio que Air Canada es responsable de la información contenida en su sitio web y, en este caso, la aerolínea no tomó las precauciones razonables para garantizar que su chatbot fuera preciso.

Air Canada dijo en un comunicado que cumplirá con el fallo, y que dado que da por cerrado el asunto, no tiene información adicional.

Si bien la decisión de un tribunal, que no crea precedentes, fue de poco en juego, con alrededor de 650 dólares en disputa, muestra algunas de las formas en que las empresas pueden quedar atrapadas a medida que dependen cada vez más de la tecnología, dijo Ira Parghi, abogado. con experiencia en información y derecho de IA.

“Si una organización o empresa decide seguir ese camino, tiene que hacerlo bien”, afirmó.

A medida que los sistemas impulsados ​​por IA se vuelven capaces de responder preguntas cada vez más complejas, las empresas tienen que decidir si vale la pena correr el riesgo.

“Si un área es demasiado espinosa o complicada, o no está suficientemente basada en reglas, o depende demasiado de la discreción individual, entonces tal vez los robots deban mantenerse alejados”, dijo Parghi.

Las leyes aún se están poniendo al día con algunas lagunas presentadas por AI, que la legislación federal pendiente busca colmar, pero en muchos casos las leyes existentes pueden cubrir las cuestiones, dijo.

“Se basaron en la antigua ley de daños de tergiversación negligente y llegaron al resultado correcto basándose en una especie de razonamiento muy convencional”.

El argumento de que una empresa no es responsable de su propio chatbot es novedoso, dijo Brent Arnold, socio de Gowling WLG.

“Es la primera vez que veo ese argumento”, dijo.

Si una empresa quiere evitar la responsabilidad al ofrecer un chatbot, tendría que utilizar mucho lenguaje que haga muy visible que no asume ninguna responsabilidad por la información que proporciona, lo que la haría de uso cuestionable para los consumidores, dijo Arnold.

“Eso es tan bueno como que el chatbot diga: ‘Oye, ¿por qué no te comes esto que encontré en la acera?’ ¿Por qué habría de hacer eso?”

Las empresas tendrán que empezar a revelar más sobre lo que funciona con IA como parte de la próxima legislación, y también tendrán que probar más sistemas de alto impacto antes de lanzarlos al público, afirmó.

A medida que evolucionen las reglas sobre estas prácticas, las empresas tendrán que tener cuidado tanto con la responsabilidad civil como con la responsabilidad regulatoria, dijo Arnold.

En Estados Unidos, la Oficina de Protección Financiera del Consumidor emitió el año pasado una guía sobre los problemas con los chatbots, advirtiendo que los bancos corren el riesgo de violar sus obligaciones, erosionar la confianza de los clientes y causar daño a los consumidores al implementar chatbots.

“Cuando la vida financiera de una persona está en riesgo, las consecuencias de equivocarse pueden ser graves”, afirmó el regulador.

La CFPB advirtió sobre numerosos resultados negativos con los que muchas personas probablemente estén familiarizadas, incluida la pérdida de tiempo, información inexacta y sentirse estancado y frustrado sin una forma de comunicarse con un representante humano de servicio al cliente que puede crear “bucles fatales” de respuestas de chatbot.

Si bien el ejemplo de Air Canada fue sencillo, aún queda por comprobar en qué medida las empresas son responsables de posibles errores, dijo Arnold, ya que aún es temprano para los sistemas de IA.

“Será interesante ver qué hace un Tribunal Superior en una circunstancia similar, donde hay una gran cantidad de dinero en juego”, dijo.

Gabor Lukacs, presidente del grupo de defensa del consumidor Air Passenger Rights, dijo que el fallo de Air Canada hace justicia al viajero y demostró que el Tribunal de Resolución Civil de Columbia Británica es un foro donde los pasajeros pueden obtener una audiencia justa.

También señaló que el tribunal criticó a Air Canada por proporcionar una respuesta repetitiva que negaba todas las acusaciones, sin proporcionar ninguna prueba de lo contrario.

Este informe de The Canadian Press se publicó por primera vez el 15 de febrero de 2024.

2024-02-15 23:36:21
#Air #Canada #decisión #recordatorio #responsabilidad #dicen #los #expertos,


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.