Cuando el chatbot de servicio al cliente de Air Canada le dijo a Jake Moffatt que podía reservar un boleto a tarifa completa y luego solicitar un descuento por duelo, la aerolínea tenía un problema. El chatbot estaba equivocado. La política real de Air Canada requería que las tarifas por duelo se solicitaran antes del viaje, no después. Moffatt reservó el boleto, viajó y luego descubrió que la promesa del chatbot era vacía.
En Moffatt v. Air Canada (Tribunal de Resolución Civil de Columbia Británica, 2024), el tribunal responsabilizó a Air Canada por la tergiversación del chatbot. Air Canada argumentó que el chatbot era "una entidad legal separada responsable de sus propias acciones". El tribunal rechazó este argumento, sosteniendo que Air Canada era responsable de toda la información en su sitio web, ya fuera proporcionada por una página estática o un chatbot.
El razonamiento del tribunal fue directo: "Air Canada no explica por qué la página web titulada 'Viajes por duelo' debería considerarse más confiable que su chatbot". El chatbot era el agente de Air Canada, implementado en el sitio web de Air Canada, proporcionando información sobre las políticas de Air Canada. Air Canada asumió las consecuencias.
Este caso es instructivo, pero también es simple. El chatbot en Moffatt era un sistema de preguntas y respuestas operado en el sitio web de una sola empresa. El análisis de responsabilidad se mapea claramente en principios tradicionales: el chatbot era el instrumento de la empresa, la empresa controlaba su implementación, y la empresa asumía el riesgo de sus errores.
Las preguntas más difíciles están por venir.
Los sistemas agentes modernos no son chatbots de una sola empresa. Son sistemas complejos que involucran múltiples actores: un proveedor de modelo fundacional (como OpenAI, Anthropic o Google), una plataforma que aloja el modelo y proporciona APIs, un operador que implementa el agente para un caso de uso específico, proveedores de herramientas cuyos servicios el agente puede invocar, y un usuario final en cuyo nombre actúa el agente.
Cuando tal sistema causa daño, la pregunta de responsabilidad ya no es "¿es la empresa responsable de su chatbot?" Es: ¿cuál de estos actores es responsable y en qué proporción?
Considera un escenario. Una empresa implementa un agente de IA para manejar negociaciones de compras. El agente utiliza un modelo fundacional proporcionado por la Empresa A, está alojado en una plataforma operada por la Empresa B, es implementado y configurado por la Empresa C (la empresa), y tiene acceso a una API de procesamiento de pagos proporcionada por la Empresa D. Durante una negociación, el agente acepta términos materialmente diferentes de los que la empresa pretendía. La otra parte se basa en el acuerdo. La empresa sufre una pérdida.
¿Quién es responsable?
La ley existente no proporciona una respuesta clara a este problema de asignación. Cada demandado potencial puede señalar a los otros. Y la parte lesionada—la contraparte que se basó en las representaciones del agente, o la empresa que sufre la pérdida—enfrenta el desafío de identificar un demandado viable y una teoría de responsabilidad coherente.
La acción de cumplimiento de la Comisión Federal de Comercio de 2024 contra DoNotPay proporciona una señal regulatoria temprana. DoNotPay se comercializó como "el primer robot abogado del mundo", afirmando que su chatbot de IA podía ayudar a los consumidores a redactar documentos legales, negociar facturas y impugnar multas.
La FTC alegó que la IA de DoNotPay en realidad no funcionaba como se anunciaba—que no podía realizar de forma confiable las tareas legales que afirmaba manejar, y que la empresa no había probado el resultado legal del sistema en relación con los estándares profesionales. DoNotPay llegó a un acuerdo, acordando pagar $193,000 y dejar de hacer afirmaciones sobre las capacidades legales de su IA a menos que pudiera sustentarlas.
El caso es significativo no por su tamaño sino por su lógica. La FTC trató la IA de DoNotPay como un producto cuyas capacidades fueron tergiversadas a los consumidores. La teoría fue protección del consumidor, no responsabilidad del agente per se. Pero la implicación es clara: si implementas un agente de IA que hace promesas o proporciona asesoramiento profesional, eres responsable de la calidad del resultado de ese agente, y la FTC (entre otros reguladores) te responsabilizará.
Varios marcos analíticos pueden aplicarse a la responsabilidad del agente, y los tribunales probablemente extraerán de múltiples fuentes:
La Restatement (Tercera) de Agencia proporciona el marco más natural. Bajo los principios de agencia, el mandante (operador) es responsable de los actos del agente (sistema de IA) cometidos dentro del alcance de la autoridad del agente. Las preguntas entonces se vuelven: ¿cuál fue el alcance de la autoridad? ¿Actuó el agente dentro de él? ¿Y la confianza del tercero en la autoridad aparente del agente vincula al mandante?
Exploramos este marco en detalle en nuestro artículo complementario, Ley de Agencia Conoce Agentes Artificiales.
Bajo la responsabilidad del producto, un fabricante es responsable de los defectos en sus productos. Si un agente de IA se trata como un producto, el proveedor del modelo u operador podría enfrentar responsabilidad estricta por resultados defectuosos. Pero esto plantea preguntas fundamentales: ¿es un resultado de IA un "producto"? ¿Es un resultado dañino un "defecto"? ¿Y tiene sentido la responsabilidad estricta para un sistema cuyos resultados son inherentemente impredecibles?
El análisis de negligencia pregunta si el demandado incumplió un deber de cuidado. Para los operadores, la pregunta es: ¿qué deber de cuidado tienes cuando implementas un agente de IA? ¿Qué constituyen salvaguardias razonables? ¿Qué monitoreo se requiere? Las respuestas están siendo moldeadas por la práctica de la industria, la orientación regulatoria y la jurisprudencia en desarrollo.
La responsabilidad vicaria responsabiliza a una parte por los actos de otra basado en la relación entre ellas. La pregunta es si la relación entre un operador y un agente de IA es suficientemente análoga a una relación empleador-empleado o mandante-agente para desencadenar responsabilidad vicaria.
Los casos decididos hasta ahora—Moffatt, el acuerdo de DoNotPay, las sanciones en Mata v. Avianca—son las primeras gotas de lo que será una inundación. Conforme los sistemas agentes se vuelven más capaces y se implementan más ampliamente, las preguntas de responsabilidad se volverán más complejas, los riesgos serán mayores, y la necesidad de marcos legales claros será más urgente.
No sabemos precisamente cómo los tribunales y legislaturas resolverán estas preguntas. Pero podemos identificar los puntos de presión, analizar los resultados más probables y ayudar a nuestros clientes a posicionarse en consecuencia.