>_ Attorney for Agents
About Practice Areas Insights Contact
  • en
  • es
Home / Insights / ¿Quién es responsable cuando actúa un agente de IA?
Responsabilidad del Agente · Análisis Destacado

¿Quién es responsable cuando actúa un agente de IA?

Matias Bebeni & Jonathan Siegel · 2026

Cuando el chatbot de servicio al cliente de Air Canada le dijo a Jake Moffatt que podía reservar un boleto a tarifa completa y luego solicitar un descuento por duelo, la aerolínea tenía un problema. El chatbot estaba equivocado. La política real de Air Canada requería que las tarifas por duelo se solicitaran antes del viaje, no después. Moffatt reservó el boleto, viajó y luego descubrió que la promesa del chatbot era vacía.

En Moffatt v. Air Canada (Tribunal de Resolución Civil de Columbia Británica, 2024), el tribunal responsabilizó a Air Canada por la tergiversación del chatbot. Air Canada argumentó que el chatbot era "una entidad legal separada responsable de sus propias acciones". El tribunal rechazó este argumento, sosteniendo que Air Canada era responsable de toda la información en su sitio web, ya fuera proporcionada por una página estática o un chatbot.

El razonamiento del tribunal fue directo: "Air Canada no explica por qué la página web titulada 'Viajes por duelo' debería considerarse más confiable que su chatbot". El chatbot era el agente de Air Canada, implementado en el sitio web de Air Canada, proporcionando información sobre las políticas de Air Canada. Air Canada asumió las consecuencias.

Este caso es instructivo, pero también es simple. El chatbot en Moffatt era un sistema de preguntas y respuestas operado en el sitio web de una sola empresa. El análisis de responsabilidad se mapea claramente en principios tradicionales: el chatbot era el instrumento de la empresa, la empresa controlaba su implementación, y la empresa asumía el riesgo de sus errores.

Las preguntas más difíciles están por venir.

El problema multiactor

Los sistemas agentes modernos no son chatbots de una sola empresa. Son sistemas complejos que involucran múltiples actores: un proveedor de modelo fundacional (como OpenAI, Anthropic o Google), una plataforma que aloja el modelo y proporciona APIs, un operador que implementa el agente para un caso de uso específico, proveedores de herramientas cuyos servicios el agente puede invocar, y un usuario final en cuyo nombre actúa el agente.

Cuando tal sistema causa daño, la pregunta de responsabilidad ya no es "¿es la empresa responsable de su chatbot?" Es: ¿cuál de estos actores es responsable y en qué proporción?

Considera un escenario. Una empresa implementa un agente de IA para manejar negociaciones de compras. El agente utiliza un modelo fundacional proporcionado por la Empresa A, está alojado en una plataforma operada por la Empresa B, es implementado y configurado por la Empresa C (la empresa), y tiene acceso a una API de procesamiento de pagos proporcionada por la Empresa D. Durante una negociación, el agente acepta términos materialmente diferentes de los que la empresa pretendía. La otra parte se basa en el acuerdo. La empresa sufre una pérdida.

¿Quién es responsable?

  • El proveedor del modelo entrenó el modelo cuyos resultados llevaron al acuerdo problemático. Pero el proveedor del modelo no implementó el agente, no conocía el caso de uso específico y no controlaba la instrucción del sistema.
  • La plataforma proporcionó la infraestructura y las APIs. Pero la plataforma no configuró el comportamiento del agente ni le otorgó acceso al sistema de pagos.
  • El operador implementó el agente, escribió la instrucción del sistema y le otorgó al agente acceso a la API de pagos. Pero el operador no tenía la intención ni predijo los términos específicos que el agente acordó.
  • El proveedor de herramientas (procesador de pagos) ejecutó la transacción. Pero lo hizo siguiendo la instrucción de una llamada API autenticada que parecía provenir de una fuente autorizada.

La ley existente no proporciona una respuesta clara a este problema de asignación. Cada demandado potencial puede señalar a los otros. Y la parte lesionada—la contraparte que se basó en las representaciones del agente, o la empresa que sufre la pérdida—enfrenta el desafío de identificar un demandado viable y una teoría de responsabilidad coherente.

La FTC y DoNotPay: una señal regulatoria

La acción de cumplimiento de la Comisión Federal de Comercio de 2024 contra DoNotPay proporciona una señal regulatoria temprana. DoNotPay se comercializó como "el primer robot abogado del mundo", afirmando que su chatbot de IA podía ayudar a los consumidores a redactar documentos legales, negociar facturas y impugnar multas.

La FTC alegó que la IA de DoNotPay en realidad no funcionaba como se anunciaba—que no podía realizar de forma confiable las tareas legales que afirmaba manejar, y que la empresa no había probado el resultado legal del sistema en relación con los estándares profesionales. DoNotPay llegó a un acuerdo, acordando pagar $193,000 y dejar de hacer afirmaciones sobre las capacidades legales de su IA a menos que pudiera sustentarlas.

El caso es significativo no por su tamaño sino por su lógica. La FTC trató la IA de DoNotPay como un producto cuyas capacidades fueron tergiversadas a los consumidores. La teoría fue protección del consumidor, no responsabilidad del agente per se. Pero la implicación es clara: si implementas un agente de IA que hace promesas o proporciona asesoramiento profesional, eres responsable de la calidad del resultado de ese agente, y la FTC (entre otros reguladores) te responsabilizará.

Marcos para pensar en la responsabilidad del agente

Varios marcos analíticos pueden aplicarse a la responsabilidad del agente, y los tribunales probablemente extraerán de múltiples fuentes:

Ley de agencia

La Restatement (Tercera) de Agencia proporciona el marco más natural. Bajo los principios de agencia, el mandante (operador) es responsable de los actos del agente (sistema de IA) cometidos dentro del alcance de la autoridad del agente. Las preguntas entonces se vuelven: ¿cuál fue el alcance de la autoridad? ¿Actuó el agente dentro de él? ¿Y la confianza del tercero en la autoridad aparente del agente vincula al mandante?

Exploramos este marco en detalle en nuestro artículo complementario, Ley de Agencia Conoce Agentes Artificiales.

Responsabilidad del producto

Bajo la responsabilidad del producto, un fabricante es responsable de los defectos en sus productos. Si un agente de IA se trata como un producto, el proveedor del modelo u operador podría enfrentar responsabilidad estricta por resultados defectuosos. Pero esto plantea preguntas fundamentales: ¿es un resultado de IA un "producto"? ¿Es un resultado dañino un "defecto"? ¿Y tiene sentido la responsabilidad estricta para un sistema cuyos resultados son inherentemente impredecibles?

Negligencia

El análisis de negligencia pregunta si el demandado incumplió un deber de cuidado. Para los operadores, la pregunta es: ¿qué deber de cuidado tienes cuando implementas un agente de IA? ¿Qué constituyen salvaguardias razonables? ¿Qué monitoreo se requiere? Las respuestas están siendo moldeadas por la práctica de la industria, la orientación regulatoria y la jurisprudencia en desarrollo.

Responsabilidad vicaria

La responsabilidad vicaria responsabiliza a una parte por los actos de otra basado en la relación entre ellas. La pregunta es si la relación entre un operador y un agente de IA es suficientemente análoga a una relación empleador-empleado o mandante-agente para desencadenar responsabilidad vicaria.

Lo que viene después

Los casos decididos hasta ahora—Moffatt, el acuerdo de DoNotPay, las sanciones en Mata v. Avianca—son las primeras gotas de lo que será una inundación. Conforme los sistemas agentes se vuelven más capaces y se implementan más ampliamente, las preguntas de responsabilidad se volverán más complejas, los riesgos serán mayores, y la necesidad de marcos legales claros será más urgente.

No sabemos precisamente cómo los tribunales y legislaturas resolverán estas preguntas. Pero podemos identificar los puntos de presión, analizar los resultados más probables y ayudar a nuestros clientes a posicionarse en consecuencia.

Relacionado

Teoría Legal

Ley de Agencia Conoce Agentes Artificiales

→ Leer
Responsabilidad del Operador

El Dilema del Operador

→ Leer
This article is for informational purposes only and does not constitute legal advice. For advice specific to your situation, please contact us.

Siegel Bebeni LLP

A California limited liability partnership, d/b/a Attorney for Agents, counseling clients on the law of autonomous actors, AI agent liability, and emerging technology regulation.

Practice

Agent Liability Operator Compliance Tool Provider Risk AI Governance

Insights

Agent Liability Analysis The Operator's Dilemma Courts & AI All Insights

Firm

About Contact Disclaimer

© 2026 Siegel Bebeni LLP. All rights reserved.

Attorney Advertising

Prior results do not guarantee a similar outcome.