Área de práctica 01

Responsabilidad del agente y derecho de actores autónomos

Cuando un agente de IA actúa—ejecutando operaciones, enviando comunicaciones, celebrando acuerdos, tomando decisiones que afectan a personas reales—¿quién es legalmente responsable de las consecuencias? Esta es la pregunta fundamental del derecho de agentes, y aún no tiene respuestas establecidas.

La brecha de responsabilidad

Los marcos legales tradicionales asignan responsabilidad a actores identificables: la persona que firmó el contrato, el empleado que causó el accidente, la empresa cuyo producto era defectuoso. Los agentes de IA interrumpen este modelo porque introducen un actor que no es ninguno de estos.

Un agente de IA no es una persona natural con personalidad jurídica. No es un empleado sujeto a responsabilidad vicaria. Puede no ser un "producto" en el sentido tradicional de responsabilidad civil por productos. Y sin embargo actúa—a veces de formas que causan daño real, pérdida financiera real u obligaciones legales reales.

Los tribunales aún no han desarrollado un marco integral para asignar responsabilidad en este contexto. Los casos que existen—como Moffatt v. Air Canada (Tribunal de Resolución Civil de Columbia Británica, 2024), donde la aerolínea fue declarada responsable de las tergiversaciones de su chatbot sobre política de reembolsos—ofrecen señales tempranas pero no constituyen derecho establecido.

La pila de agentes

Analizamos la responsabilidad mapeándola en lo que llamamos la pila de agentes—la cadena de entidades involucradas en un sistema agentico:

  • Proveedor de modelo — la entidad que entrenó y proporciona el modelo base
  • Proveedor de plataforma / API — la entidad que pone el modelo disponible a través de APIs y puede proporcionar herramientas adicionales
  • Operador / Desplegador — la entidad que configura e implementa el agente para un caso de uso específico
  • Proveedor de herramientas — terceros cuyos servicios invoca el agente (APIs de búsqueda, procesadores de pagos, bases de datos)
  • Usuario final — la persona o entidad en nombre de la cual actúa el agente

La responsabilidad puede recaer en cualquiera o todos estos niveles, y la asignación depende de los hechos: qué autoridad se otorgó, qué salvaguardas se implementaron, qué representaciones se hicieron y qué daño resultó.

Formación de contrato

¿Puede un agente de IA celebrar un contrato vinculante? Conforme a la ley actual, la formación de contrato requiere consentimiento mutuo entre partes con capacidad jurídica. Un agente de IA no tiene capacidad jurídica por derecho propio. Pero si un agente actúa dentro del alcance de la autoridad otorgada por un operador o usuario, el contrato puede vincular al mandante conforme a los principios tradicionales de agencia.

Esto plantea preguntas prácticas inmediatas. Si un agente de servicio al cliente ofrece un descuento que no fue autorizado, ¿queda vinculada la empresa? Si un agente autónomo de adquisición acepta términos que un humano habría negociado de manera diferente, ¿es exigible el acuerdo de compra? Las respuestas dependen del alcance de la autoridad aparente—una doctrina desarrollada para agentes humanos que se aplica imperfectamente a sistemas de IA.

Responsabilidad extracontractual

Cuando un agente causa daño—proporcionando información médica incorrecta, haciendo declaraciones difamatorias, causando pérdida financiera a través de operaciones erróneas—la pregunta es si los marcos de responsabilidad extracontractual existentes se aplican y, si es así, a quién.

El análisis de negligencia requiere deber de cuidado, incumplimiento, causalidad y daños. En el contexto de agentes, las preguntas de deber e incumplimiento se vuelven complejas: ¿cuya conducta se está evaluando? ¿El operador que implementó el agente? ¿El proveedor del modelo cuyo entrenamiento produjo los resultados? ¿El proveedor de herramientas cuya API fue mal utilizada?

La responsabilidad civil por productos ofrece otro marco, pero su aplicación a agentes de IA es cuestionada. ¿Es un agente de IA un "producto"? ¿Es un resultado dañino un "defecto"? El Restatement (Tercero) de Torts define un producto como "propiedad personal tangible" (con excepciones para ciertos intangibles), y los tribunales no han resuelto claramente si los resultados de un sistema de IA encajan en esta definición.

Qué hacemos

Asesoramos a clientes en toda la pila de agentes sobre su exposición de responsabilidad:

  • Mapeo de riesgo — identificar dónde es más probable que se asigne la responsabilidad dado el rol del cliente en la pila de agentes y el caso de uso específico
  • Asignación contractual de riesgo — redactar y negociar acuerdos que asignen claramente la responsabilidad entre proveedores de modelos, operadores, proveedores de herramientas y usuarios finales
  • Salvaguardas estructurales — diseñar arquitecturas de sistema, monitoreo y requisitos de intervención humana que reduzcan la exposición de responsabilidad
  • Preparación para litigio — preparar a los clientes para la realidad de que vienen reclamaciones de responsabilidad agentica, con prácticas de documentación y preservación que los posicionen favorablemente
Contáctenos

Si está construyendo, implementando o proporcionando infraestructura para sistemas agenticos, las preguntas de responsabilidad no son hipotéticas. Contáctenos para discutir su situación específica.