Cuando un agente de IA actúa—ejecutando operaciones, enviando comunicaciones, celebrando acuerdos, tomando decisiones que afectan a personas reales—¿quién es legalmente responsable de las consecuencias? Esta es la pregunta fundamental del derecho de agentes, y aún no tiene respuestas establecidas.
Los marcos legales tradicionales asignan responsabilidad a actores identificables: la persona que firmó el contrato, el empleado que causó el accidente, la empresa cuyo producto era defectuoso. Los agentes de IA interrumpen este modelo porque introducen un actor que no es ninguno de estos.
Un agente de IA no es una persona natural con personalidad jurídica. No es un empleado sujeto a responsabilidad vicaria. Puede no ser un "producto" en el sentido tradicional de responsabilidad civil por productos. Y sin embargo actúa—a veces de formas que causan daño real, pérdida financiera real u obligaciones legales reales.
Los tribunales aún no han desarrollado un marco integral para asignar responsabilidad en este contexto. Los casos que existen—como Moffatt v. Air Canada (Tribunal de Resolución Civil de Columbia Británica, 2024), donde la aerolínea fue declarada responsable de las tergiversaciones de su chatbot sobre política de reembolsos—ofrecen señales tempranas pero no constituyen derecho establecido.
Analizamos la responsabilidad mapeándola en lo que llamamos la pila de agentes—la cadena de entidades involucradas en un sistema agentico:
La responsabilidad puede recaer en cualquiera o todos estos niveles, y la asignación depende de los hechos: qué autoridad se otorgó, qué salvaguardas se implementaron, qué representaciones se hicieron y qué daño resultó.
¿Puede un agente de IA celebrar un contrato vinculante? Conforme a la ley actual, la formación de contrato requiere consentimiento mutuo entre partes con capacidad jurídica. Un agente de IA no tiene capacidad jurídica por derecho propio. Pero si un agente actúa dentro del alcance de la autoridad otorgada por un operador o usuario, el contrato puede vincular al mandante conforme a los principios tradicionales de agencia.
Esto plantea preguntas prácticas inmediatas. Si un agente de servicio al cliente ofrece un descuento que no fue autorizado, ¿queda vinculada la empresa? Si un agente autónomo de adquisición acepta términos que un humano habría negociado de manera diferente, ¿es exigible el acuerdo de compra? Las respuestas dependen del alcance de la autoridad aparente—una doctrina desarrollada para agentes humanos que se aplica imperfectamente a sistemas de IA.
Cuando un agente causa daño—proporcionando información médica incorrecta, haciendo declaraciones difamatorias, causando pérdida financiera a través de operaciones erróneas—la pregunta es si los marcos de responsabilidad extracontractual existentes se aplican y, si es así, a quién.
El análisis de negligencia requiere deber de cuidado, incumplimiento, causalidad y daños. En el contexto de agentes, las preguntas de deber e incumplimiento se vuelven complejas: ¿cuya conducta se está evaluando? ¿El operador que implementó el agente? ¿El proveedor del modelo cuyo entrenamiento produjo los resultados? ¿El proveedor de herramientas cuya API fue mal utilizada?
La responsabilidad civil por productos ofrece otro marco, pero su aplicación a agentes de IA es cuestionada. ¿Es un agente de IA un "producto"? ¿Es un resultado dañino un "defecto"? El Restatement (Tercero) de Torts define un producto como "propiedad personal tangible" (con excepciones para ciertos intangibles), y los tribunales no han resuelto claramente si los resultados de un sistema de IA encajan en esta definición.
Asesoramos a clientes en toda la pila de agentes sobre su exposición de responsabilidad:
Si está construyendo, implementando o proporcionando infraestructura para sistemas agenticos, las preguntas de responsabilidad no son hipotéticas. Contáctenos para discutir su situación específica.