La palabra "agente" en "agente de IA" no es accidental. Los desarrolladores e investigadores que eligieron esta terminología estaban extrayendo, consciente o inconscientemente, de un concepto legal con siglos de desarrollo doctrinal. El derecho de agencia—el conjunto de leyes que rigen la relación entre mandantes y sus agentes—proporciona el marco legal más natural para analizar las acciones de los agentes de IA.
Pero el ajuste es imperfecto. El derecho de agencia se desarrolló para agentes humanos: personas que pueden entender instrucciones, ejercer criterio, ser responsables personalmente y testificar sobre sus acciones. Los agentes de IA comparten algunas de estas características pero carecen de otras. Entender dónde el derecho de agencia encaja y dónde se quiebra es esencial para cualquiera que construya, implemente o litige sistemas de agencia.
El Restatement (Tercero) de Agencia, publicado por el American Law Institute en 2006, define agencia como "la relación fiduciaria que surge cuando una persona (un 'mandante') manifiesta consentimiento a otra persona (un 'agente') de que el agente actuará en nombre del mandante y sujeto al control del mandante, y el agente manifiesta consentimiento u otro consentimiento para así actuar." (Restatement (Tercero) de Agencia § 1.01.)
Varios elementos de esta definición se mapean en el contexto del agente de IA:
El Restatement también requiere que el agente sea una "persona". Bajo la definición del Restatement, esto significa una persona natural o jurídica—un humano o una entidad legal como una corporación. Un sistema de IA es ninguno de los dos. Este es el obstáculo más fundamental para aplicar el Restatement directamente a agentes de IA.
A pesar de estas limitaciones, varias doctrinas del derecho de agencia son directamente aplicables al contexto del agente de IA, incluso si el agente de IA en sí no es técnicamente un "agente" bajo el Restatement:
Bajo la doctrina de autoridad aparente, un mandante está vinculado por los actos de un agente si la conducta del mandante causa que un tercero razonablemente crea que el agente tiene autoridad para actuar en nombre del mandante. (Restatement (Tercero) de Agencia § 2.03.)
Esta doctrina es poderosa en el contexto de IA. Cuando un operador implementa un agente de servicio al cliente en su sitio web, los terceros razonablemente creen que el agente habla por la empresa. Si el agente hace una representación—sobre precios, política de reembolso, tiempos de entrega—la confianza del tercero puede vincular al operador, independientemente de si el resultado específico del agente fue "autorizado" por el aviso del sistema.
Este es esencialmente el resultado en Moffatt v. Air Canada: el chatbot parecía tener autoridad, el cliente confió en sus representaciones, y la aerolínea fue vinculada.
Bajo respondeat superior, un mandante es responsable de los agravios de un agente cometidos dentro del ámbito de la autoridad del agente. El ámbito de autoridad se define por lo que el agente fue autorizado a hacer, más actos que son incidentales a la actividad autorizada.
Para agentes de IA, el ámbito de autoridad se define por el aviso del sistema, las herramientas otorgadas y el contexto de implementación. Las acciones dentro de este ámbito—incluso si los resultados específicos no fueron intencionados—pueden vincular al operador. Las acciones fuera de este ámbito—por ejemplo, si un agente implementado para servicio al cliente de repente comenzara a ejecutar transacciones financieras—probablemente caerían fuera del ámbito de autoridad.
Bajo la doctrina de ratificación, un mandante que se entera de un acto no autorizado de un agente y no lo rechaza puede ser considerado como habiendo ratificado el acto. (Restatement (Tercero) de Agencia § 4.01.)
Esta doctrina tiene implicaciones significativas para operadores que descubren que su agente de IA ha tomado acciones no autorizadas. Si el operador se entera de la conducta del agente y no lo repudia rápidamente, el operador puede ser tratado como habiendo ratificado la acción del agente. Esto crea una obligación de monitorear el comportamiento del agente y responder rápidamente cuando el agente exceda su autoridad.
Bajo el derecho de agencia tradicional, el agente—como persona—puede ser responsable personalmente por agravios y, en algunos casos, por incumplimiento de sus deberes fiduciarios al mandante. Un agente de IA no puede ser responsable personalmente porque no es una persona legal. Esto elimina uno de los mecanismos por los cuales el derecho de agencia distribuye riesgo y crea incentivos para un comportamiento cuidadoso.
La relación de agencia es fundamentalmente fiduciaria: el agente tiene deberes de lealtad, obediencia y cuidado al mandante. Un sistema de IA no tiene deberes fiduciarios en ningún sentido legalmente reconocible. No tiene intereses, no puede ser desleal, y no puede ser responsabilizado por fallos de cuidado.
Esta brecha plantea la pregunta de si el operador tiene un deber a terceros de asegurar que el agente de IA se comporte como un fiduciario fiel lo haría—efectivamente, un deber de imponer comportamiento similar a fiduciario en el sistema de IA a través de medios técnicos.
Bajo la doctrina del mandante no divulgado, cuando un agente actúa para un mandante cuya existencia no se divulga al tercero, tanto el agente como el mandante pueden ser responsables. Cuando un agente de IA interactúa con un tercero que no sabe que está tratando con una IA, ¿es el operador un "mandante no divulgado"?
Esta pregunta intersecta con el requisito regulatorio creciente de divulgación de IA—la obligación de informar a las personas cuando están interactuando con un sistema de IA. Si un operador implementa un agente de IA sin divulgar su naturaleza de IA, la doctrina del mandante no divulgado podría proporcionar una base adicional para responsabilidad.
El desafío más profundo en aplicar derecho de agencia a agentes de IA no es doctrinal sino conceptual. El derecho de agencia asume que el agente es un actor moral—un ser capaz de entender sus obligaciones, ejercer criterio y soportar consecuencias. Todo el marco de deber fiduciario, consentimiento y responsabilidad personal se construye sobre este supuesto.
Los agentes de IA no son actores morales. No entienden obligaciones. No ejercen criterio en el sentido que el derecho de agencia contempla. Y no pueden soportar consecuencias.
Esto no significa que el derecho de agencia sea irrelevante para agentes de IA. Significa que el derecho de agencia proporciona un punto de partida—un vocabulario y un conjunto de herramientas analíticas—pero necesitará ser adaptado, suplementado, o reemplazado por nuevos marcos diseñados para las características específicas de sistemas de IA autónomos.
La adaptación ya está en curso, en tribunales, en legislaturas, y en las prácticas de organizaciones implementando sistemas de agencia. En Siegel Bebeni LLP, ayudamos a nuestros clientes a navegar este panorama en evolución con el rigor que demanda.