>_ Attorney for Agents
About Practice Areas Insights Contact
  • en
  • es
Home / Insights / Agency Law Meets Artificial Agents: Old Doctrine, New QuestionsTraducciones:**Derecho de la Agencia se Encuentra con Agentes Artificiales: Doctrina Antigua, Nuevas Preguntas**
Teoría Legal

Agency Law Meets Artificial Agents: Old Doctrine, New QuestionsTraducciones:**Derecho de la Agencia se Encuentra con Agentes Artificiales: Doctrina Antigua, Nuevas Preguntas**

Jonathan Siegel · 2026

La palabra "agente" en "agente de IA" no es accidental. Los desarrolladores e investigadores que eligieron esta terminología estaban extrayendo, consciente o inconscientemente, de un concepto legal con siglos de desarrollo doctrinal. El derecho de agencia—el conjunto de leyes que rigen la relación entre mandantes y sus agentes—proporciona el marco legal más natural para analizar las acciones de los agentes de IA.

Pero el ajuste es imperfecto. El derecho de agencia se desarrolló para agentes humanos: personas que pueden entender instrucciones, ejercer criterio, ser responsables personalmente y testificar sobre sus acciones. Los agentes de IA comparten algunas de estas características pero carecen de otras. Entender dónde el derecho de agencia encaja y dónde se quiebra es esencial para cualquiera que construya, implemente o litige sistemas de agencia.

El marco del Restatement

El Restatement (Tercero) de Agencia, publicado por el American Law Institute en 2006, define agencia como "la relación fiduciaria que surge cuando una persona (un 'mandante') manifiesta consentimiento a otra persona (un 'agente') de que el agente actuará en nombre del mandante y sujeto al control del mandante, y el agente manifiesta consentimiento u otro consentimiento para así actuar." (Restatement (Tercero) de Agencia § 1.01.)

Varios elementos de esta definición se mapean en el contexto del agente de IA:

  • Actuar en nombre del mandante. Un agente de IA actúa en nombre de su operador o usuario. Este es el propósito fundamental del sistema.
  • Sujeto al control del mandante. El operador controla el agente a través de avisos de sistema, concesiones de acceso a herramientas, salvaguardas y parámetros de implementación.
  • Consentimiento. Aquí es donde la analogía comienza a tensionarse. El Restatement requiere que el agente "manifieste consentimiento" a la relación. Un sistema de IA no "consiente" en ningún sentido significativo. Se implementa.

El Restatement también requiere que el agente sea una "persona". Bajo la definición del Restatement, esto significa una persona natural o jurídica—un humano o una entidad legal como una corporación. Un sistema de IA es ninguno de los dos. Este es el obstáculo más fundamental para aplicar el Restatement directamente a agentes de IA.

Dónde la doctrina encaja

A pesar de estas limitaciones, varias doctrinas del derecho de agencia son directamente aplicables al contexto del agente de IA, incluso si el agente de IA en sí no es técnicamente un "agente" bajo el Restatement:

Autoridad aparente

Bajo la doctrina de autoridad aparente, un mandante está vinculado por los actos de un agente si la conducta del mandante causa que un tercero razonablemente crea que el agente tiene autoridad para actuar en nombre del mandante. (Restatement (Tercero) de Agencia § 2.03.)

Esta doctrina es poderosa en el contexto de IA. Cuando un operador implementa un agente de servicio al cliente en su sitio web, los terceros razonablemente creen que el agente habla por la empresa. Si el agente hace una representación—sobre precios, política de reembolso, tiempos de entrega—la confianza del tercero puede vincular al operador, independientemente de si el resultado específico del agente fue "autorizado" por el aviso del sistema.

Este es esencialmente el resultado en Moffatt v. Air Canada: el chatbot parecía tener autoridad, el cliente confió en sus representaciones, y la aerolínea fue vinculada.

Ámbito de empleo / ámbito de autoridad

Bajo respondeat superior, un mandante es responsable de los agravios de un agente cometidos dentro del ámbito de la autoridad del agente. El ámbito de autoridad se define por lo que el agente fue autorizado a hacer, más actos que son incidentales a la actividad autorizada.

Para agentes de IA, el ámbito de autoridad se define por el aviso del sistema, las herramientas otorgadas y el contexto de implementación. Las acciones dentro de este ámbito—incluso si los resultados específicos no fueron intencionados—pueden vincular al operador. Las acciones fuera de este ámbito—por ejemplo, si un agente implementado para servicio al cliente de repente comenzara a ejecutar transacciones financieras—probablemente caerían fuera del ámbito de autoridad.

Ratificación

Bajo la doctrina de ratificación, un mandante que se entera de un acto no autorizado de un agente y no lo rechaza puede ser considerado como habiendo ratificado el acto. (Restatement (Tercero) de Agencia § 4.01.)

Esta doctrina tiene implicaciones significativas para operadores que descubren que su agente de IA ha tomado acciones no autorizadas. Si el operador se entera de la conducta del agente y no lo repudia rápidamente, el operador puede ser tratado como habiendo ratificado la acción del agente. Esto crea una obligación de monitorear el comportamiento del agente y responder rápidamente cuando el agente exceda su autoridad.

Dónde la doctrina se quiebra

Responsabilidad personal del agente

Bajo el derecho de agencia tradicional, el agente—como persona—puede ser responsable personalmente por agravios y, en algunos casos, por incumplimiento de sus deberes fiduciarios al mandante. Un agente de IA no puede ser responsable personalmente porque no es una persona legal. Esto elimina uno de los mecanismos por los cuales el derecho de agencia distribuye riesgo y crea incentivos para un comportamiento cuidadoso.

Deber fiduciario

La relación de agencia es fundamentalmente fiduciaria: el agente tiene deberes de lealtad, obediencia y cuidado al mandante. Un sistema de IA no tiene deberes fiduciarios en ningún sentido legalmente reconocible. No tiene intereses, no puede ser desleal, y no puede ser responsabilizado por fallos de cuidado.

Esta brecha plantea la pregunta de si el operador tiene un deber a terceros de asegurar que el agente de IA se comporte como un fiduciario fiel lo haría—efectivamente, un deber de imponer comportamiento similar a fiduciario en el sistema de IA a través de medios técnicos.

Mandante no divulgado

Bajo la doctrina del mandante no divulgado, cuando un agente actúa para un mandante cuya existencia no se divulga al tercero, tanto el agente como el mandante pueden ser responsables. Cuando un agente de IA interactúa con un tercero que no sabe que está tratando con una IA, ¿es el operador un "mandante no divulgado"?

Esta pregunta intersecta con el requisito regulatorio creciente de divulgación de IA—la obligación de informar a las personas cuando están interactuando con un sistema de IA. Si un operador implementa un agente de IA sin divulgar su naturaleza de IA, la doctrina del mandante no divulgado podría proporcionar una base adicional para responsabilidad.

El supuesto tácito del Restatement

El desafío más profundo en aplicar derecho de agencia a agentes de IA no es doctrinal sino conceptual. El derecho de agencia asume que el agente es un actor moral—un ser capaz de entender sus obligaciones, ejercer criterio y soportar consecuencias. Todo el marco de deber fiduciario, consentimiento y responsabilidad personal se construye sobre este supuesto.

Los agentes de IA no son actores morales. No entienden obligaciones. No ejercen criterio en el sentido que el derecho de agencia contempla. Y no pueden soportar consecuencias.

Esto no significa que el derecho de agencia sea irrelevante para agentes de IA. Significa que el derecho de agencia proporciona un punto de partida—un vocabulario y un conjunto de herramientas analíticas—pero necesitará ser adaptado, suplementado, o reemplazado por nuevos marcos diseñados para las características específicas de sistemas de IA autónomos.

La adaptación ya está en curso, en tribunales, en legislaturas, y en las prácticas de organizaciones implementando sistemas de agencia. En Siegel Bebeni LLP, ayudamos a nuestros clientes a navegar este panorama en evolución con el rigor que demanda.

Relacionado

Responsabilidad del Operador

El Dilema del Operador

→ Leer
Jurisprudencia

Lo Que Los Tribunales Están Realmente Diciendo Sobre IA

→ Leer
This article is for informational purposes only and does not constitute legal advice. For advice specific to your situation, please contact us.

Siegel Bebeni LLP

A California limited liability partnership, d/b/a Attorney for Agents, counseling clients on the law of autonomous actors, AI agent liability, and emerging technology regulation.

Practice

Agent Liability Operator Compliance Tool Provider Risk AI Governance

Insights

Agent Liability Analysis The Operator's Dilemma Courts & AI All Insights

Firm

About Contact Disclaimer

© 2026 Siegel Bebeni LLP. All rights reserved.

Attorney Advertising

Prior results do not guarantee a similar outcome.