>_ Attorney for Agents
About Practice Areas Insights Contact
  • en
  • es
Home / Insights / El Dilema del Operador: Implementar Agentes que No Puedes Controlar Completamente
Responsabilidad del Operador

El Dilema del Operador: Implementar Agentes que No Puedes Controlar Completamente

Matías Bebeni · 2026

La doctrina del respondeat superior se basa en una premisa simple: un empleador puede instruir a un empleado, el empleado sigue esas instrucciones, y cuando el empleado actúa dentro del alcance del empleo, el empleador asume las consecuencias. El principal controla al agente. El agente actúa dentro del alcance de ese control. El principal acepta la responsabilidad como el costo de esa delegación.

Este marco tuvo sentido durante siglos porque los agentes humanos, por imperfectos que sean, podían comprender instrucciones, ejercer criterio dentro de parámetros conocidos, y ser supervisados y corregidos en tiempo real. La responsabilidad del principal estaba justificada por su control.

Los agentes de IA rompen esta suposición.

La brecha de control

Cuando un operador despliega un agente de IA, el operador generalmente hace lo siguiente:

  1. Selecciona un modelo base
  2. Escribe un prompt del sistema que define el rol, objetivos y limitaciones del agente
  3. Otorga al agente acceso a herramientas específicas (APIs, bases de datos, canales de comunicación)
  4. Establece salvaguardas (filtros de salida, restricciones de acciones, reglas de escalación)
  5. Despliega el agente para interactuar con usuarios u otros sistemas

Lo que el operador no hace es determinar las salidas específicas del agente. El agente genera respuestas basadas en la interacción de su entrenamiento, el prompt del sistema, la entrada del usuario y el contexto actual—un proceso que, por diseño, no es completamente predecible. Este es el punto de usar un agente de IA en lugar de un sistema tradicional basado en reglas: el agente puede manejar situaciones novedosas que el operador no anticipó específicamente.

Pero esta misma capacidad—la habilidad del agente de manejar lo no anticipado—es precisamente lo que crea el dilema del operador. El operador autorizó al agente a actuar en un dominio general, pero no autorizó (y no pudo autorizar) las acciones específicas del agente. Si esas acciones específicas causan daño, ¿es el operador responsable?

Tres modelos de responsabilidad del operador

Los tribunales y comentaristas no han establecido un marco para la responsabilidad del operador, pero tres modelos están surgiendo en la literatura y en jurisprudencia temprana:

Modelo 1: Respondeat superior completo

Bajo este modelo, el operador es completamente responsable de todas las acciones del agente dentro del alcance desplegado, independientemente de si el operador pudo haber predicho o prevenido la acción específica. La justificación es que el operador eligió desplegar el agente, definió su alcance, y se benefició de su operación. El operador debe asumir los costos del daño así como un empleador asume los costos de la negligencia del empleado.

Este es esencialmente el enfoque adoptado en Moffatt v. Air Canada. La aerolínea desplegó el chatbot; la aerolínea fue responsable de sus salidas. No fue necesaria una investigación sobre si Air Canada pudo haber predicho la tergiversación específica.

Modelo 2: Despliegue negligente

Bajo este modelo, el operador es responsable solo si el operador no ejerció el cuidado razonable al desplegar y monitorear el agente. La investigación se enfoca en la conducta del operador: ¿eligió el operador un modelo apropiado? ¿Fueron las salvaguardas razonables? ¿Fue adecuado el monitoreo? ¿Se desplegó el agente para un caso de uso dentro de sus capacidades?

Este modelo es más indulgente con los operadores pero requiere que los tribunales desarrollen estándares de cuidado para el despliegue de agentes—estándares que aún no existen en la mayoría de los contextos.

Modelo 3: Responsabilidad estricta con un límite de previsibilidad

Bajo este modelo, el operador es estrictamente responsable por acciones del agente que están dentro del rango previsible del comportamiento del agente, pero no por acciones verdaderamente imprevisibles. Este modelo toma prestado de conceptos de responsabilidad del producto: un fabricante es estrictamente responsable por defectos, pero no por todo mal uso de su producto.

El desafío con este modelo es definir "previsible" para un agente de IA. Dado que las salidas específicas del agente son inherentemente impredecibles, ¿qué cuenta como previsible? ¿Es previsible que un agente de servicio al cliente ocasionalmente proporcione información incorrecta? Probablemente sí. ¿Es previsible que el mismo agente genere contenido difamatorio? Eso depende del modelo, el dominio y las salvaguardas implementadas.

El prompt del sistema como otorgamiento de autoridad

Una de las preguntas más interesantes—y subexploradas—en responsabilidad del operador es el estado legal del prompt del sistema. En derecho de agencia tradicional, el principal otorga autoridad al agente a través de instrucciones, que pueden ser expresas o implícitas. El alcance de la autoridad del agente determina el alcance de la responsabilidad del principal.

El prompt del sistema es el mecanismo principal por el cual un operador otorga autoridad a un agente de IA. Define el rol del agente ("Eres un agente de servicio al cliente para la Empresa X"), sus objetivos ("Ayuda a los usuarios a resolver sus problemas"), sus limitaciones ("No hagas promesas sobre reembolsos sin aprobación del gerente"), y su personalidad ("Sé útil y profesional").

Pero un prompt del sistema no es lo mismo que un conjunto de instrucciones de empleado. No es exhaustivo—no puede anticipar cada situación. No es exigible de la misma manera—el agente puede desviarse del prompt de formas difíciles de predecir. Y no es transparente para terceros—el usuario que interactúa con el agente típicamente no sabe qué dice el prompt del sistema.

Si el prompt del sistema se trata como un otorgamiento de autoridad, entonces las acciones del agente consistentes con el prompt están dentro del alcance de la autoridad, y el operador está vinculado. ¿Pero qué hay de acciones que no están explícitamente abordadas por el prompt del sistema? ¿Están dentro del alcance de la autoridad implícita? ¿O exceden la autoridad del agente, potencialmente absolviendo al operador?

Implicaciones prácticas para operadores

Independientemente de qué modelo de responsabilidad finalmente prevalezca, los operadores pueden tomar medidas ahora para reducir su exposición:

  • Documente el alcance de la autoridad cuidadosamente. El prompt del sistema debe definir claramente qué puede y no puede hacer el agente. Esta documentación debe mantenerse como parte del registro de despliegue del agente.
  • Implemente salvaguardas apropiadas. Las salvaguardas técnicas—filtros de salida, restricciones de acciones, requisitos de intervención humana para decisiones de alto riesgo—demuestran cuidado razonable.
  • Monitoree y registre el comportamiento del agente. El monitoreo en tiempo real y el registro completo sirven tanto para propósitos operacionales como legales. Si surge una disputa, el operador necesita un registro forense de qué hizo el agente y por qué.
  • Planifique para fallos. Los fallos del agente no son una cuestión de "si" sino "cuándo". Tener un plan de respuesta a incidentes que aborde modos de fallo específicos del agente posiciona al operador para responder rápidamente y demostrar diligencia.
  • Asigne riesgo contractualmente. Los acuerdos con proveedores de modelos, proveedores de plataformas y proveedores de herramientas deben asignar claramente la responsabilidad por fallos del agente. Las disposiciones de indemnización, limitación de responsabilidad y seguro deben negociarse teniendo en cuenta el contexto del agente.

Relacionado

Responsabilidad del agente

¿Quién es responsable cuando un agente de IA actúa?

→ Leer
Teoría legal

El derecho de agencia se encuentra con agentes artificiales

→ Leer
This article is for informational purposes only and does not constitute legal advice. For advice specific to your situation, please contact us.

Siegel Bebeni LLP

A California limited liability partnership, d/b/a Attorney for Agents, counseling clients on the law of autonomous actors, AI agent liability, and emerging technology regulation.

Practice

Agent Liability Operator Compliance Tool Provider Risk AI Governance

Insights

Agent Liability Analysis The Operator's Dilemma Courts & AI All Insights

Firm

About Contact Disclaimer

© 2026 Siegel Bebeni LLP. All rights reserved.

Attorney Advertising

Prior results do not guarantee a similar outcome.