La doctrina del respondeat superior se basa en una premisa simple: un empleador puede instruir a un empleado, el empleado sigue esas instrucciones, y cuando el empleado actúa dentro del alcance del empleo, el empleador asume las consecuencias. El principal controla al agente. El agente actúa dentro del alcance de ese control. El principal acepta la responsabilidad como el costo de esa delegación.
Este marco tuvo sentido durante siglos porque los agentes humanos, por imperfectos que sean, podían comprender instrucciones, ejercer criterio dentro de parámetros conocidos, y ser supervisados y corregidos en tiempo real. La responsabilidad del principal estaba justificada por su control.
Los agentes de IA rompen esta suposición.
Cuando un operador despliega un agente de IA, el operador generalmente hace lo siguiente:
Lo que el operador no hace es determinar las salidas específicas del agente. El agente genera respuestas basadas en la interacción de su entrenamiento, el prompt del sistema, la entrada del usuario y el contexto actual—un proceso que, por diseño, no es completamente predecible. Este es el punto de usar un agente de IA en lugar de un sistema tradicional basado en reglas: el agente puede manejar situaciones novedosas que el operador no anticipó específicamente.
Pero esta misma capacidad—la habilidad del agente de manejar lo no anticipado—es precisamente lo que crea el dilema del operador. El operador autorizó al agente a actuar en un dominio general, pero no autorizó (y no pudo autorizar) las acciones específicas del agente. Si esas acciones específicas causan daño, ¿es el operador responsable?
Los tribunales y comentaristas no han establecido un marco para la responsabilidad del operador, pero tres modelos están surgiendo en la literatura y en jurisprudencia temprana:
Bajo este modelo, el operador es completamente responsable de todas las acciones del agente dentro del alcance desplegado, independientemente de si el operador pudo haber predicho o prevenido la acción específica. La justificación es que el operador eligió desplegar el agente, definió su alcance, y se benefició de su operación. El operador debe asumir los costos del daño así como un empleador asume los costos de la negligencia del empleado.
Este es esencialmente el enfoque adoptado en Moffatt v. Air Canada. La aerolínea desplegó el chatbot; la aerolínea fue responsable de sus salidas. No fue necesaria una investigación sobre si Air Canada pudo haber predicho la tergiversación específica.
Bajo este modelo, el operador es responsable solo si el operador no ejerció el cuidado razonable al desplegar y monitorear el agente. La investigación se enfoca en la conducta del operador: ¿eligió el operador un modelo apropiado? ¿Fueron las salvaguardas razonables? ¿Fue adecuado el monitoreo? ¿Se desplegó el agente para un caso de uso dentro de sus capacidades?
Este modelo es más indulgente con los operadores pero requiere que los tribunales desarrollen estándares de cuidado para el despliegue de agentes—estándares que aún no existen en la mayoría de los contextos.
Bajo este modelo, el operador es estrictamente responsable por acciones del agente que están dentro del rango previsible del comportamiento del agente, pero no por acciones verdaderamente imprevisibles. Este modelo toma prestado de conceptos de responsabilidad del producto: un fabricante es estrictamente responsable por defectos, pero no por todo mal uso de su producto.
El desafío con este modelo es definir "previsible" para un agente de IA. Dado que las salidas específicas del agente son inherentemente impredecibles, ¿qué cuenta como previsible? ¿Es previsible que un agente de servicio al cliente ocasionalmente proporcione información incorrecta? Probablemente sí. ¿Es previsible que el mismo agente genere contenido difamatorio? Eso depende del modelo, el dominio y las salvaguardas implementadas.
Una de las preguntas más interesantes—y subexploradas—en responsabilidad del operador es el estado legal del prompt del sistema. En derecho de agencia tradicional, el principal otorga autoridad al agente a través de instrucciones, que pueden ser expresas o implícitas. El alcance de la autoridad del agente determina el alcance de la responsabilidad del principal.
El prompt del sistema es el mecanismo principal por el cual un operador otorga autoridad a un agente de IA. Define el rol del agente ("Eres un agente de servicio al cliente para la Empresa X"), sus objetivos ("Ayuda a los usuarios a resolver sus problemas"), sus limitaciones ("No hagas promesas sobre reembolsos sin aprobación del gerente"), y su personalidad ("Sé útil y profesional").
Pero un prompt del sistema no es lo mismo que un conjunto de instrucciones de empleado. No es exhaustivo—no puede anticipar cada situación. No es exigible de la misma manera—el agente puede desviarse del prompt de formas difíciles de predecir. Y no es transparente para terceros—el usuario que interactúa con el agente típicamente no sabe qué dice el prompt del sistema.
Si el prompt del sistema se trata como un otorgamiento de autoridad, entonces las acciones del agente consistentes con el prompt están dentro del alcance de la autoridad, y el operador está vinculado. ¿Pero qué hay de acciones que no están explícitamente abordadas por el prompt del sistema? ¿Están dentro del alcance de la autoridad implícita? ¿O exceden la autoridad del agente, potencialmente absolviendo al operador?
Independientemente de qué modelo de responsabilidad finalmente prevalezca, los operadores pueden tomar medidas ahora para reducir su exposición: