OpenAI bajo la lupa: El primer gran pulso por intrusismo profesional en la era de la IA

¿Puede una inteligencia artificial ser declarada responsable por ejercer el Derecho sin licencia? Una demanda federal de Nippon Life Insurance contra OpenAI abre un debate sin precedentes sobre la responsabilidad de los desarrolladores y el futuro de la abogacía.

El pasado 4 de marzo de 2026, la firma Nippon Life Insurance Company of America presentó una demanda ante el Tribunal Federal para el Distrito Norte de Illinois contra OpenAI. El caso no es una simple disputa corporativa; es un examen crítico sobre los límites de la IA y si sus creadores pueden ser castigados cuando sus modelos actúan como «abogados piratas».

El litigio surge de una situación inusual: una usuaria, Graciela Dela Torre, utilizó ChatGPT para intentar reabrir un caso de incapacidad que ya había sido cerrado mediante un acuerdo legal. Lo que siguió fue una avalancha de 58 escritos procesales redactados por la IA, plagados de errores y alucinaciones legales, que han costado a la aseguradora miles de dólares en defensa.


Los tres frentes de la demanda contra OpenAI

Nippon Life no solo apunta a la usuaria, sino que responsabiliza directamente a OpenAI mediante tres pilares jurídicos fundamentales:

  • Interferencia ilícita en un contrato: La aseguradora alega que ChatGPT indujo a Dela Torre a romper un acuerdo transaccional válido, proporcionándole argumentos para impugnarlo a pesar de que ella ya había cobrado y renunciado a futuras reclamaciones.
  • Abuso del proceso: Se acusa a OpenAI de ser «partícipe necesario» en el hostigamiento judicial. La IA redactó mociones sin fundamento y solicitudes de prueba improcedentes con el único fin de acosar a la compañía.
  • Ejercicio no autorizado de la abogacía: Este es el núcleo del caso. En Illinois, la sección 705 ILCS 205/1 prohíbe ejercer el Derecho sin licencia. Nippon sostiene que ChatGPT realizó análisis jurídicos, seleccionó jurisprudencia y diseñó estrategias, tareas reservadas exclusivamente a humanos colegiados.

La «huella digital» de ChatGPT en los tribunales

La demanda presenta pruebas llamativas sobre la intervención directa del modelo de lenguaje en el expediente judicial:

  1. Iconos de la interfaz: Algunos escritos presentados por Dela Torre conservaban los iconos gráficos que emplea ChatGPT en su respuesta web.
  2. Citas fantasma: Se detectaron referencias a casos judiciales inexistentes o manipulados, un error característico de la «alucinación» de datos en los LLM.
  3. Cambio de política tardío: OpenAI modificó sus términos de uso en octubre de 2025 para prohibir asesoramiento legal, pero la demandante sostiene que la empresa diseñó y comercializó el producto para este fin durante meses, beneficiándose del entrenamiento con datos de usuarios.

Implicaciones y peticiones económicas

Nippon Life no solo busca una compensación, sino un precedente que frene la automatización descontrolada de servicios jurídicos:

  • Indemnización: Se reclaman 300,000 $ por daños compensatorios y 10 millones $ en daños punitivos para desincentivar este tipo de conductas por parte de las tecnológicas.
  • Orden de cese: La aseguradora solicita una orden judicial que prohíba a OpenAI seguir prestando asistencia jurídica y una declaración formal de que la actividad de ChatGPT en Illinois constituye intrusismo profesional.

Este caso obligará a los tribunales a decidir si la responsabilidad de los actos de una IA recae en el usuario o en la empresa que «entrena» y «vende» la capacidad de simular un juicio experto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *