Hace unos días, Nippon Life Insurance Company of America presentó una demanda contra OpenAI alegando que ChatGPT ejerce la abogacía sin licencia.
El argumento es que una litigante pro se utilizó el sistema para elaborar decenas de mociones judiciales, lo que habría obligado a la empresa a gastar cientos de miles de dólares en trabajo legal adicional.
El caso abre una pregunta novedosa: ¿puede un asistente de inteligencia artificial ser considerado responsable por influir en decisiones jurídicas de un usuario?
La discusión se vuelve más interesante cuando se observan los datos reales sobre cómo utiliza la gente ChatGPT. El estudio How People Use ChatGPT, difundido por OpenAI y publicado como working paper del National Bureau of Economic Research, analizó aproximadamente 1.1 millones de conversaciones reales entre 2024 y 2025.
El hallazgo central es que casi 80% del uso global se concentra en tres funciones: pedir guía práctica, buscar información y mejorar textos. La categoría más frecuente es la guía práctica (alrededor de 29%), seguida por la búsqueda de información, que creció de 14% a 24 % del uso total en un año. La escritura, —edición, resumen, traducción o mejora de documentos, constituye el tercer gran bloque de interacción.
Dentro de ese patrón aparece el uso legal. Aunque no existe una categoría independiente para “abogacía”, el análisis sugiere que las consultas jurídicas se distribuyen principalmente entre búsqueda de información normativa y redacción o revisión de documentos, que forman parte del bloque de escritura.
En contextos laborales, por ejemplo, cerca de 40 % de los mensajes se relacionan con redacción y documentación, y 81 % de las interacciones de trabajo se orientan a interpretar información, resolver problemas y apoyar decisiones. Esto indica que el sistema funciona más como una herramienta de apoyo cognitivo que como sustituto directo de un profesional.
En ese contexto, la demanda enfrenta un dilema jurídico importante. No fue el sistema quien presentó las mociones ni quien compareció ante el tribunal; fue la usuaria.
La inteligencia artificial pudo haber influido en su razonamiento, pero no ejecutó el acto jurídico. Y ahí aparece el verdadero desafío para el derecho contemporáneo: entender cómo regular tecnologías que amplían la capacidad de las personas para pensar, escribir y cuestionar decisiones, sin confundir esa asistencia intelectual con el ejercicio formal de una profesión.