← Donna EditorialAnálisisMARZO 2026

El prompt como variable invisible: por qué la misma IA da resultados tan distintos entre un abogado y otro

La diferencia entre un análisis genérico y uno útil no está en el modelo de inteligencia artificial sino en cómo se le plantea la consulta. Un recorrido por los errores más comunes y las prácticas que están separando a los estudios que aprovechan la IA de los que la descartan prematuramente.

Hay una escena que se repite en estudios jurídicos de todo el país: un abogado prueba ChatGPT o Claude, le pega el texto de una demanda y escribe algo como "analizame esto y decime qué opinas". El resultado es un resumen tibio, genérico, que no le dice nada que no supiera. La conclusión es inmediata: "la IA no sirve para derecho".

Lo que ese abogado no sabe es que un colega, con la misma herramienta y el mismo expediente, obtuvo un análisis que le señaló un rubro indemnizatorio faltante, un encuadre normativo incompleto y un plazo pericial a punto de vencer. La diferencia no fue el modelo. Fue el prompt.

El término "prompt" (la instrucción que el usuario le da al asistente) se convirtió en una suerte de variable invisible de la práctica profesional con IA. Invisible porque no se enseña en la facultad, no aparece en los manuales de estilo de los colegios profesionales y rara vez se discute entre colegas. Pero determina, en términos muy concretos, si la herramienta produce algo valioso o ruido.

Qué hace que un prompt funcione en contexto jurídico

Los modelos de lenguaje operan sobre probabilidades. Cuanto más preciso es el marco que se les define, más acotado y relevante es el espacio de respuestas posibles. En la práctica legal, eso se traduce en tres factores que separan un prompt eficaz de uno inútil.

El primero es el rol. Indicarle al asistente que actúe como un especialista en una rama específica del derecho no es un formalismo: le define el marco normativo, la jurisprudencia habitual y el tipo de análisis esperado. No es lo mismo pedirle un análisis genérico que pedirle que evalúe un caso como lo haría un laboralista con experiencia ante el CNAT.

El segundo es la especificidad del pedido. "Analizá este expediente" es una instrucción que admite miles de respuestas posibles. "Identificá si la demanda encuadra correctamente la responsabilidad del art. 1757 CCCN y si los rubros reclamados están completos para un accidente con lesiones graves" reduce drásticamente el margen de ambigüedad. El asistente no tiene que adivinar qué quiere saber el abogado.

El tercero, y probablemente el más determinante, es el contexto. Un modelo que recibe un texto copiado y pegado en un chat trabaja con información fragmentada. Un modelo que tiene acceso directo al expediente completo, con todas sus actuaciones, escritos y resoluciones, opera sobre la realidad procesal del caso. La diferencia de calidad en el output es proporcional a la diferencia de calidad en el input.

El problema no es la IA: es la expectativa mal calibrada

Una parte significativa del escepticismo que todavía existe en la profesión respecto de la IA proviene de experiencias iniciales mal planteadas. El abogado que prueba la herramienta con una consulta vaga y obtiene una respuesta vaga concluye, razonablemente, que no le sirve. Pero la conclusión correcta no es que la IA no funciona, sino que no se la supo usar.

Esto no es exclusivo del derecho. Ocurre en cualquier profesión donde se adopta una herramienta compleja sin capacitación previa. La diferencia es que en otras industrias (consultoría, finanzas, medicina) ya existen protocolos de uso y guías institucionales. En el derecho argentino, cada abogado está aprendiendo solo, por prueba y error.

Algunos estudios empezaron a sistematizar ese conocimiento. Desarrollan bibliotecas de prompts internos, adaptados a sus áreas de práctica, que funcionan como plantillas reutilizables. Un prompt para analizar una liquidación laboral. Otro para revisar la fundamentación de una sentencia de familia. Otro para detectar inconsistencias en una pericia médica. No son fórmulas mágicas, pero sí estructuras que garantizan un piso de calidad en cada interacción con el asistente.

La conexión directa al expediente como diferencial

Hay un salto cualitativo que se produce cuando el abogado deja de copiar y pegar textos en un chat y pasa a trabajar con el expediente conectado directamente al asistente. En ese escenario, el modelo no depende de lo que el usuario recuerde incluir: tiene acceso a la totalidad de las actuaciones, en su versión más reciente, tal como figuran en el portal judicial.

Esa diferencia resuelve uno de los problemas más frecuentes en el uso de IA jurídica: la descontextualización. Un análisis hecho sobre un fragmento de expediente puede ser técnicamente correcto, pero procesalmente inútil si ignora una resolución posterior que cambió el estado del caso. Cuando el asistente trabaja sobre la fuente completa, el riesgo de análisis desfasados se reduce significativamente.

Donna opera precisamente sobre esa lógica: funciona como middleware que conecta los datos de los portales judiciales con los asistentes de IA, de modo que el expediente ya está en contexto cuando el abogado formula su consulta. El prompt sigue siendo responsabilidad del profesional, pero la base fáctica sobre la que opera la IA es la del expediente real, no una versión parcial reconstruida de memoria.

Lo que viene

La calidad del prompting jurídico va a dejar de ser un diferencial individual para convertirse en un estándar profesional. A medida que más estudios incorporen IA en sus flujos de trabajo, la distancia entre quienes saben pedir y quienes no se va a traducir en diferencias medibles de productividad, precisión y competitividad.

La pregunta relevante para cualquier abogado que ya esté usando estas herramientas, o que esté por empezar, no es si la IA es útil para el derecho. Es si está aprovechando siquiera una fracción de lo que la herramienta puede hacer cuando se la usa bien.

A
Alina SerraFounder de Donna

Abogada especializada en Legaltech y fundadora de Donna. Escribe sobre inteligencia artificial aplicada a la práctica jurídica en Argentina.

Más artículos

Práctica Procesal

El Hexágono de Hierro: protocolo de seis etapas para usar IA en litigación penal sin exponer el expediente ni firmar errores

Hay un error que no se detecta cuando redactás. Se detecta cuando el juez levanta la vista en audiencia y pregunta: "Doctor, ¿me indica dónde está publicado ese fallo?". El Hexágono de Hierro es el protocolo de seis etapas —cinco con IA y una sin ella— diseñado para que cada afirmación de un escrito penal tenga respaldo verificable antes de llegar al tribunal.

Donna EditorialABRIL 2026
Análisis

La IA en el fuero laboral: cómo están usando la tecnología los estudios argentinos más activos

Un relevamiento sobre las herramientas que están adoptando los abogados laboralistas para agilizar análisis, redacción y gestión de causas ante el CNAT.

Donna EditorialFEBRERO 2026
Legaltech

Qué es el MCP y por qué va a cambiar la forma de trabajar de los abogados

La nueva forma de conectar herramientas de IA con datos profesionales, explicada para estudios jurídicos.

Donna EditorialFEBRERO 2026
Jurisprudencia

IA en escritos judiciales: lo que dicen los tribunales argentinos

Repaso de los pronunciamientos que están definiendo el marco de referencia para el uso de inteligencia artificial en la práctica legal.

Donna EditorialENERO 2026
Derecho Digital

Protección de datos en el uso de IA jurídica: lo que todo abogado debe saber

Guía práctica sobre cómo usar asistentes de IA sin comprometer la confidencialidad de tus clientes.

Donna EditorialENERO 2026