← Donna EditorialDerecho DigitalENERO 2026

Protección de datos en el uso de IA jurídica: lo que todo abogado debe saber

Guía práctica sobre cómo usar asistentes de IA sin comprometer la confidencialidad de tus clientes.

Cuando un abogado le pega a ChatGPT el texto de una demanda que incluye el nombre, DNI y datos laborales de su cliente, ¿qué pasa con esa información? La pregunta, que hasta hace dos años era académica, se volvió urgente a medida que los asistentes de IA se instalaron en el flujo de trabajo de los estudios jurídicos argentinos.

La respuesta corta: depende de qué herramienta usés y de cómo la configurés. Las implicancias legales, en cambio, son siempre las mismas: el secreto profesional del abogado (art. 156 del Código Penal y normativa colegial) no cede porque la herramienta sea tecnológica.

Los modelos de lenguaje comerciales tienen políticas distintas respecto al uso de datos ingresados en sus interfaces. Algunos los usan para entrenar futuros modelos salvo que el usuario opte por no participar. Otros ofrecen planes empresariales donde los datos no se utilizan para entrenamiento y quedan aislados del resto de los usuarios.

Para el abogado, la distinción es crítica. Usar la versión gratuita o básica de un asistente de IA con datos de clientes puede implicar que esa información se incorpore a los datos de entrenamiento del modelo, lo que a su vez podría —en teoría— hacer que esa información aflore en respuestas a otros usuarios.

Las recomendaciones prácticas son tres. Primero: usá planes empresariales o de pago que garanticen que tus datos no se usan para entrenamiento. Segundo: anonimizá los datos sensibles cuando sea posible —en muchos casos, el asistente puede hacer su tarea sin saber el nombre real del cliente. Tercero: revisá los términos de servicio de cada herramienta, especialmente las cláusulas de privacidad y retención de datos.

En el caso de Donna, la arquitectura está diseñada para que los datos del expediente no salgan del entorno controlado del estudio. La conexión con el asistente de IA ocurre sin que la información del cliente transite por servidores de terceros no controlados. Es el mismo principio que aplican las soluciones de IA empresarial más consolidadas a nivel global.

La regulación argentina sobre IA y protección de datos está en construcción. La Ley 25.326 de Protección de Datos Personales aplica, pero no fue diseñada para este escenario. Hasta que haya normas específicas, la responsabilidad recae en el criterio del profesional. Y ese criterio empieza por entender qué le estás dando a la herramienta que usás.

Más artículos