Guía para el uso de Inteligencia Artificial para Abogados
1. Introducción
– La inteligencia artificial generativa (IAGen) ha irrumpido en el mundo jurídico y llegó para quedarse.
– No es un simple fenómeno pasajero ni una fantasía de ciencia ficción. Es una herramienta poderosa que puede potenciar el trabajo de abogados, magistrados y funcionarios judiciales.
La clave está en usarla con criterio, responsabilidad y conciencia plena de sus límites.
– Por tal motivo, el Colegio Público de la Abogacía de la Capital Federal consideró de utilidad que los matriculados tengan una guía de buen uso de la Inteligencia Artificial (IA) que les pueda servir como apoyo práctico para cualquiera que desee integrarla en su vida profesional con seguridad y la mayor eficiencia posible.
– Esta guía pretende llevar paso a paso por los conceptos, pilares de uso responsable, usos prácticos y riesgos del uso de la IA en el ámbito legal, teniendo como objetivo principal el de proporcionar a los abogados una visión clara y práctica sobre el uso de la IA en el ámbito legal. Se busca ofrecer criterios generales que permitan una adopción proactiva y eficiente de herramientas basadas en IA, destacando tanto las oportunidades como los riesgos asociados a su uso.
– El enfoque de esta guía es eminentemente práctico y pro uso de la IA, promoviendo su
integración en el ejercicio profesional para mejorar la eficiencia, la precisión y la accesibilidad en los servicios legales. Al mismo tiempo, se abordarán los riesgos potenciales que los abogados deben tener en cuenta para garantizar un uso responsable y ético de estas tecnologías.
– A tal fin se presentan con lenguaje claro conceptos básicos, objetivos, usos potenciales y, sobre todo, los riesgos que implica incorporar tecnologías de IA sin la debida cautela, ayudando a automatizar procesos, agilizar la investigación jurídica e incluso a generar borradores de textos legales, siempre recordando que la última palabra siempre debe ser la tuya.
– Partimos de la base que la IA es sólo un instrumento, y nunca debe ser considerada como un fin en sí mismo, razón por la cual la IA no exime de responsabilidad, el abogado sigue siendo el responsable último del contenido que presenta o firma sea o no generado por IA.
– Recuerde que la IA no decide y sólo el criterio humano es el que evalúa y adopta la decisión final, conforme a la ley y la ética, razón por la cual la IA nunca reemplaza el análisis jurídico, pues si bien puede considerarse una ayuda de importancia para la profesión, es incapaz de interpretar normas por sí sola y mucho menos decidir qué es lo justo.
2. Términos comunes
Si bien aquí se mencionan algunos términos que se utilizarán para la aplicación de la IA, se menciona un sencillo concepto de los más usuales:
– Modelo de “caja negra”: Muchos sistemas de IA no explican claramente cómo llegaron a una conclusión. Son como un truco de magia: se ve el resultado, pero no el proceso.
– ChatGPT y otros modelos: Herramientas basadas en arquitecturas de lenguaje (por ejemplo GPT – “Generative Pre-trained Transformer”), este modelo genera texto coherente a partir de lo que se escribe. Pero no es el único: también están Claude, Copilot, Gemini y otros…
– Deep learning (Aprendizaje profundo): Permite que los sistemas de IA aprendan de grandes volúmenes de datos y encuentren patrones para dar respuestas o generar contenidos.
– IA (Inteligencia Artificial): Sistemas informáticos que simulan procesos de inteligencia humana, basados en datos.
– IA generativa (IAGen): Conjunto de tecnologías capaces de crear contenido nuevo (texto, imágenes, videos, sonidos, etc.) en lugar de limitarse a clasificar o analizar datos.
– Chatbot de IAGen: Simula una conversación humana.
– Modelos de Lenguaje Grande (LLM): Son cerebros entrenados con millones de palabras. Por eso pueden escribir con tanta fluidez… aunque no siempre acierten.
– Prompt: Es la instrucción o pregunta que se ingresa en la IA para que el sistema, en base a dicha instrucción genere respuestas.
3. Pilares de uso responsable
El uso de cualquier herramienta tecnológica requiere determinadas competencias y conocimientos previos. Por eso, esta guía se basa en cuatro grandes pilares que garantizan un uso responsable y acorde a las normas, guías y regulaciones aplicables al ejercicio profesional de la abogacía.
a. Fomentar el uso responsable, fiel y ético de la IA: minimizando riesgos y evitando errores, prejuicios o información falsa generada por IA y previniendo la dependencia excesiva, manteniendo el estándar de calidad en la práctica legal que debemos tener los abogados.
b. Promover siempre el control humano adecuado y vedar la delegación de decisiones:
La última palabra la tiene que tener un humano. Siempre. La IA puede sugerir, nunca decidir. De acuerdo al Código de Ética Profesional, es misión esencial de la abogacía el afianzar la justicia y la intervención profesional del abogado, función indispensable para la realización del derecho. Es preciso señalar que la IAGen, dada su naturaleza, no se halla inmune a la producción de resultados que contengan sesgos susceptibles de generar discriminación, así como tampoco a caer en “alucinaciones”. Estos aspectos adquieren una relevancia particular en el ámbito legal, donde la exactitud y la veracidad son primordiales.
En consecuencia, la supervisión humana, provista de pensamiento crítico para analizar, corregir o modificar el contenido generado por la IAGen, constituye una actividad ineludible en el trabajo colaborativo con esta nueva herramienta.
c. Asegurar la protección de datos personales y el deber de confidencialidad: Cuidar la privacidad es sagrado. Evitar subir expedientes con datos sensibles a una herramienta sin garantías. Mantener la privacidad de la información sensible y evitar su divulgación en plataformas sin garantías de seguridad, respetando el secreto profesional y solicitando la autorización del cliente cuando corresponda. El abogado debe respetar rigurosamente todo secreto profesional y oponerse ante los jueces u otra autoridad al relevamiento del secreto profesional, negándose a responder las preguntas que lo expongan a violarlo. Sólo queda exceptuado: a) Cuando el cliente así lo autorice; b) Si se tratare de su propia defensa.
d. Promover la formación y capacitación continua: Fomentar la actualización permanente de los profesionales en las nuevas tecnologías jurídicas y el desarrollo de habilidades interdisciplinares que combinen derecho, tecnología y ética. La IA cambia rápido. Por eso hay que actualizarse constantemente para usarla con inteligencia y criterio, al igual que en el resto de las disciplinas. A partir del entendimiento que la IAGen está generando cambios exponenciales en la forma de trabajar nunca vistos, atender la permanente capacitación profesional es un deber inherente al ejercicio de la abogacía.
4. Directrices generales de uso
4.1. La IA no exime de responsabilidad: el abogado sigue siendo responsable de lo que presenta.
4.2. Las decisiones las toma el humano: la IA solo sugiere, propone o redacta, no decide.
4.3. La IA no reemplaza el análisis jurídico: ayuda, pero no interpreta ni aplica normas.
4.4. Informarse sobre las limitaciones técnicas, así como también entender con precisión con qué tipo de información cuenta la herramienta y hasta qué año se encuentra actualizada su base de datos, es fundamental para no caer en errores.
4.5. El uso de sistemas de IA, incluido el método de IA empleado, debe ser justificado, adecuado al contexto y no exceder de lo necesario, y proporcionado para lograr los objetivos propuestos.
5. Directrices específicas para cumplir con los objetivos
5.2. Objetivo 1: Uso responsable y mitigación de riesgos
– Validar todo el contenido: Corrobore siempre la exactitud del antecedente informado por el sistema. Siempre revise lo que dice la IA, ya que puede alucinar y crear citas falsas. Es falta ética efectuar citas doctrinarias o jurisprudenciales inexistentes, o exponerlas en forma tal que falseen la opinión o el fallo invocados, o realizar falsas transcripciones de resoluciones judiciales o escritos del contrario.
– Detectar sesgos: La IA puede reflejar prejuicios de los datos con los que fue entrenada durante su proceso de desarrollo y autoaprendizaje. No obstante, comprendiendo la naturaleza de esta tecnología, el peligro principal no es la presencia del sesgo, sino la falsa sensación de neutralidad que puede inducir, evitando así una posterior evaluación crítica del contenido producido. La discriminación que pasa desapercibida es el verdadero riesgo inherente a los sesgos en estos algoritmos.
– Deber de información y transparencia: Mantenga una comunicación transparente con sus clientes, explicando cuando use herramientas de IA y busque su autorización antes de compartir cualquier información personal, como ser datos personales, sensibles e información confidencial. Decir la verdad al cliente, no crearle falsas expectativas, ni magnificar las dificultades, o garantizarle el buen resultado de su gestión profesional y atender los intereses confiados con celo, saber y dedicación. No use IA si no puede explicar cómo llegó al resultado.
– Evitar la dependencia ciega: Contraste la información provista por la IA con fuentes confiables, y use finalmente su propio criterio profesional. La IA puede sonar confiada… pero puede estar equivocada.
– Usar dispositivos seguros: evite usar cuentas personales o redes públicas.
– Entender que la IA no “busca” información: Recuerde que la IA no “busca” información como un motor de búsqueda tradicional, sino que genera texto basado en patrones aprendidos. Solo genera texto coherente.
– Saber que puede fallar: no hace lógica, ni calcula como un humano.
5.3. Objetivo 2: Control humano y prohibición de delegación
– Supervisión permanente: Relea y revise cada texto generado para identificar posibles errores o inconsistencias. Uno de los deberes inherentes al ejercicio de la abogacía es utilizar las reglas de Derecho para la solución de todo conflicto, fundamentado en los principios de lealtad, probidad y buena fe.
– Validar todo el contenido: Revise con detenimiento y confirme las citas normativas, doctrinarias y jurisprudenciales que pueda elaborar el informe de IA, dado que podrían ser ficticias.
– No delegar decisiones: La IA asesora, pero nunca sustituirá la responsabilidad jurídica del abogado.
– La responsabilidad es suya: lo que se firma o presenta es de su única y exclusiva responsabilidad, no de la IA.
– Control en cada etapa: Si la IA interviene en varias fases (borrador, edición, etc.), supervise en cada paso la exactitud de lo informado.
– Medir el impacto: Observe cómo influye la IA en sus decisiones.
5.4. Objetivo 3: Protección de datos personales y deber de confidencialidad
– No subir datos sensibles: sin garantías claras de privacidad, no cargue nada confidencial. Asegúrese de que la plataforma utilizada ofrezca protocolos de seguridad y privacidad adecuados.
– Anonimizar información: enmascare nombres, documentos, información sensible o referencias si es necesario. Cuando sea posible, reemplace nombres y detalles identificatorios por referencias genéricas de la información que subas a IA
– Evaluar las políticas de privacidad: no todas las herramientas cuidan igual su información. Lea detenidamente los términos y condiciones de la herramienta de IA que use, ya que no todas ofrecen el mismo nivel de protección de datos.
– Formarse en buenas prácticas: todos los abogados deberían saber cómo proteger datos. Todo abogado debe conocer los fundamentos de la ciberseguridad y el resguardo de información cuando utilice herramientas como los sistemas de IA.
5.5. Objetivo 4: Formación y capacitación continua
– Diseñar capacitaciones prácticas: Infórmese sobre cómo redactar mejores prompts y cómo detectar sesgos o errores.
– Fomentar el trabajo interdisciplinario: Participe en reuniones con expertos en derecho, tecnología y ética sobre el tema para enriquecer la formación.
– Actualizarse constantemente: La IA avanza muy rápido; quienes no se formen correrán el riesgo de quedar desinformados.
– Difundir manuales claros: Elabore y comparta estos lineamientos en ayuda a estandarizar buenas prácticas para que el público sepa cómo, por qué y para qué tareas se usa IA.
6. El prompting
6.1. Concepto general de prompting: Se refiere a la manera en que le da instrucciones o plantea preguntas a un modelo de IA para que genere respuestas o realice ciertas tareas. En términos simples, es como darle una “pista” o indicar el contexto y los detalles a la IA, para que entienda lo que quiere y le dé la mejor respuesta posible. Un prompt es como una brújula.
Le dice a la IA hacia dónde ir. Es la medida de la asertividad de la respuesta. Dependiendo de cómo lo formule la respuesta será útil… o un “problema”.
6.2. Sugerencias específicas para el prompt
a. Sea claro y directo: Al ingresar el prompt o instrucción, sea lo más explícito y claro posible, sin dar vueltas.
b. Brinde contexto: explique detalladamente el caso, el destinatario, el objetivo.
c. Fije un tono y estilo: legal, informal, explicativo, breve, con perspectiva de género, etc.
d. Use ejemplos y palabras clave: ayudan a enfocar. Piense que cuanto más específico sea el prompt, mejor será la respuesta.
e. Proceso iterativo: Pruebe, revise y corrija las veces que sea necesario el informe emanado de la IA; el aprendizaje se da por ensayo y error y, si no respondió lo que buscaba, no se preocupe, pregúntele cuantas veces quiera.
f. Asigne un rol a la IA: Indíquele claramente cómo desea que efectúe la investigación, por ejemplo, pídale que actúe como “un abogado experto en derecho laboral”, por ejemplo.
g. Indique formato y extensión: Solicite resúmenes, tablas comparativas o la longitud del texto deseado, indicando el mínimo de palabras que desea.
h. Pida fuentes si es posible: si usa IA conectada a internet, exija referencias y siempre verifíquelas por Ud. en los sitios referenciados ya que puede haber errores, alucinaciones o fallas en las fuentes citadas.
i. Evite las ambigüedades, contradicciones e imprecisiones: En caso de que el prompt contenga este tipo de deficiencias, el resultado será la obtención de resultados genéricos o vagos, en lugar del resultado a medida necesitado. Una limitación de la IA es que responde en función de lo que se le dice, sin distinguir entre afirmaciones verdaderas y falsas, a menos que se le pida expresamente que cuestione o verifique.
j. Ajuste los parámetros: En los LLM, la temperatura es un parámetro que regula el grado de aleatoriedad en las respuestas generadas. Valores bajos (cercanos a 0) producen resultados más predecibles y precisos, ideales para el ámbito jurídico; en cambio, temperaturas altas (cercanas a 1) fomentan respuestas más creativas, aunque menos consistentes. Por ejemplo, al solicitar un resumen de jurisprudencia para un escrito judicial, conviene establecer una temperatura baja para garantizar información clara y ajustada a derecho.
k. Haga que la IA lo conozca lo más posible: Cuanto más lo conoce, más puede adaptar sus respuestas a su estilo y necesidades y generar resultados más alineados con su estilo de búsqueda.
Lo más importante: dígale expresamente que no le mienta ni invente respuestas, y corrobore que cumplió con lo que le ordena. Si no lo hace, dígaselo directamente.
6.3 Tipos de prompts: existen diversas técnicas de prompting diseñadas para optimizar el rendimiento de las IA, cuya aplicación variará según el tipo de tarea que sea necesario realizar. Entre las más relevantes, en orden de complejidad, se encuentran:
– Zero-shot prompting: Utilizada en situaciones cuando se requieren respuestas a preguntas básicas o sobre temas amplios. El objetivo es proporcionar información de manera concisa y sin una introducción contextual detallada. Por ejemplo: “¿Cuál es la capital de la Provincia de Buenos Aires?”.
– One-shot prompting: En este caso, la solicitud no se limita a una respuesta, sino que busca la creación de un contenido específico, como un texto o una imagen. Por ello, se proporciona un ejemplo del resultado deseado. Por ejemplo: “Redactá una cláusula de rescisión anticipada de un contrato de locación, similar a esta cláusula que regula la finalización anticipada en el contrato que adjunto”.
– Few-shot prompting: A diferencia del caso anterior, cuando se requiere un resultado más preciso, es necesario proporcionar múltiples ejemplos. Esto permitirá a la IA comprender mejor el patrón subyacente y la tarea encomendada: Por ejemplo: “Determina la rama del derecho a la que pertenece la siguiente norma: ‘Ley que regula el matrimonio igualitario’ – ‘Derecho de familia’; ‘Artículo del Código Penal sobre el hurto’ – ‘Derecho penal’; ‘Ley de defensa del consumidor’ – ‘Derecho del consumidor’.
Ahora determina la rama del derecho de: ‘Artículo de la Constitución Nacional sobre la libertad de expresión”
– Tree of Thoughts: En este último caso, el objetivo del prompt es obtener conclusiones bien fundamentadas o desarrollar un pensamiento crítico sobre un tema específico que requiera un análisis detallado. Esta técnica se denomina así por su estructura jerárquica y ramificada, y busca representar ideas y argumentos de forma organizada. Por ejemplo, para un determinado caso de custodia de un menor: “Desarrollá un árbol de pensamiento que explore los argumentos a favor de otorgar la custodia principal a la madre, considerando factores como el vínculo afectivo primario y la disponibilidad horaria. Luego, explorá los argumentos a favor del padre, considerando su estabilidad económica y la cercanía a la escuela del menor. Finalmente, considera un punto de vista que proponga la custodia compartida, analizando los beneficios y desafíos de esta modalidad para el bienestar del menor”.
7. Conclusiones
– La IA generativa puede ser una aliada invaluable para el mundo legal. Pero como toda herramienta poderosa, necesita reglas claras, criterio firme y un ojo crítico.
– Recuerde que su uso exige la aplicación de criterios éticos y un compromiso firme con la responsabilidad profesional.
– No se trata de reemplazar el trabajo del abogado, sino de potenciarlo.
– La IA no reemplaza su criterio jurídico ni su conocimiento de la ley, puede equivocarse o presentar sesgos y requiere que se supervise sus resultados en todo momento.
– La implementación cuidadosa de estos lineamientos le permitirá aprovechar las enormes ventajas de la IA sin comprometer la calidad de tu trabajo ni la confianza de tus clientes.
– Si se usa con responsabilidad, puede ahorrar tiempo, mejorar la calidad del trabajo jurídico y facilitar el acceso a la justicia. Pero si se usa de manera no responsable, puede poner en riesgo derechos fundamentales, decisiones clave o incluso la confianza en la profesión y el sistema judicial.
– Use la IA, pero basándose en esta guía que le orientará hacia un uso ético, responsable y transparente y así va a evitar poner en riesgo su trabajo, los intereses de su cliente y su reputación. Jamás deje de pensar ni de cuestionar sus respuestas con la mirada experta de un profesional del derecho como la suya y, si tiene dudas, consulte con un colega (humano).
Documento elaborado por el Laboratorio Fintech y Legaltech, dependiente de la Unidad de Innovación y Transformación Digital del CPACF.
Coordinación: Dr. Agustín Pesce
Redacción: Dres. Martín Granero, María Belén del Rosso, Fernando Felder, Gonzalo Spada, Raquel Mass, Ezequiel Domínguez y Horacio Granero.
Buenos Aires, julio de 2025
Importante: Si no sos Abogado/a y necesitás asesoramiento jurídico por una situación específica, es fundamental consultar con un/a Abogado/a. Los contenidos aquí provistos son de carácter informativo y general, y pueden no estar actualizados o contener errores.