Capítulo 1: El abogado en tiempos de la IA: riesgos y “alucinaciones”.
En este capítulo analizamos —con ejemplos concretos y fundamentos legales— cómo el uso de IA en el Derecho mexicano abre oportunidades, pero también expone al litigante a riesgos inéditos, incluyendo el peligro de las llamadas “alucinaciones” generativas.
Nery González
8/21/20257 min read
La seducción de la velocidad
Las plataformas de IA, como ChatGPT, Gemini o Copilot (por mencionar algunas), ofrecen al abogado mexicano la posibilidad de localizar información en segundos, resumir contratos y sentencias o jurisprudencia extensa, realizar análisis y sugerir estrategias legales en minutos, así como redactar todo tipo de escritos, correos e informes.
La velocidad con la que trabaja esta tecnología, no solo es impactante, sino que su aparente “coherencia” es especialmente tentadora para dar por buena la información que nos ofrece y transcribirla tal cual se presenta, sobre todo si existe carga de trabajo y plazos fatales a la vuelta de la esquina.
No obstante la rapidez con la que la IA presenta la información, su aparente “congruencia” no es sinónimo de precisión ni sustituye la obligación inherente a todo profesional de revisar y verificar la información que será presentada en las distintas áreas del quehacer jurídico, pues el riesgo de que la información no sea precisa, está siempre presente.
Alucinaciones: cuando la IA “se inventa la ley o la jurisprudencia”
En el contexto de la inteligencia artificial, una “alucinación” no tiene el mismo significado de experiencia delirante como en un humano, sino que el término alucinación se usa metafóricamente para indicar que la información generada, si bien puede ser lógica o plausible, no necesariamente es correcta ni verdadera.
Específicamente en el ámbito jurídico, se puede solicitar a una IA que busque información especifica sobre algún tema legal, la IA en segundos presentará una serie de información basada en normas, precedentes judiciales, doctrina, etc., la mayoría de las veces será información valiosa que encuentre su base en fuentes reales o existentes.
Sin embargo, la IA puede cometer errores y presentar información de sentencias o jurisprudencia inexistentes, fuentes inventadas o criterios que no figuran en la legislación vigente.
También te puede interesar capítulo 2 "El secreto profesional en la era digital".
¿Por qué ocurren esas alucinaciones?
Las alucinaciones de IA son resultados incorrectos o engañosos que se generan en el propio proceso de búsqueda de información, que pueden deberse a diversos factores como la actualización del modelo que se esté utilizando para la consulta, datos de entrenamiento insuficientes, suposiciones incorrectas realizadas por el modelo o sesgos en los datos usados para entrenar el modelo.
En algunos otros casos, las alucinaciones se presentan debido a la complejidad de la tarea que se le está pidiendo ejecutar a la IA, por ejemplo, si en la práctica se pide a un modelo de IA que analice un caso concreto y busque información especifica para apoyar alguna postura, la IA buscara la información, pero al no localizarla se confundirá con la propia información que le proporcionó el usuario para crear e integrar la información que le fue solicitada, arrojando información (normas jurídicas y jurisprudencia), que encajan perfectamente con lo que se le pidió, pero que en realidad no existe porque la IA finalmente la creó con base en la información que le fue proporcionada por el usuario.
Casos reales de “alucinaciones” de IA:
El tema de las “alucinaciones” de IA, no son teoría, se han documentado casos, en los que abogados o despachos de abogados, se han visto expuestos o sancionados por no cumplir con su deber de cuidado profesional al utilizar la información generada por IA.
Se citan algunos casos reales:
Australia Occidental (Agosto 2025): De acuerdo con el portal “theguardian.com”, un abogado fue referido a la Junta de Práctica Legal tras presentar documentos en un caso de inmigración que incluían cuatro citas judiciales no existentes, generadas por plataformas como Claude AI y Microsoft Copilot. La corte impuso una orden de costos de 8,371.30 dólares y se advirtió sobre los peligros del uso irreflexivo de IA en procesos legales. Este incidente forma parte de más de 20 errores similares en tribunales australianos desde 2023.
España (Abril 2025): De acuerdo con el sitio web Elzaburu.com (Riesgos del uso de IA generativa en el sector legal), un abogado español presentó una querella en la que citó normas del Código Civil colombiano creyendo que correspondían a la legislación española. El abogado se excusó por el error, y no obstante haber sido investigado por abuso de derecho o mala fe procesal, se archivó la causa sin imponerse sanciones.
Nueva York (junio 2023): De acuerdo con el portal reuters.com un juez federal de Manhattan impuso sanciones a dos abogados y su despacho —Levidow, Levidow & Oberman— por presentar un escrito legal que contenía seis citas judiciales ficticias generadas por ChatGPT. El juez concluyó que los abogados actuaron de mala fe y realizaron “actos de evitación consciente y afirmaciones falsas y engañosas” al tribunal. La multa total fue de USD 5 000.
Específicamente en México, no tenemos conocimiento de que se haya sancionado a algún abogado o despacho por presentar información incorrecta en tribunales; no obstante, la legislación mexicana vigente, si prevé sanciones para este tipo de situaciones.
Impacto procesal y responsabilidad profesional en México.
Citar normas o precedentes judiciales en juicio, —aunque provenga de un error de IA— puede acarrear sanciones procesales, civiles o penales para el profesional, las cuales nos permitimos citar a continuación:
a) Consecuencias procesales y/o administrativas:
El artículo 7, fracción XI del Código Nacional de Procedimientos Civiles y Familiares (CNPCyF), se refiere a la lealtad procesal, conforme a la cual, quienes participen en un proceso deben conducirse con probidad y buena fe, lo que significa que las partes deben conducirse en juicio sin dolo ni simulaciones de ningún tipo.
Para hacer cumplir los principios rectores del juicio y mantener el orden, los jueces pueden imponer diversas medidas o correcciones disciplinarias como:
amonestaciones (represiones verbales, escritas o electrónicas al infractor),
apercibimientos (prevenciones para reincidencias),
multas,
expulsiones del recinto judicial e inclusive,
arrestos administrativos.
A su vez, el artículo 235 fracción VII del CNPCyF, dispone que el escrito inicial de demanda debe cumplir -entre otros requisitos-, con la cita de los fundamentos de derecho (preceptos legales y/o convencionales, criterios jurisprudenciales o principios jurídicos aplicables), en tanto que el artículo 236 prevé la prevención por una sola ocasión en caso de que falte alguno de los requisitos establecidos, y la consecuencia legal del desechamiento de la demanda en caso de no subsanar la omisión.
Las disposiciones anteriores implican que los abogados tienen el deber de conducirse con probidad y buena fe en juicio, pudiendo ser sancionados verbalmente por el Juez en caso de no cumplir los principios rectores, o tener consecuencias procesales desfavorables por no cumplir con el marco legal.
“El deber de probidad y buena fe exige que todas las afirmaciones y citas de normas o jurisprudencia sean reales, pertinentes y verificables. La simulación, el dolo o la invención de fuentes son conductas sancionadas tanto procesalmente como, en su caso, penalmente.”
b) Consecuencia Civiles:
Los artículos 40 y 71 de la Ley Reglamentaria del artículo 5º constitucional (relativo a las profesiones), establecen que los profesionistas serán civilmente responsables de las contravenciones que se cometan en el desempeño de trabajos profesionales, hechos por sí o por dependientes a su cargo, y que aún asociados, la responsabilidad es individual.
En concordancia, el Código Civil Federal en su artículo 1910, regula la responsabilidad resultante por ocasionar daños y perjuicios a otra persona, en este caso, por errores cometidos durante el desempeño profesional.
Las disposiciones anteriores, arrojan al profesionista la responsabilidad total por los errores que se comentan en el proceso, sin importar si la información fue generada por IA, el abogado es civilmente responsable hacia su cliente por los errores que cometa en juicio, incluida la cita errónea de preceptos o precedentes judiciales.
c) Consecuencias Penales:
El artículo 231 del Código Penal Federal (CPF), establece como delitos cometidos por abogados, patronos y litigantes, el alegar a sabiendas hechos falsos, o leyes inexistentes o derogadas, en tanto que la Ley de Amparo en su artículo 261, contempla como delito con pena de prisión, que el quejoso, o su abogado autorizado, o a ambos, con el propósito de obtener una ventaja procesal indebida, en la demanda afirmen hechos falsos u omitan los que les consten en relación con el acto reclamado.
De cuyo contenido normativo, se advierte que el citar hechos falsos, leyes o precedentes judiciales inexistentes, puede ser motivo de responsabilidad penal, sin importar si el error lo cometió la IA, pues será responsable la persona (interesado o abogado), que hizo llegar la información a juicio y pretende obtener una ventaja o resultado favorable con esa información.
Verificación y diligencia.
Como se advierte, la transformación digital se ha vuelto esencial en el quehacer jurídico; sin embargo, la propia transformación digital impone un esfuerzo de diligencia profesional:
Confirmar cada cita en fuentes oficiales (SCJN, DOF, Semanario Judicial de la Federación).
Verificar que la norma o jurisprudencia se encuentre vigente y sea aplicable al caso concreto.
No delegar el análisis jurídico a la IA, pues la IA debe ser usada como apoyo, pero jamás como sustituto del criterio profesional del abogado.
Documentar internamente el uso de IA, dejando constancia de que parte de la información fue generada por IA, pero que en todos los casos ha sido valorado por un abogado antes de presentarse en juicio.
Informar al cliente si la IA es parte del proceso de análisis de su caso, por transparencia y ética, así como para efectos de consentimiento informado.
Conclusión y recomendaciones finales
Si bien, no se han documentado casos en México de sanciones impuestas a abogados por uso inadecuado de la IA en procesos judiciales, el propio uso de la IA constituye un riesgo en sí mismo, siendo que la legislación mexicana contempla consecuencias procesales o administrativas, civiles y hasta penales por errores en citas de preceptos o precedentes judiciales, por lo que si bien, la inteligencia artificial es una aliada poderosa para el ejercicio profesional del Derecho, debe utilizarse con criterio y control profesional, ya que las “alucinaciones” de la IA no excusan la negligencia ni pueden ser utilizadas como excusa para evadir la responsabilidad resultante, hace más evidente la falta de cuidado y ética profesional.
Recomendación final:
Utiliza la IA como herramienta de apoyo, nunca como sustituto de tu criterio profesional, aplica protocolos de verificación y mantente actualizado sobre la legislación y los precedentes aplicables, la responsabilidad es tuya.
Lee el capítulo 2 de la serie IA y Abogacía en México: "El secreto profesional en la era digital".
Recursos descargables:
Descarga la Tabla de Sanciones y Responsabilidad por Citas Falsas o Inexistentes en Juicio.
¿Te resultó útil este artículo?
Si te gustó, compártelo en tus redes sociales para que más personas conozcan este contenido.
Tu participación nos ayuda a seguir creando contenido útil para la comunidad jurídica.
También puedes dejarnos tus comentarios en nuestras redes sociales, canales y correo indicados al pie de página.
Práctica Jurídica: entre el Papel y la Nube.
© 2025. Todos los derechos reservados.


Correo: contacto@eloficiodelderecho.com
Síguenos o escríbenos en redes sociales y WhatsApp:
Sobre el sitio
Usamos cookies para mejorar tu experiencia. Política de cookies Aquí.
Algunas imágenes son generadas con inteligencia artificial para efectos ilustrativos. Ver aviso.