El estándar profesional para usar IA con responsabilidad en la práctica legal.
Hoy, las conversaciones más importantes del sector jurídico giran en torno a qué herramientas de IA usar y cómo usarlas sin riesgos. Los abogados que entienden los límites y responsabilidades de la IA llegan a esas conversaciones sabiendo que tienen un criterio propio y fundado.
Desarrollar ese criterio en la práctica cotidiana es fácil en teoría, pero bastante difícil sin guía especializada.
Debes dominar tanto los fundamentos conceptuales (alucinación, sesgo, privacidad) como los marcos normativos y deontológicos que ya aplican en México, y ambos evolucionan en tiempo real.
Lo que vas a dominar
4 sesiones para entender los riesgos reales de la IA en el ejercicio legal y desarrollar criterio propio para usarla con responsabilidad profesional, ética y protección de datos.
La IA no es infalible: aprenderás a identificar cuándo un modelo alucina —genera información falsa con aparente confianza— y cómo verificar sus outputs antes de usarlos en documentos legales. Analizaremos el sesgo algorítmico y su impacto en decisiones jurídicas: desde sistemas de predicción de riesgo hasta asistentes de redacción. Exploraremos el concepto de gemelos digitales en el ámbito legal, las implicaciones para la identidad profesional y cómo la IA está redefiniendo el rol del abogado.

¿Qué pasa si confías en un output de IA incorrecto y lo incluyes en un escrito? Esta sesión analiza la responsabilidad profesional del abogado frente al uso de herramientas de IA: cuándo responde el despacho, cuándo el individuo, y qué estándares de diligencia aplican. Revisaremos la Ley Federal de Protección de Datos Personales en Posesión de Particulares (LFPDPPP) y cómo aplica cuando el abogado procesa información de clientes a través de modelos de IA.


Cierre práctico: construiremos un protocolo de uso responsable de IA para despacho o práctica individual. Aprenderás a distinguir qué información de cliente puede ingresar a un modelo y qué información nunca debe salir del entorno seguro. Revisaremos las mejores prácticas internacionales para mantener el secreto profesional al usar IA (anonimización, entornos privados, modelos on-premise). Crearás una política básica de uso de IA y aplicarás un checklist antes de usar cualquier output en documentos legales reales.


Sesión de cierre con enfoque regulatorio: analizaremos los lineamientos actuales de la Barra Mexicana de Abogados (BMA) para el uso de inteligencia artificial en la práctica legal en México. Revisaremos el marco normativo vigente, los criterios éticos adoptados por el gremio y cómo aplicarlos en el día a día del despacho. Identificaremos qué prácticas ya están siendo reguladas, cuáles están en transición y cómo posicionarte con anticipación frente a la regulación que viene.

Lo que obtienes del curso
Criterio crítico sobre IA
Identificas alucinaciones, sesgos y outputs riesgosos antes de usarlos en tu práctica legal.
Marco de privacidad aplicado
Entiendes cómo aplica la LFPDPPP al uso de IA con información de clientes y qué evitar.
Protocolo de uso responsable
Política lista para implementar en tu despacho con checklist de verificación de outputs.
Gestión de responsabilidad
Sabes cuándo y cómo responde el abogado ante errores de IA en documentos profesionales.
Todo lo que obtienes
Quiénes imparten

Abogado e Ingeniero Físico por el Tecnológico de Monterrey (valedictorian generación 2022 de Derecho). NLP Research Fellow en Stanford Law School, LIFT Lab, donde investiga fairness algorítmica y gobernanza de IA. Ha presentado investigación sobre sesgos en modelos vision-language en el Computational Legal Studies workshop del CodeX Affiliate Showcase de Stanford. Primer lugar nacional del Concurso de Ensayo Universitario del INACIPE (2020) sobre machine learning y ciencias penales.

Abogado por la Universidad Panamericana (mención honorífica) y LL.M. en derecho tecnológico por Harvard Law School. Consejero de TMT e IA en Galicia Abogados. Seis años a cargo de la defensa legal de Meta para 32–35 países de Hispanoamérica y el Caribe, cubriendo litigio, regulatorio, privacidad, competencia y negociación legislativa. Miembro de la AMCID y dos veces nominado al premio de Diversidad e Inclusión de Chambers and Partners.

Abogada con más de 20 años de experiencia, pionera de la IA legal en México. Legal Manager Data Technology & Compliance MX / DPO en Mondelēz International, tras liderar más de cuatro años la práctica de Digital Technologies en Hogan Lovells México. Ha asesorado a grandes minoristas, una empresa global de búsqueda y una compañía de IA generativa. Coordina la Comisión de Protección de Datos Personales y Transparencia de la BMA y es columnista en Letras Libres.

Abogada por la UAQ, LL.M. de NYU, maestría en Derechos Humanos por el ITAM y maestría en Argumentación Jurídica por la Universidad de Alicante. Directora y cofundadora de ÏO Justice, con más de una década en la intersección de práctica judicial, derechos humanos y tecnología legal en Latinoamérica, Europa y EE.UU. Lideró el desarrollo de IALucIA, asistente legal con IA para el ecosistema de justicia abierta iberoamericano.

Abogada por la Escuela Libre de Derecho (top 5%, mención honorífica), LL.M. por The Fletcher School (Tufts) y Doctora en Derecho (JSD) por Chicago-Kent College of Law, con investigación doctoral sobre IA, tecnología e implementación legal. Special Advisor en Legal Ops y Legal Tech en KermaPartners y profesora en la Escuela de Gobierno del Tec de Monterrey. Ha liderado proyectos donde la IA clasificó más de 40,000 documentos para clientes.

Abogado por la Universidad La Salle con más de 20 años en la industria del software. General Counsel y Compliance Officer de SAP México desde 2007. Diplomado en ciberseguridad y datos personales por la UDLAP Jenkins. Coordinador de la Comisión de Derecho de TI de la BMA y coautor del libro Perspectivas para la regulación de la Inteligencia Artificial (Tirant lo Blanch, 2025). Presentó los Lineamientos de la BMA ante el Senado de México en diciembre de 2025.