Constitucionalismo cognitivo: una nota

Miguel Carbonell

Director del Centro de Estudios Jurídicos Carbonell, A.C.

La inteligencia artificial generativa ha irrumpido en el mundo jurídico con una fuerza inesperada. Hoy en día cualquier profesional del derecho tiene a su alcance a un costo bajísimo modelos capaces de producir textos complejos, redactar análisis normativos y sintetizar argumentos. No podemos ni debemos negar que esas capacidades cibernéticas son utilizadas por cada vez más abogados, jueces, académicos y estudiantes.

Desde mi punto de vista, esta transformación abre enormes oportunidades, pero también plantea riesgos profundos: errores difíciles de detectar, sesgos invisibles, razonamientos opacos y una creciente tendencia a delegar tareas cognitivas esenciales.

En este contexto, surge una pregunta decisiva que he escuchado repetidamente en los últimos meses: ¿cómo proteger la racionalidad del derecho cuando la producción de argumentos ya no es exclusivamente humana?

La respuesta requiere una nueva arquitectura conceptual. Esa arquitectura es lo que me atrevo a sugerir que pudiera denominarse constitucionalismo cognitivo.

1. ¿Qué es el constitucionalismo cognitivo?

El constitucionalismo cognitivo es un marco normativo, ético e institucional que busca proteger el núcleo racional del derecho en un entorno donde los sistemas automatizados participan —aunque sea indirectamente pero cada vez de manera más amplia— en la producción jurídica.

No se trata de una nueva rama del derecho constitucional tradicional, sino de una evolución necesaria para salvaguardar los valores que sostienen al Estado de derecho. Es decir, no estamos frente a un “neo-tecno-constitucionalismo”, sino frente a algo estructuralmente diferente.

En esencia, el constitucionalismo cognitivo reconoce que:

  1. La inteligencia artificial puede apoyar el razonamiento jurídico, pero no debería llegar hasta el punto de sustituirlo.
  2. Las decisiones jurídicas requieren juicio (o criterio, como se quiera denominar), esto es una facultad humana esencial que no puede automatizarse.
  3. El uso de los sistemas algorítmicos debe ser regulado con criterios de transparencia, responsabilidad y control humano significativo.
  4. La calidad democrática del derecho depende de garantizar que toda decisión que afecte derechos tenga razones verdaderamente humanas detrás.

Este enfoque parte de una idea sencilla y que probablemente hayamos repetido muchas veces desde hace décadas, pero que a a la luz de lo que llevamos dicho cobra una enorme relevancia: el derecho no es un sistema de textos, sino un sistema de razones.

Por eso muchos de nosotros llevamos bastante tiempo insistiendo en la necesidad de formar excelentes capacidades argumentativas en los estudiantes de derecho, al grado de que cuando preparé el programa académico de la Licenciatura en Derecho del Centro Carbonell añadí dos periodos lectivos en los que los alumnos llevan la materia de argumentación jurídica.

2. ¿Por qué es necesario un nuevo marco constitucional?

La IA generativa plantea riesgos que el derecho constitucional clásico no pudo preveer del todo, por obvias razones. Algunos ejemplos:

a) Verosimilitud sin veracidad

La IA puede generar textos jurídicos impecables, convincentes y perfectamente estructurados… pero incorrectos. Esta “impostura epistémica” es una amenaza profunda para la argumentación de calidad y persuasiva.

b) Opacidad algorítmica

Los modelos funcionan como cajas negras. No es posible reconstruir de manera transparente cómo llegaron a una conclusión. Esto es incompatible con el principio de motivación que exige el derecho constitucional, por ejemplo en el artículo 16 constitucional en el caso mexicano.

c) Sesgos invisibles

La IA reproduce patrones culturales, sociales y jurídicos propios de la información que le fue suministrada cuando se produjo su “entrenamiento”. Un argumento aparentemente neutro puede arrastrar sesgos profundos sin que el operador jurídico lo advierta.

d) Dependencia cognitiva

Si jueces y abogados delegan demasiado en la IA, pueden perder habilidades esenciales de interpretación, razonamiento probatorio y análisis constitucional. Lo que alguna vez aprendimos, se nos puede olvidar.

e) Riesgo de automatización encubierta

Un juez que adopta un borrador generado por IA sin verificación puede, seguramente sin querer, estar dejando que una máquina influya en la decisión judicial.

Frente a todo esto, el constitucionalismo clásico —centrado en temas tan relevantes como la división de poderes, el control de los actos de autoridad y la forma de llevar a cabo la interpretación textual— resulta insuficiente para comprender y regular la dimensión cognitiva del fenómeno.

3. Principios fundamentales del constitucionalismo cognitivo

El constitucionalismo cognitivo se articula alrededor de varios principios, entre los cuales pueden mencionarse los siguientes:

1. Control humano significativo

Toda decisión jurídica debe ser tomada en última instancia por un ser humano, de manera consciente, autónoma y responsable. La IA puede ayudar, pero nunca puede ser la fuente última del razonamiento.

2. Transparencia y trazabilidad

El uso de IA debe declararse cuando influya en el contenido argumentativo. Si el razonamiento proviene parcial o totalmente de un sistema automatizado, las partes tienen derecho a saberlo.

3. Prohibición de delegar ponderación constitucional

La ponderación implica evaluar valores, derechos y fines públicos. Se trata de una forma del razonamiento jurídico altamente sofisticada. Esto no puede ser realizado por un modelo basado en estructuras epistemológicas de origen estadístico, porque carece de comprensión moral y política.

4. Motivación reforzada

Cuando se utiliza IA para sintetizar hechos, jurisprudencia o argumentos, la sentencia o el escrito debe justificar explícitamente:

  • qué se usó,
  • cómo se usó,
  • qué se aceptó del modelo,
  • qué se descartó,
  • cómo se verificó la información.

5. Auditoría algorítmica permanente

Los sistemas utilizados por instituciones públicas deben someterse a evaluaciones periódicas de sesgo, precisión, seguridad y impacto en derechos fundamentales.

6. Responsabilidad institucional y profesional

Ningún operador jurídico puede excusarse diciendo: “La IA me dio ese resultado”.
La responsabilidad nunca se delega.

Creo que estos dos criterios jurisprudenciales nos pueden servir de base para ulteriores definiciones y análisis sobre el tema:

Registro digital: 2031010

Instancia: Tribunales Colegiados de Circuito

Undécima Época 

Materia(s): Constitucional, Común

Tesis: II.2o.C.9 K (11a.)

Fuente: Gaceta del Semanario Judicial de la Federación.
Libro 52, Agosto de 2025, Tomo IV, Volumen 2, página 1706

Tipo: Aislada

INTELIGENCIA ARTIFICIAL APLICADA EN PROCESOS JURISDICCIONALES. ELEMENTOS MÍNIMOS QUE DEBEN OBSERVARSE PARA SU USO ÉTICO Y RESPONSABLE CON PERSPECTIVA DE DERECHOS HUMANOS.

Hechos: En el marco de un recurso de queja interpuesto contra la decisión de un Juzgado de Distrito en un juicio de amparo indirecto, este Tribunal Colegiado de Circuito empleó herramientas de inteligencia artificial para calcular el monto de una garantía vinculada con la inscripción de la demanda en los folios reales de los inmuebles reclamados. Al tratarse de una práctica innovadora en procesos jurisdiccionales resultó necesario, bajo un ejercicio de autocontención, definir los parámetros para la aplicación ética y responsable de la inteligencia artificial.

Criterio jurídico: Este Tribunal Colegiado de Circuito determina que la utilización de herramientas de inteligencia artificial en procesos jurisdiccionales con una perspectiva de derechos humanos, ética y responsable, exige que las personas juzgadoras observen como elementos mínimos los principios de: a) proporcionalidad e inocuidad; b) protección de datos personales; c) transparencia y explicabilidad; y d) supervisión y decisión humanas.

Justificación: Ante la ausencia de regulación específica para el uso de herramientas de inteligencia artificial las personas juzgadoras deben hacer un ejercicio de autocontención adoptando lineamientos para su aplicación responsable con perspectiva de derechos humanos. 

Para ello pueden tomar como referencia los esfuerzos de regulación a nivel internacional, como las Directrices Éticas para una Inteligencia Artificial Fiable del Grupo de expertos de alto nivel sobre inteligencia artificial creado por la Comisión Europea; el Reglamento del Parlamento Europeo del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial; y la Recomendación sobre la ética de la inteligencia artificial de la UNESCO y sus principios éticos. 

Dichas referencias permiten adoptar mejores prácticas para la administración de justicia al introducir innovación tecnológica para una gobernanza administrativa judicial, preservando el núcleo de la función jurisdiccional sin afectar los derechos procesales de las partes. 

Para ello, cuando utilicen herramientas de inteligencia artificial las personas juzgadoras deben cumplir con los siguientes elementos mínimos: a) la proporcionalidad e inocuidad exige que las herramientas de inteligencia artificial se utilicen únicamente en la medida necesaria y adecuada para alcanzar un fin legítimo, como por ejemplo, facilitar razonamientos numéricos sin que se alcance al razonamiento jurídico en la interpretación o aplicación de las normas; b) deben emplearlas de manera que no se comprometa la protección de datos del expediente judicial; c) la transparencia y explicabilidad imponen que la persona juzgadora no sólo informe que utiliza herramientas de inteligencia artificial, sino que exponga la metodología, los datos empleados y la forma en que se arribó al resultado, a fin de permitir que el procedimiento sea auditado y comprendido por las partes y órganos revisores; y d) la supervisión y la decisión humanas aseguran que la tecnología opere como auxiliar y no como sustituto, manteniendo la deliberación y decisión en el ámbito estrictamente jurisdiccional.

SEGUNDO TRIBUNAL COLEGIADO EN MATERIA CIVIL DEL SEGUNDO CIRCUITO. Queja 212/2025. 29 de julio de 2025.

Registro digital: 2031009

Instancia: Tribunales Colegiados de Circuito

Undécima Época 

Materia(s): Común

Tesis: II.2o.C.8 K (11a.)

Fuente: Gaceta del Semanario Judicial de la Federación.
Libro 52, Agosto de 2025, Tomo IV, Volumen 2, página 1705

Tipo: Aislada

INTELIGENCIA ARTIFICIAL APLICADA EN PROCESOS JURISDICCIONALES. CONSTITUYE UNA HERRAMIENTA VÁLIDA PARA CALCULAR EL MONTO DE LAS GARANTÍAS QUE SE FIJEN EN LOS JUICIOS DE AMPARO.

Hechos: Las albaceas de una sucesión a bienes, en calidad de terceros extraños a juicio, promovieron amparo indirecto para defender dos lotes de terreno que aseguran forman parte de la masa hereditaria. Solicitaron la inscripción de la demanda en los folios reales de los inmuebles, lo que motivó que el Juzgado de Distrito fijara una garantía. Las albaceas interpusieron recurso de queja para impugnar el monto de dicha garantía al considerar que su determinación carecía de parámetros objetivos.

Criterio jurídico: Este Tribunal Colegiado de Circuito determina que las herramientas de inteligencia artificial pueden emplearse válidamente en procesos jurisdiccionales para calcular el monto de las garantías que se fijen en los juicios de amparo, en el entendido de que su utilización no sustituye la labor de las personas juzgadoras, sino que facilitan y eficientizan la administración de justicia.

Justificación: Ante el avance de las nuevas tecnologías y las tendencias emergentes de justicia digital, la inteligencia artificial es una herramienta innovadora que puede incorporarse a los procesos para facilitar el razonamiento numérico dentro de labores jurisdiccionales.

La jurisprudencia exige parámetros para calcular las garantías que deben fijarse en los juicios de amparo, lo que exige operaciones como la actualización de valores, la aplicación de tasas de interés y la ponderación de lapsos procesales. Estas actividades, aunque necesarias para la motivación de una resolución judicial, no forman parte del núcleo decisorio jurisdiccional, sino que constituyen labores auxiliares susceptibles de apoyo tecnológico.

El uso de herramientas de inteligencia artificial en estos casos se justifica porque permite: a) reducir errores humanos en dichos cálculos; b) dar transparencia y trazabilidad al exponer cómo se obtiene el resultado paso a paso; c) generar consistencia y estandarización en los precedentes y en la fijación de los montos de las garantías; y d) mejorar la eficiencia procesal, al liberar tiempo para el análisis sustantivo del caso y facilitar la motivación de las decisiones judiciales. 

Este mecanismo, recomendable desde una visión institucional de los tribunales que adoptan mejores prácticas para la administración de justicia, permite a las personas juzgadoras obtener datos auditables que muestran de manera transparente cómo se cuantifica una garantía. De esta forma se preserva el núcleo esencial de la función jurisdiccional, a la vez que se refuerza la motivación y transparencia del fallo, en consonancia con un principio de justicia digital y los estándares de motivación previstos en el artículo 16 de la Constitución Federal.

SEGUNDO TRIBUNAL COLEGIADO EN MATERIA CIVIL DEL SEGUNDO CIRCUITO. Queja 212/2025. 29 de julio de 2025. 

4. ¿Cómo protege el constitucionalismo cognitivo la democracia?

La legitimidad del derecho depende de su capacidad para justificar decisiones con razones que puedan ser examinadas, discutidas y criticadas. Si una sentencia o resolución deriva de un proceso opaco, automático o estadístico, la ciudadanía pierde confianza en el sistema.

El constitucionalismo cognitivo garantiza:

a) Decisiones explicables

El ciudadano tiene derecho a entender por qué se le concede o niega un derecho.

b) Razonamientos auditables

Si una parte alega que la IA influyó indebidamente en la decisión, debe existir un registro claro.

c) Igualdad epistémica

Las partes deben tener acceso a la misma información para impugnar, cuestionar o verificar argumentos generados por IA.

d) Protección de derechos fundamentales

Los sesgos del modelo no pueden convertirse en decisiones judiciales.

e) Preservación de la independencia judicial

La IA no puede introducir criterios invisibles en el razonamiento de los jueces.

5. Un nuevo horizonte para abogados y jueces

El constitucionalismo cognitivo redefine el rol del abogado y del juez en la era tecnológica.

El abogado se convierte en un curador epistémico, responsable de:

  • seleccionar y depurar argumentos,
  • verificar contenido generado por IA,
  • identificar sesgos,
  • garantizar coherencia sistemática.

El juez se convierte en un guardián institucional encargado de proteger:

  • la motivación de sus decisiones (incluyendo sobre todo la motivación de las valoraciones probatorias),
  • la transparencia,
  • la independencia,
  • el debido proceso.

Ambos tienen la responsabilidad de evitar que la IA distorsione o sustituya el razonamiento jurídico humano.

6. Conclusión: una nueva etapa del constitucionalismo

El constitucionalismo cognitivo no es un rechazo a la tecnología. Es, por el contrario, el marco que permite usar la inteligencia artificial de manera legítima, segura y democrática. Su propósito no es ralentizar la innovación, sino asegurar que el derecho conserve aquello que lo hace único: su capacidad para razonar, justificar y proteger derechos desde la dignidad humana.

En la medida en que la IA evoluciona, el reto no es tecnológico, sino filosófico y jurídico:
¿Cómo asegurar que las razones jurídicas sigan siendo humanas en un entorno donde la producción de textos puede ser automatizada?

El constitucionalismo cognitivo ofrece una respuesta.
No busca detener la revolución tecnológica, sino guiarla.
No pretende reemplazar al constitucionalismo clásico, sino ampliarlo.
Su misión es preservar la esencia del derecho: la racionalidad, la deliberación y la protección de la persona.

Temas relacionados