Porcha Woodruff fue arrestada en Detroit, EE. UU., en el año 2023 ya que su rostro, en el sistema de reconocimiento facial, la identificaba como autora del robo de un automóvil. Pese a su avanzado embarazo, estuvo encerrada once horas para luego ser liberada tras comprobarse que el sistema de inteligencia artificial (IA) se había equivocado, a pesar de representar “una herramienta muy poderosa que, si busca suficientes rostros, siempre mostrará individuos que se parecen a la persona en la imagen de las cámaras de vigilancia”, explicó Gary Wells, profesor de Psicología que ha estudiado la confiabilidad de las identificaciones hechas por testigos oculares, según un artículo publicado en The New York Times en 2023. Wells comentó que incluso si una persona con aspecto similar es inocente, un testigo ocular al que se le pide hacer la misma comparación es propenso a repetir el error cometido de la IA.

Con este caso el profesor Adrian Simons Pino inició su exposición académica en el I Congreso de Derecho Constitucional y Tributario que tuvo lugar hace pocos días en esta ciudad.

Los estudios de estos casos derrumban la supuesta infalibilidad de la IA. Varios reportajes aseguran que, por ejemplo, entre el 3 % y 27 % de las respuestas de los chatbots son equivocadas; y estas equivocaciones pueden representar mucho más riesgo que brindar información falsa. Los expertos en estas ciencias llaman alucinaciones a las equivocaciones y nosotros aún no sabemos cómo manejar o bautizar el uso doloso de la IA, como por ej., clonar audios, usar imágenes para montajes y extorsionar o simular participaciones de toda índole, inclusive sexuales, es parte de todo lo que le puede afectar a una persona.

Pero cuando la falsedad y/o error no viene de un acto doloso de un agresor sino de un juez que usa IA para sus resoluciones, ¿qué pudiéramos hacer los eventuales afectados?

El artículo 9 de nuestra Constitución establece que “el Estado será responsable por detención arbitraria, error judicial, retardo injustificado o inadecuada administración de justicia, violación del derecho a la tutela judicial efectiva, y por las violaciones de los principios y reglas del debido proceso”. Esta es una responsabilidad objetiva, civil, económica, que tiene como fin reparar el daño para luego ejercer la correspondiente acción de repetición. Así de claro. Te equivocas en la administración de justicia, reparas el daño, pagas y luego le cobras al funcionario que causó el daño.

¿Existe en el Ecuador legislación que regule el uso de IA en la administración de justicia?

Colombia ha salido al encuentro de este riesgo y la sentencia T 323 de la Corte Constitucional destaca la garantía de un juez natural, es decir, un ser humano, no una máquina; la garantía de la motivación judicial, es decir, el análisis puntual, concreto, el tejido completo de las conjeturas y consideraciones, el enlazamiento de este con las pruebas, aplicados a un caso determinado que solo puede devenir de un razonamiento humano; y, en virtud de aquello, la garantía a un debido proceso probatorio.

Si de los humanos, que alma poseen, hemos lidiado con graves errores judiciales, ¿cuál será la magnitud de errores judiciales artificiales? (O)