AI_1_mano-U27745382546Oip-1440x752@IlSole24Ore-Web.jpg

Inteligencia artificial como “soporte técnico relevante” pero nunca reemplazo de la actividad judicial. El Consejo Presidencial de Justicia Fiscal aprobó las “recomendaciones” para el ingreso de la IA en el proceso fiscalun documento que es la síntesis sustancial entre la propuesta de Maiello, una variación de la resolución del MSC de diciembre pasado, y la de Cosimo Ferri.

los riesgos

A pesar de las numerosas referencias al marco regulatorio europeo y nacional, la resolución subraya la particularidad de los litigios fiscales que, debido a “la fuerte serialidad y la racionalización de los flujos de información”, se presta a un principio de automatización de la IA, al tiempo que plantea “cuestiones sistémicas relativas a la transparencia desde procesos algorítmicos, hasta la gestión de riesgos de sesgo y desajuste, así como la prevención de formas de discriminación indirecta y la protección de los derechos fundamentales”. De ahí el riesgo ético, jurídico y social que se deriva de esta “calidad discriminación algorítmicaamenazas a la privacidad y la cuestión de la responsabilidad por las decisiones autónomas.

Precauciones a tomar

Precisamente de la Ley 132/2025, según la cual se autoriza el uso de sistemas de inteligencia artificial en la administración de justicia exclusivamente como apoyo a la actividad del magistrado“con exclusión de cualquier forma de subrogación automatizada en la toma de decisiones” y sin perjuicio del principio según el cual todas las decisiones sustanciales quedan reservadas al magistrado (la interpretación y aplicación de la ley; la evaluación de los hechos y de las pruebas; la adopción de medidas finales), indica el Consejo de la presidenta Carolina Lussana. precauciones para ser adoptado en las salas de los Tribunales de Justicia.

Las “precauciones operativas” proporcionan soberanía datos e información (nunca accesibles a terceros no autorizados); protección de datos (nunca introduzca datos confidenciales en la IA y considere también el riesgo de reidentificación de los datos); nuevamente, la calidad de los datos (estándares adecuados en términos de equidad); escuchaes decir, cada uso de la IA debe ser supervisado por el usuario para verificar el cumplimiento de las normas sobre derechos humanos fundamentales, procesamiento de datos, derechos de autor y seguridad, así como para verificar exactitud y confiabilidad de la salida; vigilancia humana (el juez y magistrado deberán corregir los resultados poco fiables, reinterpretarlos o modificarlos. Siempre es necesario comprobar que pueden reproducir de forma independiente las conclusiones aportadas por la IA). Por último, la responsabilidad individual: el juez y el magistrado fiscal están obligados a utilizar las herramientas de IA de forma consciente y respetando la ley desde de la obligación de información y participación en las capacitaciones que se brindarán sobre el tema.

Referencia

About The Author