Preocupaciones sobre el uso opaco de IA por los gobiernos en México

​La incorporación de la inteligencia artificial (IA) en el ámbito público mexicano ha aumentado considerablemente en tiempos recientes. No obstante, este progreso tecnológico ha sido acompañado por inquietudes acerca de la transparencia y la responsabilidad en su aplicación por las entidades gubernamentales.​

Situación presente de la IA en el ámbito público en México

Científicos del Centro de Investigación y Docencia Económicas (CIDE) han detectado al menos 119 usos de IA en funcionamiento dentro de los tres poderes de la Unión y los tres niveles de gobierno en México. Estas herramientas incluyen desde chatbots para servicio al ciudadano hasta sistemas de análisis de datos para apoyar en la toma de decisiones. No obstante, acceder a detalles específicos sobre estas aplicaciones ha resultado complicado debido a la falta de transparencia y la reticencia de ciertas instituciones a ofrecer información precisa sobre su utilización y operativa.

Investigadores del Centro de Investigación y Docencia Económicas (CIDE) han identificado al menos 119 aplicaciones de IA operando en los tres poderes de la Unión y en los tres niveles de gobierno en México. Estas herramientas abarcan desde chatbots para atención ciudadana hasta sistemas de análisis de datos para la toma de decisiones. Sin embargo, obtener información detallada sobre estas aplicaciones ha sido un desafío debido a la opacidad y la resistencia de algunas instituciones a proporcionar datos claros sobre su uso y funcionamiento.

Con el objetivo de promover la transparencia, académicos del CIDE elaboraron un registro de los algoritmos empleados por el sector público en México. Este proyecto tiene como finalidad documentar las aplicaciones de IA en distintas entidades y señalar los obstáculos para acceder a información crucial sobre su uso, regulación y objetivos. Durante la fase de recolección de datos, se enviaron alrededor de 2,200 solicitudes de transparencia a organismos públicos. No obstante, numerosas dependencias mostraron resistencia al proporcionar información o contestaron de manera vaga. En algunas situaciones, las instituciones solo admitieron el uso de IA tras la presentación de recursos de revisión frente a los órganos de transparencia. Estados como el Estado de México y Nayarit sobresalieron por su falta de respuesta general. ​

Mala información y falta de entendimiento sobre la IA

Desinformación y falta de comprensión sobre la IA

Aspectos éticos y peligros relacionados con el uso de la IA

El empleo de IA en el ámbito público ha dado pie a discusiones éticas relacionadas con la privacidad, la transparencia, la rendición de cuentas y el derecho al acceso a la información. La falta de claridad en los algoritmos puede minar la confianza de los ciudadanos en estas herramientas, especialmente si no se conocen los criterios que guían su funcionamiento o si existen sesgos que podrían desembocar en decisiones discriminatorias. Por ejemplo, durante la pandemia de COVID-19, se adoptaron chatbots como «Susana Distancia» y «Dr. Armando Vaccuno» para proporcionar información a la población. No obstante, surgieron inquietudes éticas sobre la transparencia y privacidad en su implementación, lo que resultó en una baja confianza y menor uso por parte de la población. ​

Urgencia de un marco regulatorio apropiado

Necesidad de un marco regulatorio adecuado

La falta de transparencia en el uso de IA por parte de los gobiernos resalta la necesidad de establecer marcos regulatorios que garanticen la auditabilidad y responsabilidad en el uso de estas tecnologías. Es esencial analizar las legislaciones en diferentes ámbitos e identificar cómo podrían ser utilizadas adecuadamente para garantizar que la implementación de IA respete los derechos de la ciudadanía y opere de manera ética y transparente.