El informe de la OCDE* (aprobado y desclasificado en 2025) sobre el «Panorama actual y hoja de ruta en las funciones centrales de gobierno»** confirma que «los gobiernos se enfrentan a contextos y desafíos únicos que dificultan la rápida adopción de la IA, como la escasez de competencias, los sistemas informáticos heredados y obsoletos, la poca disponibilidad de datos y un entorno con limitaciones financieras, así como requisitos más estrictos en materia de privacidad, transparencia y representación de diversos grupos».

Basado en el análisis de decenas de enfoques de gobernanza y 200 casos de uso concretos de IA, además de una amplia investigación y discusiones con gobiernos, el informe sienta las bases de una línea de trabajo en curso sobre «Gobernar con IA» (https://oecd.ai/gov). Su objetivo es proporcionar a los gobiernos los elementos necesarios para un uso eficaz de la IA e identificar las áreas en las que la IA está teniendo impacto y en las que siguen existiendo deficiencias.

José Mario de la Garza es abogado y presidente de Perteneces, la asociación civil mexicana sin fines de lucro que trabaja por justicia e igualdad ante procesos penales injustos.  Para él el informe de la OCDE debería quitarle el sueño a cualquier gobierno: presenta 200 casos reales de inteligencia artificial en el sector público. “No es teoría. Es lo que ya está pasando mientras la mayoría de los gobiernos siguen debatiendo si “están listos” para la IA”, alerta.  

El informe tiene una advertencia que no suena a burocracia sino a realidad dura: los gobiernos corren el riesgo de simplemente automatizar la ineficiencia. La IA no arregla lo que ya está roto, lo amplifica. Y el mayor riesgo no es moverse rápido. Es quedarse quieto mientras otros construyen el Estado del futuro sin preguntarte si querés ser parte. Y el abogado de la Garza manda un spoiler: el tren ya salió.

Según la Unesco (2024) los gobiernos de América Latina (como Argentina, Brasil, Chile, Colombia, Costa Rica, Ecuador, México, Panamá, Perú y Uruguay) están debatiendo legislación general sobre IA. Bahréin y Omán presentaron un proyecto de legislación sobre IA en 2024, tras lo cual Omán aplicó una consulta pública. La ley básica de Corea sobre el desarrollo de la IA y el establecimiento de una base de confianza, o «Ley básica de IA» (2024), que entró en vigor en enero de 2026, establece un marco integral para promover la innovación en IA y, al mismo tiempo, garantizar normas éticas, seguridad y confianza pública para todas las organizaciones que utilizan IA en el mercado coreano. En Bolivia, el nuevo decreto de simplificación de trámites e interoperabilidad entre instituciones del Estado tendría que ser complementado con una ley de protección de datos.

Argentina. El sistema Prometea genera borradores de resoluciones judiciales analizando expedientes completos. Lo que un funcionario tardaba días en redactar, la IA lo produce en minutos. Y la justicia, que en América Latina todos sabemos lo que tarda, empieza a moverse. Trata de limitar estos riesgos mediante el control humano de cómo se utilizan los sistemas de IA y sus resultados. Buenos Aires creó un chatbot llamado Boti, primero como canal oficial del gobierno para la vacunación contra la COVID-19, y ahora como canal para proporcionar información sobre temas como el uso compartido de bicicletas y el cuidado social.

Austria. Su administración tributaria usa IA desde 2014. En 2023 analizó 6.5 millones de casos y recuperó 185 millones de euros en impuestos que de otra forma nadie hubiera detectado. Silencioso, quirúrgico, devastadoramente eficiente. 

Brasil. Tenía 140.000 millones de dólares en litigios fiscales atascados. Cada caso tardaba 6 años en resolverse. La IA los agrupa, los distribuye y los prioriza con 80% de precisión. Lo que tardaba una generación, ahora tiene solución. 

China. Shanghái utiliza gemelos digitales e Internet de las cosas impulsados por GenAI para gestionar su compleja infraestructura urbana combinando datos en tiempo real de dispositivos de Internet de las cosas con sofisticados análisis. Esto ayuda a la ciudad a reducir el tráfico, aumentar la efectividad del transporte público, optimizar el uso de la energía, mejorar la preparación ante desastres y planificar infraestructuras.

Francia. La IA analiza fotografías satelitales y las cruza con declaraciones fiscales. Detecta piscinas sin declarar, construcciones clandestinas, edificios que existen pero que para el fisco no existen. El Estado literalmente te ve desde el cielo. 

Grecia. El Proyecto Ellinikon tiene como objetivo transformar el antiguo aeropuerto internacional de Atenas en un distrito inteligente de vanguardia. Las tecnologías avanzadas, como el Internet de las cosas, el análisis de inteligencia artificial, la conectividad 5G y la fibra óptica de ultra alta velocidad, se integrarán perfectamente en el tejido de la ciudad.

Países Bajos. Un algoritmo acusó a 26,000 familias de fraude en subsidios infantiles. Perdieron casas, trabajos, matrimonios. Niños separados de sus padres. Todo por datos defectuosos y un modelo sesgado que discriminó por origen migrante. El gobierno entero colapsó. 

Singapur. Su chatbot fiscal con inteligencia artificial atendió 70,000 consultas en un año y ahorró 11,666 horas a los contribuyentes. No es un bot de FAQ. Entiende contexto, personaliza respuestas, resuelve trámites completos. 

Gestión de riesgos

La adopción mundial de IA en todos los sectores plantea cuestiones sobre confianza, equidad, privacidad, seguridad y rendición de cuentas, entre otras. La consideración de estas cuestiones y la gestión de los riesgos de la IA pueden incidir en su adopción y en la materialización de sus beneficios. La IA plantea cientos de riesgos y los expertos identifican algunos de los más importantes para la sociedad como:

• Posibles efectos adversos para algunos grupos o individuos si los sistemas de IA están respaldados por datos inadecuados o sesgados.

• Los sistemas de IA que carecen de suficiente transparencia y explicabilidad erosionan la rendición de cuentas.

• Algunos usos de la IA suscitan preocupación en cuanto a la protección de los datos, la privacidad y la vigilancia.

• La IA puede facilitar amenazas cibernéticas cada vez más sofisticadas.

• En sistemas críticos podrían producirse incidentes y desastres de IA de poca importancia a graves.

• La IA podría contribuir a las perturbaciones del mercado laboral.

• La potencia computacional de la IA requiere un consumo energético muy significativo.

Riesgos éticos

Los sistemas de IA tienen el potencial de perpetuar o generar resultados adversos o perjudiciales, derivados de datos incompletos o inadecuados, así como de la intersección del uso de la IA con prácticas institucionales y sociales de naturaleza sistémica o centrada en el ser humano.

Es importante reconocer que los algoritmos no funcionan de forma autónoma; están moldeados por elecciones humanas en cada etapa, desde la selección del modelo y los datos de entrenamiento hasta el ajuste fino y los ajustes de parámetros. Puesto que los sistemas de IA suelen aprender de los datos generados por el ser humano, reflejan inevitablemente las perspectivas y los comportamientos sociales existentes.

En el sector público, los algoritmos rara vez toman decisiones de manera independiente, por lo general sirven como herramientas que informan e influyen en la toma de decisiones humanas en lugar de reemplazarla. Incluso cuando las políticas tienen por objeto la normalización, su correcta aplicación depende en gran medida del contexto local y del «complicado compromiso de múltiples agentes con conocimientos diversos. Esta interacción entre la IA y el juicio humano significa que los errores pueden persistir no solo en los resultados algorítmicos, sino también en la forma en que se interpretan y aplican las recomendaciones generadas por la IA. Por lo tanto, es fundamental comprender cómo procesan y responden los responsables de la toma de decisiones a la información generada por la IA y garantizar que cuentan con las competencias necesarias para utilizar la IA de forma confiable. Por un lado, la subjetividad cognitiva sigue siendo relevante para dar forma a las interacciones humano-IA a pesar de la neutralidad percibida por la IA, mientras que, por otro lado, las máquinas carecen de empatía. Por lo tanto, es importante que los servidores públicos puedan utilizar su juicio profesional y su sabiduría práctica para garantizar la equidad mediante el ejercicio de una discrecionalidad juiciosa.

Por Gabriela Ichaso Elcuaz. Fuente: Informe OCDE(2025)**

*OCDE: Organización para la Cooperación y el Desarrollo Económicos

**OECD (2025), Gobernar con la inteligencia artificial: Panorama actual y hoja de ruta en las funciones centrales de gobierno, OECD. Publishing, Paris, https://doi.org/10.1787/dc00e56a-es.

Desde que lanzamos Ideas Textuales, nuestro objetivo ha sido narrar reflexiones e historias que no salen en las noticias habituales.  

Este proyecto es independiente, sin auspiciantes políticos ni corporativos. Lo sostenemos  con nuestro tiempo, esfuerzo y una profunda convicción de compartir nuestras lecturas y escrituras.

Si este espacio te ha hecho reflexionar, te ha llegado, informado o inspirado, podés apoyarlo con un aporte voluntario.

Cada donación nos permite seguir escribiendo, investigar más a fondo y llegar a más personas con historias que valen la pena.


Descubre más desde Ideas Textuales®

Suscríbete y recibe las últimas entradas en tu correo electrónico.