La Provincia de Buenos Aires estableció por primera vez reglas obligatorias para el uso de sistemas de inteligencia artificial (IA) y lo hizo a travésLa Provincia de Buenos Aires estableció por primera vez reglas obligatorias para el uso de sistemas de inteligencia artificial (IA) y lo hizo a través

Kicillof regula el uso de la Inteligencia Artificial en PBA: qué se podrá hacer y qué queda prohibido

2025/11/25 20:45
Lectura de 4 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

La Provincia de Buenos Aires estableció por primera vez reglas obligatorias para el uso de sistemas de inteligencia artificial (IA) y lo hizo a través de una resolución que se publica pocos días después de que el municipio de Zárate nombrara a una IA con rango de directora.

La nueva normativa fue publicada en el Boletín Oficial y se aplica de manera transversal a la gestión estatal.

Se regula explícitamente “el desarrollo, elaboración, investigación, innovación, contratación, adquisición, uso y/o despliegue” de IA en todos los organismos provinciales, con el fin de proteger “los derechos y garantías fundamentales de la ciudadanía”.

Según la resolución de la Subsecretaría de Gobierno Digital, cualquier entidad pública que diseñe, compre o implemente IA deberá cumplir con estándares de seguridad, transparencia, equidad, sustentabilidad y control humano. No se trata solo de una guía ética: su cumplimiento será obligatorio y auditable.

La novedad llega días después de que el municipio de Zárate designara a “ZARA”, un chatbot, como directora general de Atención al Vecino, con facultades administrativas, firma de documentos y gestión de reclamos.

El caso generó críticas sobre el alcance de su autoridad. Zara sería una aplicación de IA en el ámbito municipal, pero podría haber un gris legal que obligue a evaluar su nivel de riesgo y someterse a auditorías periódicas.

Clasificación de riesgo: qué se puede hacer y qué no

Uno de los ejes centrales de la regulación es el modelo de clasificación por riesgo, inspirado explícitamente en el marco de la Unión Europea. La resolución reconoce como antecedente al Reglamento (UE) 2024/1689, conocido como AI Act, que en Europa entró en vigor este año. Sobre esa base, Buenos Aires adopta cuatro categorías: riesgo inaceptable, alto, limitado y nulo.

Los sistemas de riesgo inaceptable quedan directamente prohibidos. Allí se incluyen los que puedan afectar gravemente la seguridad, la salud, los derechos fundamentales o el “orden constitucional-democrático”.

El texto también veta el desarrollo de sistemas que apliquen técnicas subliminales o que realicen “clasificación y/o scoring social”, es decir, evaluaciones automatizadas del comportamiento de las personas con fines de control o discriminación.

Esa práctica permitiría condicionar beneficios públicos o reputación ciudadana en función de datos de comportamiento, algo incompatible con el principio de igualdad ante la ley.

En la categoría de alto riesgo se ubican herramientas que podrían impactar derechos individuales de manera directa. Entre ellas se destacan los sistemas de identificación biométrica, los que gestionan infraestructura crítica, los usados en educación, justicia, empleo, democracia y administración pública. Para estos casos, la provincia exige una evaluación de impacto algorítmica previa, destinada a anticipar “los riesgos legales, éticos, sociales y técnicos” que pueda generar su uso.

Los sistemas de riesgo limitado, como los chatbots informativos, están permitidos bajo condiciones de transparencia: la ciudadanía debe saber si interactúa con una máquina.

Por último, los de riesgo nulo —como filtros de spam o automatizaciones internas sin impacto en personas— solo requieren buenas prácticas técnicas.

Obligaciones del Estado y registro obligatorio

La provincia impondrá controles a lo largo de todo el ciclo de vida de cada sistema. Quienes usen o desarrollen IA en el Estado deberán:

  • realizar una evaluación preliminar de riesgos, antes de implementarla;
  • implementar estrategias de gestión de riesgos periódicas;
  • evitar y documentar prácticas que generen sesgos o discriminación, particularmente sobre “sectores vulnerados”;
  • garantizar el almacenamiento de datos el “tiempo suficiente” para permitir su auditabilidad;
  • contar con consentimiento libre, expreso, previo, inequívoco, específico e informado cuando se traten datos personales.

Cuando haya interacción con el público, el Estado deberá informar de manera explícita y anticipada que la respuesta proviene de un sistema automatizado, para no inducir al ciudadano a error o confusión.

Además, los organismos tendrán que registrar obligatoriamente todos los sistemas de IA en un padrón provincial cuya implementación dependerá de la Subsecretaría de Gobierno Digital.

Un aspecto novedoso: el impacto ambiental

Entre los puntos más innovadores de la normativa está la inclusión del criterio ambiental. La resolución exige que los sistemas de IA sean “sostenibles y sustentables”, y que se adopten medidas técnicas y administrativas para prevenir daños ecológicos.

Con esto, Buenos Aires se anticipa a uno de los debates más recientes a nivel global: el alto consumo energético de los modelos de IA y la necesidad de medir su huella de carbono y su uso de recursos.

La norma también obliga al Estado a capacitarse de manera permanente: los organismos deberán “sensibilizarse y capacitarse en función de la evolución del estado del arte”, lo cual implica que el propio gobierno deberá actualizarse al ritmo de la tecnología que pretende regular.

Oportunidad de mercado
Logo de ELYSIA
Precio de ELYSIA(EL)
$0.001798
$0.001798$0.001798
-0.11%
USD
Gráfico de precios en vivo de ELYSIA (EL)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Génesis USD1: tarifa 0 + 12% APR

Génesis USD1: tarifa 0 + 12% APRGénesis USD1: tarifa 0 + 12% APR

Nuevos usuarios: ¡stakea y gana hasta 600% de APR!