
-Oscar Montezuma, experto en regulación digital y CEO de Niubox
El 9 de septiembre, el Poder Ejecutivo publicó el D.S. N° 115-2025-PCM, que aprueba el Reglamento de la Ley 31814 sobre Inteligencia Artificial (IA). Con esta norma, el Perú busca establecer condiciones mínimas para un uso responsable de la IA, combinando principios inspirados en el modelo europeo con un enfoque más flexible y acorde a nuestras capacidades institucionales.
El Reglamento constituye un buen primer paso para construir un marco regulatorio general y definir una hoja de ruta para el sector público y privado en los próximos años. El texto designa a la Secretaría de Gobierno y Transformación Digital (SGTD) como autoridad técnico-normativa, encargada de liderar, evaluar y supervisar el uso de la IA. De detectarse incumplimientos, la SGTD trasladará a las autoridades competentes —Autoridad de Protección de Datos, Indecopi, SBS, Fiscalías— para que actúen según sus atribuciones.
LEA TAMBIÉN: Perú ya tiene reglamento de IA: ¿tu empresa opera bajo riesgos “altos” o “indebidos”?
El reglamento consagra adecuadamente principios que guiarán el desarrollo y uso de la IA: no discriminación, protección de datos, transparencia algorítmica, supervisión humana y respeto de derechos fundamentales. La premisa central es clara: la IA debe servir al bienestar colectivo y no convertirse en una fuente de exclusión, opacidad o vulneración de derechos. La tecnología puede aportar enormes beneficios, siempre que se aplique bajo parámetros éticos y jurídicos claros.

Uno de los aportes es la clasificación de riesgos en dos categorías. La primera corresponde a los “usos prohibidos”: manipulación subliminal de personas, sistemas letales autónomos en el ámbito civil, vigilancia masiva sin respaldo legal o análisis biométricos que generen discriminación. La segunda abarca los “usos de alto riesgo”, vinculados a sectores como educación, salud, programas sociales, selección laboral, justicia, servicios financieros y gestión de activos críticos. Los usos prohibidos deben eliminarse por completo mientras que los de alto riesgo pueden desarrollarse bajo condiciones estrictas de transparencia, supervisión y control.
Los sistemas de alto riesgo deberán informar con claridad su finalidad, funcionamiento y tipo de decisiones producen. Incluso se prevé el etiquetado visible de productos o servicios generados por IA para que el ciudadano pueda identificarlos fácilmente. En el Estado, las exigencias son mayores: deberán contar con políticas de uso ético, aplicar estándares técnicos (la NTP-ISO/IEC 42001:2025), publicar el código fuente de los sistemas financiados con recursos públicos y asegurar siempre una supervisión humana efectiva.
El Reglamento también incorpora las evaluaciones de impacto. Para el sector público son obligatorias en sistemas de alto riesgo; en el sector privado, voluntarias pero altamente recomendadas. Estas evaluaciones permiten anticipar sesgos, medir impactos y documentar medidas de mitigación. Una empresa que realice estas evaluaciones estará mejor posicionada frente a clientes, reguladores e inversionistas.
LEA TAMBIÉN: ¿Demasiado tarde para liderar? La revancha ejecutiva después de los 50
Otro elemento relevante es el cronograma de implementación de 1 a 4 años, que da a las instituciones públicas y privadas el tiempo necesario para adecuarse progresivamente.
El reglamento es un avance, pero no está libre de retos. Algunos conceptos —como la “clasificación de personas”— resultan ambiguos y podrían dar lugar a interpretaciones discrecionales que frenen proyectos legítimos. A ello se suma la existencia de 27 proyectos de ley en el Congreso que elevan el riesgo de sobrerregulación y aumentan la incertidumbre. Lo más sensato sería permitir que la Ley y su Reglamento maduren antes de introducir nuevas cargas normativas.
A pesar de estas tensiones, el Reglamento abre un campo fértil para la acción estratégica. Las empresas pueden elevar sus estándares de gobernanza, invertir en talento especializado, adoptar buenas prácticas y fortalecer la transparencia como ventaja competitiva. El Estado deberá emitir lineamientos claros y coordinar con el sector privado, evitando duplicidad y exceso de regulación. El verdadero reto será alcanzar un equilibrio entre la protección de derechos fundamentales y el dinamismo económico, condición esencial para que el Perú pueda competir en innovación tecnológica a nivel regional.
LEA TAMBIÉN: Una ministra generada por IA: la apuesta de Albania contra la corrupción
El Reglamento no es un punto de llegada, sino el marco inicial. Su efectividad dependerá menos de lo que dice el papel y más de cómo se implemente en la práctica. El Estado ya ha dado el primer paso. Ahora toca al sector privado informarse, capacitarse y adoptar el nuevo marco para demostrar que la innovación si puede ir de la mano con la protección de derechos. El objetivo debe ser posicionarnos como referentes regionales en el uso ético e innovador de la IA y no quedarnos rezagados frente a una transformación sin precedentes.