
Escribe: Sandro Denegri, Chief Data Office de Mibanco.
La OTAN desarrolló un sofisticado algoritmo de inteligencia artificial (IA) con el objetivo de detectar, en imágenes satelitales, la presencia de tanques de guerra camuflados. El modelo demostró una precisión casi perfecta, lo que fue motivo de celebración entre los altos mandos de la alianza. Sin embargo, la OTAN mantiene protocolos rigurosos respecto a la explicabilidad de sus modelos, por lo que un equipo independiente se dedicó a investigar las razones detrás de la eficacia del algoritmo.
LEA TAMBIÉN: El Estado como botín: La política peruana secuestrada por sus piratas
La sorpresa fue mayúscula cuando el equipo descubrió que la variable clave utilizada por el modelo para indicar la presencia de tanques era la hora en que se tomaba la fotografía. Si la imagen era capturada por la mañana, el algoritmo concluía que no había tanques; en cambio, si la fotografía se realizaba por la tarde, el modelo determinaba que sí los había.
LEA TAMBIÉN: Regulación sin ponderación: entre la moto y el spam
Los expertos militares rápidamente identificaron el problema. Regularmente, las imágenes satelitales se capturaban sin la presencia de tanques durante las primeras horas de la mañana. Posteriormente, se dedicaba un tiempo considerable a camuflar los carros de combate, lo que resultaba en que las imágenes con tanques siempre se tomaban por la tarde. Evidentemente, en un escenario de guerra real, respetar estos horarios no sería posible, lo que llevaría a la IA a fallar de manera estrepitosa.
Este caso subraya la importancia de comprender a profundidad el funcionamiento de los modelos de IA en el momento de realizar predicciones. Los modelos de caja negra, aquellos cuyos procesos internos son opacos y sus resultados difíciles de interpretar, presentan riesgos significativos.
LEA TAMBIÉN: El dólar como activo refugio en tiempos inciertos: ¿Qué podría ocurrir en los próximos meses?
Lo anterior resalta la importancia de la supervisión humana en el desarrollo y la implementación de la IA. Los algoritmos pueden ser extremadamente útiles, pero no deben operar sin el control del juicio humano. La combinación de la IA con la supervisión humana puede ayudar a mitigar los riesgos y garantizar que los sistemas se utilicen de manera efectiva y segura. La transparencia y la explicabilidad no solo aumentan la confianza en la IA, sino que también permiten identificar y corregir posibles fallos antes de que se conviertan en problemas graves.
LEA TAMBIÉN: Aranceles de Trump: ¿Perjudican o benefician a quienes quieren vender una empresa?
En resumen, la historia de la OTAN y su algoritmo de detección de tanques camuflados ilustra la necesidad imperiosa de desarrollar modelos de IA que no solo sean precisos, sino también transparentes y explicables. Solo podremos navegar el océano de la IA con la brújula de la explicabilidad.