Cofundadora de Kaudal y partner de Laboratoria
La adopción de herramientas de IA en nuestra sociedad está avanzando a un ritmo acelerado y, aunque resulta fascinante, es igualmente preocupante. Mis columnas más recientes han cubierto cómo las herramientas digitales pueden potenciar nuestra capacidad, sobre todo aquellas de fácil adopción, como las herramientas no-code o los chatbots de IA generativa. Y aunque sigo estando a favor de adoptar estas herramientas para ser más productivos y creativos, cada vez me preocupa más el descontrol de estas tecnologías tan poderosas. Por eso, esta vez quiero dedicar esta columna a comentar sobre los riesgos latentes que traen los recientes avances de la IA y su rápida adopción. Existen al menos tres riesgos fundamentales. Empezaré por el riesgo en el que podemos tener alta influencia a nivel individual para prevenirlo. Luego, abordaré dos factores de riesgo donde será necesaria nuestra influencia colectiva para mitigarlos.
1. Pasar por alto las necesidades más básicas
Diversos allegados y clientes me preguntan frecuentemente cómo incorporar la IA en sus negocios, a lo que yo siempre respondo con otra pregunta: ¿qué necesidades tiene tu negocio y sus usuarios que quisieras atender mejor? Allí comienza una conversación que, en muchas ocasiones, nos lleva a realizar diagnósticos que evidencian que las empresas suelen tener necesidades muy básicas mal cubiertas. Traer un sistema potente de IA sobre una mala base es como pretender manejar un Ferrari en una calle llena de baches. Todo tiene que partir de un buen entendimiento de las necesidades, para luego decidir qué tecnología usar. Y no se trata de retrasar el uso de tecnologías avanzadas, sino de hacerlo mientras se cubren las necesidades más básicas también; es decir, manejar el Ferrari mientras se tapan los baches. Por ejemplo, en Kaudal hemos observado que el 83% de las personas dedican más de 10 hrs/mes en su trabajo a copiar y pegar datos de una fuente a otra manualmente (ej. entre hojas de cálculo). Esta ineficiencia está presente en cientos de empresas que han usado nuestra Kalculadora gratuita para calcular dónde pueden ahorrar tiempo por medio de la automatización. Y este “bache” se puede cubrir con herramientas sencillas y poco utilizadas como Power Bi y Power Automate de Microsoft o Looker y Appsheet de Google. Son herramientas no-code que pueden usar la mayoría y que van a incorporar pronto chats de IA para facilitar aún más su uso.
A nivel social, el riesgo de distraernos con la IA es aún más serio. Sí, los Gobiernos democráticos deberían evaluar cómo aprovechar estas tecnologías avanzadas para servir mejor a sus ciudadanos, pero también tienen que continuar reduciendo la brecha digital desde sus bases, ofreciendo, por ejemplo, acceso a internet a quienes aún no lo tienen.
2. Lanzamientos apresurados y con poca regulación.
El lanzamiento de Chat GPT, que fascinó a muchos, también causó preocupación entre expertos. Por años, existió un consenso implícito sobre no liberar al público modelos de IA generativa sin comprender plenamente su evolución y posibles usos. El afán competitivo entre gigantes (ej. Microsoft vs. Google, EEUU vs China) ha desafiado estos consensos, y figuras como Geoffrey Hinton, considerado el padrino de la IA, han alertado sobre los crecientes riesgos. Las personas y empresas que crean estos modelos deben asumir una responsabilidad clara sobre cómo estas herramientas aprenden y son utilizadas, y eso aún no sucede. Si bien existen aplicaciones fascinantes para la IA (ej. detectar células cancerígenas o carros que se acercan), también hay aplicaciones preocupantes (ej. vigilar y detectar personas y reprimir la libertad de expresión). Además, su facilidad de uso y potencia las convierten en herramientas que incluso niños de 15 años las pueden usar para causar mucho daño, como acabamos de ver en un colegio en Perú.
Definir el camino a seguir es complejo, ya que cada decisión tiene repercusiones. Expertos como Geoffrey Hinton, Elon Musk y Steve Wozniak firmaron una carta pidiendo una pausa en el desarrollo de modelos más potentes que GPT-4. Pero su llamado no tuvo mayor efecto, pues surgieron preocupaciones de que solo los actores con intenciones éticas se detendrían. A mi parecer, ahora no es tan necesario modelos de IA más potentes, o más herramientas de IA. Ya hay más de 7,600 herramientas de IA para unas 2,000 tareas, según el portal theresanaiforthat.com que las monitorea. No necesitamos más. Necesitamos que los mejores modelos y aplicaciones se queden y sean más seguros. También necesitamos más regulación desde al menos tres frentes: i) Los Gobiernos deben enfocarse en proteger la identidad y la data de personas e instituciones, ii) los creadores de tecnologías de IA en hacerlas más seguras y encaminables hacia el bien y iii) nosotros debemos regular cómo usamos estas herramientas que nos entregan en bandeja, usando nuestro criterio humano y enseñando a niños, adolescentes y adultos a usarlo frente a tecnologías tan potentes.
3. Perder control ante una inteligencia significativamente superior.
Aunque me resulta difícil imaginar un futuro dominado por máquinas, no necesitamos llegar a ese punto para sentir inquietud. Hoy en día, la IA ya supera a los humanos en múltiples tareas fundamentales en nuestra interacción social. Además, algunos expertos, como Mo Gawdat, quien fue Chief Business Officer de Google X y escribió el libro “Scary Smart”, señalan que varias IAs están expandiendo su conocimiento hacia áreas adyacentes a su especialización. Si esto sigue así, podría llegar un momento en que la IA sea muchísimo más inteligente que nosotros en amplios territorios. Y en ese caso, podríamos perder nuestro lugar y control en el mundo que hemos creado. Este futuro podría ser más cercano y posible de lo que algunos, incluso yo, quisiéramos creer.
En conclusión, el desarrollo y la adopción de la IA son inevitables y pueden traer innumerables beneficios. Sin embargo, es esencial que permanezcamos atentos y proactivos ante los riesgos asociados. Todas y todos tenemos un grado de responsabilidad en garantizar que la IA avance de manera segura y en beneficio de la sociedad.