Escribe: Jorge Toyama, socio de Vinatea & Toyama, Abogados.
La Inteligencia Artificial (IA) impacta en el mundo laboral y presenta desafíos significativos en la regulación y las políticas internas de las empresas. Según la Organización Internacional del Trabajo (OIT), el impacto mayor no está en la pérdida apocalíptica de empleos sino en la transformación de las funciones y procesos laborales. La IA modificará radicalmente las relaciones laborales.
LEA TAMBIÉN: “El crecimiento económico solo se logrará a través de la inversión privada”
Un ejemplo: un vendedor ingresa a la empresa con su huella digital. Tiene una reunión híbrida desde su celular y, a través de la IA, comparte las acciones comerciales del día. Mientras visita clientes, ingresa a la plataforma con las ventas on time y, en línea, la empresa de logística recibe las reposiciones del día, mientras que las fotos que tomó en su recorrido registran las ventas de la competencia. Al final del día, no aparece en el top ten de vendedores y la IA le sugiere las acciones comerciales para mejorar y le envía una amonestación por incumplir protocolos de venta. El vendedor, por la noche, trabaja acciones innovadoras de ventas. Las implementa al día siguiente con buen resultado, pero sin seguir los comandos de IA. Al ser descubierto, es sancionado porque en la empresa solo se puede aplicar la IA. El vendedor denuncia a la empresa ante la Sunafil porque nunca le autorizó a utilizar su huella digital ni a realizar una vigilancia de su día laboral y cuestiona el reemplazo de su jefe por la IA.
¿Estamos preparados para este tipo de conflictos laborales? Las normas actuales no tienen una respuesta. Con la IA, las empresas optimizan sus procesos, reducen plazos y mermas, mejoran los productos, reducen costos y baten récords de productividad. Pero la IA plantea dilemas éticos y retos a las organizaciones. Su aprovechamiento también genera la responsabilidad de buscar una regulación que encuentre un equilibrio entre la necesidad de la IA y los derechos fundamentales de los trabajadores. Un difícil y delicado equilibrio. La regulación puede darse a través del propio reglamento interno o de las políticas por áreas o procesos. Lo ideal es que pueda ser cocreada. Quizás a partir de una propuesta de la empresa, la política sea socializada, se promueva la creatividad humana y, finalmente, se logre lineamientos con legitimidad.
LEA TAMBIÉN: Una reforma de pensiones moderada y sostenible
Las normas internas deberían contener las competencias y habilidades necesarias en el uso de la IA, así como transparentar los procesos que demandan reconversión, identificar las funciones que deben rediseñarse, y los puestos que necesitan reeducación permanente, además de posiciones que requieren habilidades críticas y competencias digitales. Estos lineamientos deben ser difundidos y actualizados constantemente conforme a la evolución de la propia IA. La información debe compartirse con detalle y en un lenguaje simple, e implementarse foros de explicación, canales de consultas y programas piloto. Esto es indispensable. La transparencia en la información genera mayor confianza, compromiso y aceptación de las decisiones que se toman con base en la IA. Las políticas deberían estar enmarcadas en la cultura de la empresa, representando una guía ética de actuación, y delimitando los casos en los que los trabajadores deben reportar su uso, resolviendo zonas grises, además de contar con un proceso de solución de conflictos. Por ejemplo, ¿es posible que una empresa impida, obligue o establezca límites al uso de la IA? ¿Un trabajador que presenta un trabajo original, sin declarar que utilizó ChatGPT, puede ser sancionado si existía una regulación interna que lo prohibía?
La protección de datos de los trabajadores (huella digital, historia médica, rutas de trabajo, rendimiento, etc.) también deben ser consideradas y transparentadas no solo por temas legales sino porque es lo correcto. Se debe establecer protocolos estrictos sobre su uso, limitados a la necesidad laboral. En el caso que se utilice la IA para mejorar la productividad, no debe tomarse decisiones automatizadas para promociones, bonos, renovaciones de contratos o despidos, basadas solo en algoritmos. Es necesario la intervención “humana” para evitar sesgos y discriminaciones. Las empresas deben considerar controles “de calidad humana” antes de aplicar acciones algorítmicas, así como auditorías periódicas y una validación adicional en acciones de impacto como un despido por bajo rendimiento. De hecho, hay casos como Amazon, donde hubo reclamos porque se habrían tomado decisiones arbitrarias basadas en la IA.
LEA TAMBIÉN: Crecimiento y déficit fiscal: Ser o no ser, esa es la cuestión
Las interacciones humanas con la IA también son críticas. Los casos de sustitución, revisión y participación humana en la mejora de la IA son complejos, especialmente para evitar que, fruto de la automatización y repetición de procesos, el talento se aleje y los índices de satisfacción laboral entren en picada.
Tenemos nuevos retos para la retención del talento, la rotación y la búsqueda de la “mejora continua” en medio de la IA. Ese es el desafío de las mejores organizaciones: encontrar las acciones adecuadas para cada necesidad, tiempo y para cada trabajador porque, como decía Saint-Exupéry, “lo esencial es invisible a los ojos”.
Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.