Entre el conjunto de nuevos productos de inteligencia artificial de Meta Platforms Inc. se encuentra un chatbot entrenado para hablar como un detective pero que luce como Paris Hilton, y un personaje con armadura llamado Dungeon Master que está basado en Snoop Dogg.
Están en medio del entretenido final de una importante iniciativa de Meta para incorporar herramientas de inteligencia artificial generativa que puedan responder a mensajes de usuarios en aplicaciones utilizadas por miles de millones de personas cada mes, y le corresponde a Nick Clegg, presidente de asuntos globales de Meta, asegurarse de que su empleador lo haga de manera responsable después de años de críticas sobre que la empresa no protege adecuadamente sus productos.
“Hemos pasado miles de horas trabajando en pruebas de seguridad para hacerlos lo más seguros posible”, dijo Clegg en el último episodio de la serie AI IRL, de Bloomberg Originals. “No podemos garantizar que no lance algo inapropiado o no deseado en ningún momento, pero podemos seguir entrenándolo”.
Clegg dijo que participa “desde el inicio”, cuando los altos directivos toman decisiones sobre la dirección que deben seguir las herramientas de IA de la empresa “para anticipar algunos de los problemas legales, regulatorios, morales, éticos y culturales con los que podrían toparse estos nuevos productos”.
LEA TAMBIÉN: Meta quiere poner la IA al servicio de la mayor cantidad de usuarios
Meta ha utilizado la IA en sus productos orientados al consumidor durante años, particularmente en determinar qué publicaciones y anuncios mostrar a los usuarios.
También depende en gran medida de la IA para ayudar a detectar y combatir la difusión de información errónea. Pero ahora, la IA no es sólo una solución a los problemas de la empresa; también es una posible gran complicación.
Meta debe enfrentar una nueva serie de preocupaciones planteadas por las herramientas de IA que podrían salir mal con un usuario o difundir información errónea.
Algunos usuarios ya habrían descubierto que los stickers generados por la IA de Meta, que se anunciaron el mes pasado junto con los chatbots de celebridades, pueden generar imágenes preocupantes.
LEA TAMBIÉN: Ejecutivo de Meta: “IA es omnipresente y afectará a todo en el mundo”
Clegg dijo que el uso por parte de Meta de licencias transparentes y de código abierto para algunos de sus conjuntos de datos y grandes modelos de lenguaje (la tecnología que sustenta los chatbots de IA) sería clave para salvaguardar el uso ético.
“Cuanto más abiertos seamos en cuanto a cómo operan estas nuevas tecnologías, más abiertos seremos en términos de cuáles son los riesgos y beneficios, cuáles son los controles para los usuarios y también cómo debemos trabajar con otros”, dijo.
LEA TAMBIÉN: ChatGPT, ahora puede “ver, oír y hablar”