OpenAI permite ahora que las personas opten por autorizar el uso de sus conversaciones en ChatGPT para el entrenamiento de los modelos de la compañía de inteligencia artificial. La medida serviría para proteger la privacidad de personas que a veces comparten información confidencial con el popular chatbot de IA.
La startup dijo el martes que los usuarios de ChatGPT ahora pueden desactivar sus historiales de chat haciendo clic en un botón en la configuración de su cuenta. Cuando las personas hacen esto, sus conversaciones ya no se guardarán en la barra lateral del historial de ChatGPT (ubicada en el lado izquierdo de la página web), y los modelos de OpenAI no usarán esos datos para mejoras en el tiempo.
OpenAI busca que las personas se sientan más cómodas usando el chatbot para todo tipo de tema. Por ejemplo, durante una demostración de la función el lunes, la empresa usó el ejemplo de planificar una fiesta sorpresa de cumpleaños.
LEA TAMBIÉN: The Economist: cómo las empresas experimentan con IA, chatbots y demás
“Queremos avanzar más en esta dirección donde las personas que usan nuestros productos pueden decidir cómo se usan sus datos”, dijo Mira Murati, directora de tecnología de OpenAI.
En los meses posteriores al lanzamiento público de ChatGPT, millones de personas han hecho pruebas del mismo y de otros bots (como Bard, creado por Google de Alphabet Inc.).
Esta nueva ola de chatbots de IA ya se está usando para todo, desde ayudar a planificar vacaciones hasta actuar como terapeuta improvisado, lo que genera preguntas no solo sobre cómo se pueden usar estos sistemas, sino también sobre cómo las empresas procesan las indicaciones que las personas escriben. OpenAI dijo que su software filtra la información de identificación personal que proviene de los usuarios.
LEA TAMBIÉN: Quizás ChatGPT nos vuelva a todos ricos y eficientes
La startup con sede en San Francisco, que anunció los cambios en una publicación de blog el martes, continuará entrenando por defecto sus modelos con datos de los usuarios. Seguirá almacenando datos (incluidos los de conversaciones en las que los usuarios han desactivado el historial de chat) durante 30 días antes de eliminarlos, lo que hace para detectar comportamientos abusivos, dijo la compañía.
Este mes, OpenAI también dijo que permite a los usuarios enviarse por correo electrónico una copia descargable de los datos que han producido al usar ChatGPT, que incluye conversaciones con el chatbot.
La compañía planea implementar un plan de suscripción comercial en los próximos meses que, según dijo, no se alimentará por defecto de los datos de esos usuarios.
LEA TAMBIÉN: Inteligencia artificial en la sombra: OpenAI lanza “modo incógnito” en ChatGPT
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aun no eres suscriptor?, adquiere tu plan aquí