
La última actualización de ChatGPT permite a los usuarios replicar el estilo artístico del cocreador del estudio de animación y legendario cineasta japonés Hayao Miyazaki. Esta nueva funcionalidad se ha viralizado rápidamente en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli.
Para crear una imagen al estilo Ghibli, primero tendrás que ingresar al chat de ChatGPT, seleccionar el ícono de imagen y cargar la fotografía que deseas modificar. Debes indicar que quieres la imagen deseada al estilo Ghibli.
Una vez que hayas obtenido la foto al estilo Ghibli, puedes descargarla en tu dispositivo o guardarla en la nube, para luego compartirla en redes sociales.
Pero, ¿qué hay detrás de estos dibujos? Desde ESET advierten que sumarse a una tendencia puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida o si para usarla se aceptan condiciones de privacidad desfavorables.
Fabiana Ramírez, security researcher de ESET Latinoamérica, dijo a Gestión que los datos biométricos en seguridad se utilizan desde control de acceso a edificios, dispositivos electrónicos, entre otros, así como para autenticación en sistemas bancarios o administración de tratamientos personalizados en salud.
“Un cibercriminal si da con esos datos podría llegar a suplantar la identidad de las personas teniendo acceso en todas estas cuestiones y usarlo con fines maliciosos”. La información sensible, precisa, incluida la biométrica, tiene un valor usualmente en alto en el mercado negro.
En cuanto a datos de tipo financiero como tarjetas de crédito podrían valer entre 8 y 22 dolares, según ‘Para un cibercriminal, ¿cuánto vale su información en la dark web?’
En cuanto a cuentas de redes sociales también tienen precios específicos, por ejemplo, una cuenta de Facebook puede costar alrededor de 3.4 euros según es ‘El negocio de los datos personales, ¿cuánto valen?’
LEA TAMBIÉN: Guía práctica: Así puedes crear un asistente de IA que potenciará su productividad
Daniel Arias, delivery manager - managed services de Business IT, señaló a Gestión que la información biométrica determina la identidad de una persona y, si se vulnera, no puede cambiarse como una contraseña. “Uno de los mayores riesgos es el robo o filtración de estos datos, lo que puede dejar la información totalmente expuesta. Hoy en día, se ha popularizado el uso de aplicaciones que al cargarles una foto tuya te ofrecen el “beneficio” de convertirla en imágenes animadas que, aunque parece algo inofensivo, supone un riesgo crítico, ya que no tenemos control sobre la aplicación ni sobre lo que vayan a hacer con nuestra información biométrica".
Y es que, dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean tratados y almacenados de forma segura, ya que pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox. Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar de forma fácil la identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.
La empresa australiana Outabox sufrió en mayo del 2024 una filtración que expuso datos de reconocimiento facial y biometría de sus sistemas que utilizaban en bares y clubes de Australia.
Personas que afirmaron ser antiguos desarrolladores de Outabox crearon un sitio web donde confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma, datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo de visitas a clubes y uso de máquinas tragamonedas.
Las investigaciones demostraron que los datos se recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana, operados por ClubsNSW que había contratado a Outabox.
Recolección masiva de datos sin el consentimiento
“Entre los principales desafíos que impone la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son dos puntos que toman fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven), muchos de estos contienen información personal, sensible y confidencial”, explica David Gonzales, investigador de Seguridad Informática de ESET Latinoamérica.
“Las diversas fuentes para recolectar información, y así entrenar a los modelos de IA, pueden provenir de información pública o de fuentes abiertas, información solicitada a los usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por dispositivos IoT”, agregó.
Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios, quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento -precisa ESET- implica un vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises.
La falta de transparencia y explicabilidad sobre cómo funcionan los modelos y cómo tratan la información genera también conflictos legales.
Aquí es donde se puede tornar una línea delgada entre lo privado y lo invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor calidad.
Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las debidas precauciones.
En esa línea, desde ESET Latinoamérica comparten los puntos más importantes a considerar para minimizar los riesgos:
- Revisar las políticas de privacidad del sitio o aplicación: Mantenerse informado sobre cómo funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable subir o no información personal o confidencial.
- Chequear si la información que se sube a un sitio o aplicación está protegida por alguna ley: Garantizar que los modelos de IA dentro de aplicaciones o sitios cumplan con regulaciones internacionales y nacionales pertinentes, así como con los principios éticos de transparencia, explicabilidad, equidad y responsabilidad. En caso de la ausencia de alguno de estos principios, es mejor no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de trabajo).
- Usar aplicaciones web o móviles de fuentes oficiales: Debido al gran uso de aplicaciones o sitios similares a ChatGPT que puedan generar imágenes con el estilo artístico del Studio Ghibli, los ciberdelincuentes aprovechan esta temática para poder engañar a los usuarios e incitarlos a descargar software que aparentemente cumple con el propósito de generar imágenes con IA, sin embargo, puede contener malware.
- Usar imágenes seguras o sin derechos de autor: Si no se tiene el conocimiento de que la imagen sea para su uso libre, es mejor no subirla para evitar problemas legales relacionadas con los derechos de autor. Una buena práctica es subir imágenes relacionadas a paisajes o ilustraciones que cumplan con las políticas de privacidad del sitio o aplicación.
Arias de Business IT, mencionó que es esencial que las empresas aseguren que esta información será tratada bajo los más altos estándares de seguridad y utilizada únicamente para el fin para el que se comparte, así como también debemos asegurarnos de que nuestra información será eliminada de manera segura una vez que haya cumplido el objetivo para el cual fue compartida.

Editora digital. Licenciada en Ciencias de la Comunicación, con especialización en periodismo. Experiencia en prensa escrita, digital y TV.