A lo largo de estos últimos años, hemos tenido un aumento de deepfakes. Entre 2019 y 2020, el número de contenidos en línea deepfake, también llamados medios sintéticos, aumentó en un 900%.
Esta preocupante tendencia, está prevista que continue en los próximos años - con algunos investigadores prediciendo que “hasta el 90% del contenido en línea puede ser generado sintéticamente para 2026.” A menudo utilizados para engañar y realizar ataques de ingeniería social, los deepfakes erosionan la confianza en la tecnología digital y suponen una amenaza cada vez mayor para las empresas.
En 2022, el 66% de expertos en ciberseguridad experimentaron ataques deepfake dentro de sus respectivas organizaciones.
LEA TAMBIÉN: El “deepfake” revoluciona los medios de comunicación audiovisuales
Un ejemplo de delito de deepfake incluye la creación de mensajes de audio falsos de los CEO u otros altos ejecutivos de empresas, utilizando software de alteración de voz para hacerse pasar por ellos. Estos audios manipulados suelen contener peticiones urgentes para que el destinatario transfiera dinero o revele información sensible.
En la investigación se mostró que el sector bancario está particularmente preocupado por estos ataques, ya que el 92% de ciberprofesionales aseguran su uso fraudulento, en los servicios como la banca personal, pagos, entre otros.
El elevado coste de los deepfakes también se deja sentir en otros sectores. El año pasado, el 26% de las pequeñas y el 38% de las grandes empresas sufrieron fraudes de deepfake que les ocasionaron pérdidas de hasta 480,000 dólares.
También pueden socavar los resultados electorales, la estabilidad social e incluso la seguridad nacional, sobre todo en el contexto de las campañas de desinformación
El impacto de la IA en el riesgo de deepfakes
El continuo desarrollo de la inteligencia artificial ha aumentado significativamente el riesgo de deepfakes.
Los algoritmos de IA, incluidos los modelos generativos, pueden ahora crear medios difíciles de distinguir como imágenes, vídeos o grabaciones de audio reales.
Asimismo, estos algoritmos pueden adquirirse a bajo coste y entrenarse en conjuntos de datos de fácil acceso, que facilitan ataques de phishing y contenidos de estafa.
Los riesgos agravados de los deepfakes
Aunque las estafas deepfake plantean riesgos importantes, también pueden agravar los riesgos de otras actividades ciberdelictivas, como el robo de identidad.
También pueden utilizarse para crear documentos de identidad falsos, facilitando a los ciberdelincuentes la suplantación de personas o el acceso a sistemas seguros.
Para disminuir estos riesgos agravados, debemos adoptar un enfoque múltiple. Esto incluye invertir en tecnologías más sofisticadas de detección, así como mejorar los sistemas de verificación de identidad, incluido el uso de la verificación biométrica y de datos vitales, para evitar el uso indebido de los deepfakes en la usurpación de identidad.
Posibles soluciones
Para hacer frente a estas amenazas, debemos seguir desarrollando y mejorando las tecnologías de detección de deepfakes. Esto puede implicar el uso de algoritmos más sofisticados, así como el desarrollo de nuevos métodos que puedan identificar deepfakes basándose en su contexto, metadatos u otros factores.
Otra posible solución es promover la alfabetización mediática y el pensamiento crítico. Educando al público sobre los peligros de las deepfakes y sobre cómo detectarlas, podemos reducir el impacto de estas campañas maliciosas.
Por último, debemos considerar las implicaciones éticas de la IA y la tecnología deepfake. Los gobiernos y los organismos reguladores pueden desempeñar un papel importante en la elaboración de políticas que regulen la tecnología deepfake y promuevan un desarrollo y un uso de la tecnología transparente y responsable.
LEA TAMBIÉN: Audios y videos deepfake, la ciberamenaza del trabajo remoto
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí. ¿Aún no eres suscriptor?, adquiere tu plan aquí.