Apple Inc. advirtió a su personal de ventas minoristas y en línea que esté listo para responder preguntas de los consumidores sobre las próximas funciones de la compañía que buscarán limitar la difusión de pornografía infantil.
En un memorando enviado a los empleados esta semana, la compañía pidió al personal que revisara un documento de preguntas frecuentes sobre las nuevas salvaguardas, que están destinadas a detectar imágenes sexualmente explícitas de niños.
El gigante tecnológico también dijo que abordará las preocupaciones de privacidad haciendo que un auditor independiente revise el sistema.
A principios de este mes, la compañía anunció un trío de nuevas funciones destinadas a luchar contra la pornografía infantil: apoyo en Siri para denunciar el abuso infantil y acceder a recursos relacionados con la lucha contra el CSAM o material de abuso sexual infantil; una función en Messages que escaneará dispositivos operados por niños en busca de imágenes explícitas entrantes o salientes; y una nueva función para iCloud Photos que analizará la biblioteca de un usuario en busca de imágenes explícitas de niños.
La función iCloud ha sido la más controvertida entre los defensores de la privacidad, algunos consumidores e incluso los empleados de Apple. El sistema asigna lo que se conoce como clave hash a cada una de las imágenes del usuario y compara las claves con las asignadas a las imágenes dentro de una base de datos existente de material explícito.
Si se descubre que un usuario tiene tales imágenes en su biblioteca, se alertará a Apple, quien realizará una revisión humana para verificar el contenido, para luego informar sobre el usuario a la policía.
Apple inicialmente se negó a compartir cuántas imágenes potencialmente ilícitas deben estar en la biblioteca de un usuario antes de que se avise a la compañía, lo que generó preocupación entre algunos observadores. El viernes, la compañía dijo que el umbral inicial será de unas 30 imágenes, pero que el número podría cambiar con el tiempo.
La compañía con sede en Cupertino, California, también abordó las preocupaciones sobre la posibilidad de que se inserten en la base de datos imágenes no relacionadas con pornografía infantil con el propósito de que algunos Gobiernos espíen a los usuarios.
En respuesta, la compañía dijo que su base de datos estaría compuesta por imágenes provenientes de múltiples organizaciones de seguridad infantil, no solo del NCMEC, el Centro Nacional para Niños Desaparecidos y Explotados, como se anunció inicialmente. También dijo que utilizará datos de grupos en diferentes regiones y que el auditor independiente verificará el contenido de su base de datos.
Apple dijo anteriormente que rechazaría cualquier solicitud de los Gobiernos para utilizar su tecnología como un medio para espiar a los usuarios.