El escaneo se realiza de manera automática, indicó la directora de privacidad de Apple
“Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil”, agregó
Jane Horvath, directora de privacidad de Apple, dio a conocer que esta empresa inició un programa de análisis de las fotografías de sus usuarios con el propósito de detectar posibles escenas de abuso sexual infantil.
“Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil”, indicó Horvath en la conferencia tecnológica CES 2020 en Las Vegas, Estados Unidos.
Sin brindar mayores detalles del sistema, la directivo comentó que el escaneo se realiza de manera automática, según información referida por el portal RT.
Cabe destacar que en las condiciones de uso, Apple enfatiza que “está dedicada a la protección de los niños” a lo largo de su ecosistema, por lo que seguirá “apoyando innovaciones en esta materia”.
“Como parte de este compromiso, Apple utiliza la tecnología de coincidencia de imágenes para ayudar a encontrar y reportar la explotación infantil (…) Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y cualquier cuenta que encontremos con este material será desactivada”, señalan las mismas.
Horvath también defendió la política del gigante estadounidense al destacar que impide el acceso al encriptado de los dispositivos de Apple, situación que el FBI ha demandado reiteradamente durante la investigación de delitos graves.
“El cifrado de extremo a extremo es de vital importancia para los servicios en los que confiamos: datos de salud, de pago. Los teléfonos son relativamente pequeños, se pierden, son robados. Tenemos que asegurarnos de que si uno extravía ese dispositivo, no está (exponiendo esos datos)”, señaló.
Sé parte de la conversación