Apple revisará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil


El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores.


Noticia Radio Panamá | Apple revisará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil

| agosto 7, 2021


La empresa Apple ha anunciado un nuevo sistema que permite buscar de forma automática contenido de abuso sexual a menores y similares. Mediante ello detecta este tipo de contenido prometiendo al mismo tiempo seguir respetando la privacidad del usuario, esto generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.

El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores. Estados Unidos será el primero en implementar la herramienta ‘’NeuralMatach’’, para finales de este año. Aunque en realidad tan sólo una de varias características que van a habilitar para proteger a menores de peligros online, como han anunciado en una declaración oficial.

El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro. El escaneo de fotografías en busca de contenido de abuso a menores en realidad no es nuevo. Servicios como Google Drive ya lo hacen también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al que nadie puede acceder sin las claves de acceso.
 

album-art

Sorry, no results.
Please try another keyword
00:00