martes, abril 23, 2024
InicioTecnologíaApple detectará las fotos de abuso sexual infantil en sus equipos

Apple detectará las fotos de abuso sexual infantil en sus equipos

La compañía Apple adelantó que nuevas herramientas detectarán las imágenes de contenido sexual que involucran a niñas o niños en sus diferentes equipos. La acción abarcará a iPhone, iPad e iCloud en Estados Unidos. El tema genera preocupación a quienes defienden la privacidad.

La empresa expresó en un comunicado que “queremos ayudar a proteger a los niños de los depredadores”. Para ello buscan “limitar la difusión de pornografía infantil”. Apple utilizará unas herramientas de cifrado que analizarán y vincularán las imágenes que consideren sospechosas.

La tecnológica también comparará las fotografías subidas al sistema iCloud con un archivo que administra el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC). Se trata de una corporación privada que trabaja para reducir la explotación sexual infantil.

Apple asegura que no accederá a las imágenes, pero cuando una se parezca a una del archivo, la revisará manualmente. Luego deshabilitaría la cuenta y se informará el caso al NCMEC. La empresa también busca prevenir a los menores de edad y a sus responsables con la cuenta “Family Sharing”.

Reuters indica que Apple avisará cuando las fotos explícitas les sean enviadas a la aplicación de mensajes. Se verán borrosas y se remitirá al niño o niña a los mensajes de prevención con una advertencia. Siri y Search también podrán intervenir cuando los usuarios busquen imágenes de pornografía infantil, al advertirles que ese contenido es problemático.

Lo más popular