Apple, contra la pornografía infantil: escaneará las imágenes del iPhone y el iPad para identificar material sexual con niños

Apple, contra la pornografía infantil: escaneará las imágenes del iPhone y el iPad para identificar material sexual con niños
8 comentarios

Del mismo modo que Google lucha contra la difusión de contenido sexual infantil con diferentes herramientas -como CSAI Match, en YouTube-, Apple acaba de anunciar nuevas medidas para proteger a los más pequeños frente a este tipo de prácticas.

Una de las más importantes es el nuevo sistema para buscar de forma automática contenido sobre actividades sexualmente explícitas que involucran a un niño. Eso sí, respetando la privacidad, asegura la compañía. Tanto esa como el resto de nuevas herramientas se activarán inicialmente en Estados Unidos a finales de este año.

Detección de contenido sexual infantil

Fotos Icloud

Para combatir la difusión de material con actividades sexualmente explícitas que involucran a un niño, Apple implementará una nueva tecnología en iOS y iPadOS que le permitirá detectar este tipo de imágenes almacenadas en iCloud y reportárselo a las autoridades pertinentes.

Según Apple, este método respeta la privacidad del usuario porque, en lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de imágenes ya conocidas proporcionadas por organizaciones de protección infantil. Previamente, Apple transforma esa base de datos en un conjunto ilegible de hashes que se almacenan de forma segura en los dispositivos de los usuarios.

Apple Seguridad

De esa forma, antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de comparación en el dispositivo con los hashes conocidos mediante una tecnología criptográfica que determina si hay una coincidencia sin revelar el resultado. En ese momento, el dispositivo codifica el resultado de la coincidencia junto con datos encriptados adicionales sobre la imagen y los carga en Fotos de iCloud junto con la imagen.

A su vez, la tecnología llamada Umbral de Intercambio Secreto garantiza que Apple no pueda interpretar el contenido a menos que la cuenta de iCloud Fotos supere el límite marcado de contenido legal. Según la compañía, ese límite o umbral proporciona "un nivel de precisión extremadamente alto" y garantiza un número ínfimo de posibilidades de inhabilitar incorrectamente una cuenta determinada.

Cuando se excede el umbral, la tecnología criptográfica permite a Apple interpretar el contenido de los datos de seguridad asociados con las imágenes coincidentes y revisar manualmente cada informe para confirmar que hay una coincidencia. En ese caso, deshabilita la cuenta del usuario y envía un informe a la autoridad competente o a la policía.

Mensajes más seguros

Mensajes

La aplicación Mensajes, por su parte, también añadirá nuevas herramientas para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas. Utilizando el aprendizaje automático en el dispositivo, analizará los archivos adjuntos de imágenes y determinará si una foto es sexualmente explícita.

Al identificar este tipo de contenido, la foto se mostrará borrosa y se advertirá al niño ofreciéndole recursos útiles y enviando un mensaje a los padres en caso necesario. También habrá protecciones similares disponibles si un menor intenta enviar fotos sexualmente explícitas.

Según la compañía, la función ha sido desarrollada para que Apple no tenga acceso a los mensajes y respetar así la privacidad de los usuarios. Se implementará a finales de este año en las cuentas configuradas como Familia en iCloud para iOS 15, iPadOS 15 y macOS Monterey.

Siri puede ayudarte

Siri

Por último, Apple también está reforzando Siri con recursos adicionales para proteger a los niños y padres y obtener ayuda en situaciones inseguras. Por ejemplo, aquellos usuarios que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o la explotación infantil serán informados sobre dónde y cómo presentar una denuncia.

Además, cuando los usuarios realicen búsquedas relacionadas con contenido sexualmente explícito de niños, Siri les explicará que ese tema es dañino y problemático, y proporcionará recursos para obtener ayuda. Al igual que el resto de funciones, estas mejoras en el asistente y las búsquedas llegarán a finales de este año en una actualización de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Más información | Apple

Imagen de portada | Gary Cassel en Pixabay

Temas
Inicio