www.zonamovilidad.es
Por Martín Castro
x
martincastroprietolivecon/18/18/23
lunes 09 de agosto de 2021, 16:24h

google+

linkedin

Comentar

WhatsApp

  • Compartir en Meneame

Apple lanzó el jueves una nueva herramienta que permite detectar de forma inteligente las imágenes de contenido sexual en las que aparecen menores en los iPhone, iPad y el servidor de iCloud en Estados Unidos, algo que ha molestado, y bastante, a los defensores de la privacidad en Internet.

El fin de esto es “ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, según ha explicado el grupo directivo de la manzana en su página oficial. Para ello, la compañía utilizará herramientas que bajo su criterio para analizar imágenes que sean sospechosas.

Herramientas contra la distribución de pornografía infantil

Además de esto, los de Cupertino tiene en mente comparar las fotos que estén cargadas en iCloud con las que el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), una corporación privada que trabaja para abolir la explotación infantil, tiene en su archivo administrativo. Apple no tiene directamente acceso al archivo, pero si alguna se asemeja a las almacenadas en los dispositivos se revisarán manualmente por la empresa, deshabilitando la cuenta del usuario si es necesario y posteriormente enviando un informe al NCMEC.

Apple analizará manualmente todas aquellas fotos que considere sospechosas o que incluyan desnudos infantiles

Además, en la misma línea los directivos planean incluir otras opciones para que tanto los niños como los padres que disponen de una cuenta de “Compartir en familia” no reciban fotos explícitas que terceros les envíen por iMessage. Al recibir una foto de este tipo, aparecerán borrosas y se notificará al menor avisándole de que no está obligado a abrir la imagen y que se trata de contenido sensible.

Intervención de Siri y Search, además de avisos a padres

Los padres de los menores pueden activar el aviso de mensajes cuando sus hijos abran la aplicación de fotos. De esta forma también se implementarán protecciones similares para aquellos niños que quieran enviar fotos explicitas sexuales.

Para erradicar estas situaciones hay que comenzar por la prevención, y por ello Apple ha decidido incrementar la información sobre cómo se debe actuar en estas situaciones que ofrece Siri en el momento que los niños o padres pidan consejo sobre estos temas.

Cómo se enfrentan los menores a los peligros de Internet

Leer más

Search y Siri estarán mejoradas para intervenir en el momento que algún usuario decida buscar en internet imágenes de pornografía infantil advirtiéndoles de que dicho contenido es problemático y poco ético. Estas herramientas estarán disponibles en próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.

Cambios significativos en protocolos de privacidad

“Apple está sustituyendo su sistema de mensajería con cifrado de extremo a extremo por una infraestructura de vigilancia y censura, que será vulnerable al abuso y al mal uso no sólo en Estados Unidos sino en todo el mundo”, ha apuntado Greg Nojeim, del Centro de Democracia Tecnología.

“La explotación infantil es un problema grave, y Apple no es la primera empresa tecnológica que cambia su postura sobre la protección de la privacidad en un intento de combatirla”, recalcaron India McKinney y Erica Portnoy, de la ONG en defensa de la libertad en internet Electronic Frontier Foundation.

La compañía advierte que aún con estas herramientas, no está todo hecho, siempre hay lugar a nuevos abusos y que está realizado con la mejor de las intenciones para eliminar la pornografía infantil. Con una mínima modificación, Apple podría pasar de revisar el contenido de menores a la de todo el mundo.

Diferentes voces contrarias tratan el movimiento de “violación a la privacidad”

Will Cathcart, jefe de WhatsApp que lleva en Facebook desde 2010 es una de las mayores voces contrarias al gigante creador del iPhone, señala que está preocupado porque considera este movimiento una postura incorrecta ante el problema del abuso sexual infantil ya que, para acabar con un problema, crea otro de “intromisión a la privacidad”.

"Hace tiempo que Apple necesitaba hacer más sobre los materiales de abuso sexual, pero su postura es preocupante", indica el ejecutivo. "En vez de concentrarse en facilitar que quien reciba estos contenidos lo denuncie, han creado un sistema para escanear todas las fotos privadas de tu teléfono. Eso no es privacidad", advierte Cathcart.

El activista por la privacidad y fugado de la Justicia estadounidense, Edward Snowden, también ha aportado su granito de arena a la cuestión. "No te equivoques, si pueden escanear en busca de porno infantil, pueden escanear todo el día de mañana", ha publicado en Twitter.

El Parlamento Europeo crea nuevas normas temporales para luchar contra los abusos sexuales infantiles en la red

leer más

Apple se defiende ante estos ataques

La empresa de la manzana ha declarado que tiene diseñadas diferentes medidas de seguridad que sirven para evitar que sus sistemas se utilicen para malas acciones, como puede ser revisar cualquier otro contenido que no sea abuso sexual. Alega que la lista de imágenes prohibidas ha sido proporcionada por el NCMEC y por tanto, ello no han tenido nada que ver, simplemente han diseñado el software necesario para llevarlo a cabo.

Apple señala que simplemente han diseñado el software, las imágenes son proporcionadas por el NCMEC

Además, Apple dice que rechazará todas las demandas de los gobiernos que le quieren obligar a incluir imágenes que no sean CSAM( el Sistema de Material de Abuso Sexual Infantil) a la lista. “Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro”, declaran.

Por otro lado, hay que destacar que Apple en anteriores ocasiones ya ha hecho concesiones a los gobiernos que tienen restricciones a la privacidad en sus respectivos países. Un ejemplo de esto es la venta de iPhones sin Facetime o eliminando aplicaciones de su App Store.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
  • Compartir en Meneame

+

0 comentarios