Inicio / Tecnología e Informática / Apple da marcha atrás a los controvertidos planes de seguridad infantil

Apple da marcha atrás a los controvertidos planes de seguridad infantil

Apple, iOS, iOS 15, CSAM, privacy, security, iPhone, child safety


En un anuncio sorpresa el viernes, Apple dijo que tomará más tiempo mejorar sus controvertidas herramientas de seguridad infantil antes de presentarlas.

Se buscan otros comentarios

La compañía dice que planea obtener más comentarios y mejorar el sistema, que tenía tres componentes clave: escanear fotos de iCloud en busca de material CSAM, escanear mensajes en el dispositivo para proteger a los niños y consejos de búsqueda diseñados para mantener a los niños seguros.

Desde que Apple anunció las herramientas, se ha enfrentado a un aluvión de críticas de personas y grupos de derechos humanos preocupados en todo el mundo. El gran problema que la compañía parecía tener problemas para resolver parece haber sido el potencial de los gobiernos represivos para obligar a Apple a monitorear más que CSAM.

¿Quién vigila a los centinelas?

Edward Snowden, acusado de robar inteligencia estadounidense y ahora defensor de la privacidad, advertido en Twitter, «No se equivoquen: si pueden buscar pornografía de bebés hoy, pueden buscar cualquier cosa mañana».

Los críticos han argumentado que estas herramientas podrían explotarse o ampliarse para respaldar la censura de ideas o amenazar el libre pensamiento. La respuesta de Apple, que no ampliaría el sistema, fue vista como un poco ingenua.

“Ya hemos enfrentado solicitudes para crear e implementar cambios impuestos por el gobierno que degradan la privacidad del usuario y hemos rechazado firmemente tales solicitudes. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología solo detecta CSAM almacenada en iCloud y no aceptaremos ninguna solicitud del gobierno para expandirla «, dijo la compañía.

«Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido», respondió la Electronic Frontier Foundation.

Apple escucha a sus usuarios (en el buen sentido)

En un comunicado ampliamente difundido a los medios de comunicación (el viernes antes de las vacaciones en Estados Unidos, cuando a veces se publican malas noticias) sobre la suspensión, Apple dijo:

«Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido dedicar más tiempo durante los próximos meses a recopilar opiniones y realizar mejoras antes de lanzar estas características críticas de seguridad infantil».

Es un movimiento que la empresa ha tenido que tomar. A mediados de agosto, más de 90 ONG se pusieron en contacto con la empresa en una carta abierta pidiéndole que reconsiderara la situación. Esa carta fue firmada por Liberty, Big Brother Watch. ACLU, Center for Democracy & Technology, Center for Free Expression, EFF, ISOC, Privacy International y muchos más.

El diablo en los detalles

Las organizaciones han advertido de varias debilidades en las propuestas de la empresa. Uno que ha sido muy incisivo: que el sistema mismo puede ser abusado por adultos abusivos.

«Los jóvenes LGBTQ + con cuentas familiares con padres poco comprensivos están particularmente en riesgo», escribieron. «Como resultado de este cambio, iMessage ya no brindará confidencialidad y privacidad a esos usuarios».

También sigue preocupando que el sistema propuesto por Apple pueda ampliarse. Sharon Bradford Franklin, codirectora del CDT Security & Surveillance Project, advirtió que los gobiernos «exigirán a Apple que escanee y bloquee imágenes de violaciones de derechos humanos, protestas políticas y otro contenido que debe protegerse como libre expresión, que constituye la columna vertebral de una sociedad libre y democrática ”.

Los defensores de Apple dijeron que lo que Apple estaba tratando de lograr era mantener la privacidad general sobre los datos de los usuarios mientras construían un sistema que solo podía detectar contenido ilegal. También señalaron los diversos sistemas de seguridad que la empresa integró en su sistema.

Esos argumentos no funcionaron, y los ejecutivos de Apple ciertamente obtuvieron el mismo tipo de comentarios en las redes sociales que he visto, lo que representó una profunda desconfianza hacia las propuestas.

¿Qué pasa después?

La declaración de Apple no decía eso. Pero dado que la compañía ha pasado semanas desde el anuncio de reunirse con medios y grupos interesados ​​de todos sus mercados sobre este tema, parece lógico que la segunda iteración de sus herramientas de protección infantil pueda abordar algunas de las inquietudes.

Por favor sígueme Gorjeoo únete a mí en el bar & grill de AppleHolic y en los grupos de discusión de Apple en MeWe.

Copyright © 2021