jueves, febrero 2, 2023
No menu items!
InicioTecnologíaApple abandona la polémica función contra la pornografía infantil

Apple abandona la polémica función contra la pornografía infantil

Conocida como CSAM, fue una de las funciones anunciadas por Apple a finales de 2021 para combatir la difusión de pornografía infantil. Sin embargo, el planteamiento estadounidense suscitó serias dudas que ahora obligan a abandonarlo.

La noticia la ha dado un representante de Apple a la publicación WIRED. Tras varios meses intentando desarrollar la mejor herramienta posible, los tecnológicos acabaron renunciando a esta medida preventiva.

Apple abandona la polémica función CSAM

«Tras una amplia consulta con expertos para recabar opiniones sobre las iniciativas de protección infantil que propusimos el año pasado, hemos profundizado nuestra inversión en la función de seguridad de las comunicaciones que pusimos a disposición por primera vez en diciembre de 2021. Hemos decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para Fotos de iCloud. Se puede proteger a los niños sin que las empresas revisen sus datos personales, y seguiremos trabajando con gobiernos, defensores de la infancia y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la intimidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros.»

Manzana

Estas fueron las declaraciones de la empresa estadounidense al anunciar el fin del desarrollo de esta controvertida herramienta. La protección de los menores no dejará de ser una prioridad para la empresa, pero deberá salvaguardarse con un planteamiento diferente.

Recuerdo que el CSAM consistía en una herramienta de detección automática de contenidos relacionados con el abuso sexual infantil. Analizaría las fotos de los usuarios presentes en iCloud en busca de material ilegal.

Los resultados se cotejarían con una base de datos predefinida. Si se detectara algún caso positivo, la imagen se difuminaría automáticamente para evitar la difusión de tales contenidos.

Además, una persona de Apple comprobaría manualmente la fotografía marcada. Si se detectara la presencia de contenidos ilícitos o relacionados con el abuso de menores, se notificaría posteriormente a las autoridades competentes.

A pesar de la buena intención de Apple con esta herramienta, su operatividad suscitó serias dudas sobre la privacidad de los usuarios. Esta búsqueda automática se consideró un ataque inequívoco a la intimidad de los usuarios, abriendo un puerta trasera en todos los dispositivos.

Tras los diversos avances y retrocesos de esta herramienta, Apple decide ahora poner fin a su desarrollo. En cambio, la empresa ha anunciado la provisión de cifrado de extremo a extremo para todos los contenidos presentes en iCloud.

RELATED ARTICLES

Most Popular