El Comisionado de Seguridad Electrónica de Australia emitió avisos legales a Apple, Meta, Microsoft y más exigiendo que las empresas informen sobre los pasos que están tomando "para combatir la proliferación de material de explotación sexual infantil en sus plataformas y servicios".
En un comunicado de prensa el martes, el organismo dijo que había enviado los avisos "a algunas de las compañías tecnológicas más grandes del mundo" pidiéndoles que informaran sobre las acciones tomadas para terminar con la explotación sexual infantil en línea.
Las expectativas habrían establecido "los requisitos mínimos de seguridad que se esperan de las empresas de tecnología que deseen operar en Australia y los pasos que deben tomar para proteger a los usuarios australianos de daños".
Protección infantil
En un comunicado, la comisionada de seguridad electrónica de Australia, Julie Inman Grant, dijo: "Las expectativas básicas de seguridad en línea son una herramienta líder en el mundo diseñada para fomentar prácticas fundamentales de seguridad en línea y fomentar la transparencia y la responsabilidad de las empresas de tecnología. Nos ayudarán a 'levantar el capó ' sobre lo que las empresas están haciendo, y lo que no están haciendo, para proteger a sus usuarios de cualquier daño".
Advirtió sobre la propagación descontrolada de "este material horrible" a medida que las empresas avanzan hacia la mensajería cifrada y el lanzamiento de la transmisión en vivo.
Empresas como Apple tendrán que responder en un plazo de 28 días o podrían enfrentarse a multas de hasta 555.000 dólares al día.
Apple ha intentado implementar algunas medidas de protección infantil en sus plataformas en el pasado con éxito variable.
Las medidas de protección infantil anunciadas el año pasado han generado controversia debido a los planes de Apple para analizar las fotos de iCloud en busca de hashes de material conocido de abuso sexual infantil. Apple también ha introducido una función de seguridad de comunicaciones mucho menos intrusiva en Mensajes que puede detectar cuándo los niños pueden haber enviado o recibido imágenes sexualmente explícitas, difuminando la foto y advirtiendo al niño de su posible contenido.
Apple retrasó la implementación de CSAM después de una reacción violenta a finales del año pasado y desde entonces ha permanecido en silencio sobre el asunto, incluso eliminando las menciones del plan de su sitio web.