Notebookcheck Logo

Apple retire de son site web le projet controversé de CSAM visant à scanner l'application Photos dans iOS et iPadOS à la recherche de photos d'enfants nus

Apple a supprimé toute référence à son initiative CSAM. (Source de l'image : Jeremy Bezanger)
Apple a supprimé toute référence à son initiative CSAM. (Source de l'image : Jeremy Bezanger)
La rumeur voulait que Apple intègre les scans CSAM dans iOS 15.2 et iPad 15.2, sortis en début de semaine. Cependant, la société a maintenant supprimé toute référence à ces plans sur son site Web, indiquant que la fonctionnalité a été retirée.

Il y a quelques jours, Mark Gurman a signalé que Apple inclurait plusieurs nouvelles fonctionnalités dans iOS 15.2, publié en début de semaine. Pour Mark Gurman, l'une des fonctionnalités les plus remarquables est la possibilité pour iOS de rechercher "les photos dénudées envoyées à ou par des enfants dans Messages". Par photos dénudées, Gurman entendait le matériel d'abus sexuel d'enfants (CSAM), dont Apple a longuement parlé sur son site web.

Pour une raison quelconque, Apple a supprimé de son site Web tous les documents relatifs à son initiative anti-SCAM. Vous pouvez toujours consulter le raisonnement de Apple concernant l'intégration de cette fonctionnalité dans iOS et iPadOS sur The Wayback Machine. Son retrait ne signifie pas que Apple a fait marche arrière sur ce point, mais ce serait la deuxième fois qu'elle reporte l'intégration de CSAM.

Apparemment, Apple a décidé de ne pas intégrer les analyses CSAM dans iOS 15.2 et iPadOS 15.2. Apple insiste sur le fait que les utilisateurs doivent activer cette fonction pour qu'elle analyse les photos, et qu'elle ne le ferait que dans l'application Messages. En outre, la société a cherché à rassurer les gens sur le fait qu'aucune image n'est analysée dans le nuage et que le risque qu'un compte soit signalé par erreur serait de un billion contre un.

Cependant, le Conseil de l'Union européenne https://data.consilium.europa.eu/doc/document/ST-13084-2020-REV-1/en/pdf et Edward Snowden pensaient le contraire. En bref, Snowden considérait que CSAM était une "surveillance de masse" et qu'il pourrait être utilisé à l'avenir pour des pratiques néfastes. Un porte-parole de Apple a déclaré àThe Vergeque "la position de la société n'a pas changé depuis septembre, lorsqu'elle a annoncé pour la première fois qu'elle retarderait le lancement de la détection CSAM".

Source(s)

Apple via MacRumors & The Verge, Jeremy Bezanger - Crédit d'image

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2021 12 > Apple retire de son site web le projet controversé de CSAM visant à scanner l'application Photos dans iOS et iPadOS à la recherche de photos d'enfants nus
Alex Alderson, 2021-12-17 (Update: 2021-12-17)