Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Il s’agit d’une nouvelle législation proposée qui vise à protéger les plus vulnérables en éliminant les contenus les plus honteux des plateformes de stockage et de communication en ligne « afin de protéger les Australiens des contenus en ligne illégaux et restreints ».
La norme de l’industrie de la sécurité en ligne est désormais ouverte à la consultation publique en vue d’une éventuelle introduction dans la législation d’ici quelques mois, pour être active d’ici un an.
Essentiellement, ces normes proposées sont un moyen de garantir le respect obligatoire par les fournisseurs de services tels que les services de messagerie, les jeux en ligne, les rencontres et bien d’autres catégories assez larges de fournisseurs.
Apple est une entreprise très attentive à cette proposition, qui détient une part de marché importante en Australie en termes d’appareils utilisés pour la messagerie, la photographie et le stockage d’images. Bien entendu, la plupart des utilisateurs sauvegardent également ces images dans le cloud, ce qui constitue un autre sujet de préoccupation pour les prestataires de services concernés.
Selon la proposition, les fournisseurs de services devront « prendre des mesures proactives pour créer et maintenir un environnement en ligne sûr ».
Dans sa soumission à la consultation publique du gouvernement fédéral sur le sujet, Apple a exprimé un point de vue très clair : ces réglementations visent à obliger les fournisseurs à « servir d’agents de l’État, surveillant les données des utilisateurs d’une manière que même les forces de l’ordre ne peuvent aujourd’hui légalement exiger ».
« Les outils de surveillance de masse ont des implications négatives généralisées sur la liberté d’opinion et d’expression et, par extension, sur la démocratie dans son ensemble », indique le document.
« Par exemple, le fait de savoir que le gouvernement peut obliger un fournisseur à surveiller ce que font les gens augmente le risque sérieux de paralyser les libertés d’association, d’expression, politiques et l’activité économique légitimes. »
Apple avait déjà commencé à travailler sur l’idée d’une technologie capable de numériser les photos stockées dans iCloud pour rechercher des images d’exploitation d’enfants ou d’autres éléments nuisibles.
« Nous avons travaillé dur pour conceptualiser une technologie hybride appareil-serveur afin de détecter les CSAM (Child Sexual Abuse Material) connus dans les photos iCloud sans compromettre la confidentialité et la sécurité », a déclaré la société.
Cependant, l’entreprise a clairement indiqué que ce n’était pas une voie à suivre appropriée.
« En fin de compte, après avoir longuement consulté des défenseurs de la sécurité des enfants, des organisations de défense des droits de l’homme, des spécialistes de la protection de la vie privée et de la sécurité et des universitaires, et après avoir envisagé la technologie de numérisation sous pratiquement tous les angles, nous avons conclu qu’il n’était pratiquement pas possible de la mettre en œuvre sans mettre en péril la sécurité et la sécurité. confidentialité de nos utilisateurs », a déclaré Apple.
Pouvez-vous faire la différence entre une image réelle et une image générée par l’IA ?
De manière critique, Apple a averti que tout système d’analyse de contenu pourrait avoir de graves conséquences, affirmant que « les systèmes d’analyse ne sont pas infaillibles ».
« Il existe des preuves provenant d’autres plateformes que des parties innocentes ont été entraînées dans des filets dystopiques qui en ont fait des victimes alors qu’elles n’ont fait rien d’autre que partager des photos parfaitement normales et appropriées de leurs bébés », peut-on lire.
La plupart des Australiens hésiteraient à l’idée que leurs photothèques soient analysées à la recherche de tout type de matériel, un peu comme si quelqu’un vienne chez vous et feuillette vos albums photos privés.
À cette fin, le chiffrement basé sur l’utilisateur semble être le champ de bataille à l’avenir. Apple propose une fonctionnalité opt-in appelée Advanced Data Protection, qui permet aux utilisateurs de choisir d’ajouter une couche de cryptage aux zones de stockage iCloud, qui peuvent inclure la photothèque.
La proposition d’Apple semble soulever des inquiétudes quant au caractère vague ou général des tactiques de piratage du chiffrement proposées dans la législation proposée.
Alors que la proposition du commissaire à la sécurité électronique stipulait que les fournisseurs tels qu’Apple n’étaient pas censés « concevoir des vulnérabilités ou des faiblesses systématiques dans les services cryptés de bout en bout », Apple a fait valoir que cela n’était « explicitement indiqué nulle part dans le projet de norme lui-même ».
La société recommande elle-même que « eSafety adopte une approche claire et cohérente prenant expressément en charge le cryptage de bout en bout afin qu’il n’y ait pas d’incertitude, de confusion ou d’incohérence potentielle entre les codes et les normes ».
Pour ce que ça vaut, Apple dispose de ses propres outils pour la protection des jeunes enfants. Ces mesures, dans le cadre d’une fonctionnalité appelée Communication Safety, utilisent la technologie intégrée à l’appareil (c’est-à-dire qu’il n’est pas dans le cloud, donc Apple n’est pas au courant de ce qui est analysé ou détecté) pour aider en « intervenant et en donnant à un enfant un moment pour réfléchir ». font une pause lorsqu’ils reçoivent ou tentent d’envoyer des images contenant de la nudité ».
« Cette fonctionnalité fournit des conseils et des ressources adaptées aux 18 ans pour les aider à faire un choix sûr, y compris le choix de contacter une personne de confiance », a déclaré Apple.
« L’objectif est de perturber le toilettage des enfants en rendant plus difficile la normalisation de ce comportement par les prédateurs et de créer un moment permettant à l’enfant de réfléchir lorsqu’il est confronté à un choix critique. »