Seins et blessures flous : Google cache les images qu’il considère comme sexuelles ou violentes

Le moteur de recherche le plus utilisé bloque les contenus qu’il considère comme sexuels ou violents. Si quelqu’un recherche, par exemple, « blessure » ou « sexe » dans Google images, il trouvera des images floues par défaut et ne pourra pas les voir à moins d’y accéder dans « voir l’image ». Ceci est dû au fait Recherche sécurisée (c’est-à-dire une recherche sécurisée), le système de filtrage explicite des résultats de Google, a flouté par défaut les résultats sexuels ou violents pour tous les utilisateurs depuis août de cette année. Avant, cela n’était fait que pour les mineurs entre 14 et 18 ans. C’est ainsi qu’il l’explique l’entreprise sur son blog.

L’entreprise technologique, qui fête ses 25 ans ce mois-ci, vise à ajouter une autre couche de sécurité et de confidentialité au navigateur. « Nos systèmes cherchent à évaluer si le contenu doit être choquant ou sexuellement gratifiant. SafeSearch n’est pas conçu pour filtrer les contenus explicites ayant une valeur artistique, éducative, historique, documentaire ou scientifique significative », déclarent Google. De plus, les propriétaires des pages Web pourront également identifier ce type de contenu, grâce à un guide que l’entreprise a publié.

Google effectue plus de 3,5 milliards de recherches par jour, selon semrush. Jusqu’en août de cette année, Safesearch brouillait pour la première fois les recherches avec des résultats explicites aux mineurs âgés de 14 à 18 ans, et uniquement s’ils s’étaient connectés à leur compte Google. Désormais, il n’est plus nécessaire d’être mineur ou d’être présent pour visionner ce contenu flou, même si les mineurs de cette tranche d’âge sont toujours protégés par ce contenu flou par défaut. L’outil permet également d’exclure les contenus à caractère sexuel ou violent du moteur de recherche, mais il n’est pas appliqué par défaut pour tous les utilisateurs.

La nouvelle fonctionnalité de Google brouille les images qu’il classe comme sensibles, mais ne les bloque pas. Paloma Llaneza, avocate et experte en cybersécurité, souligne que ces mesures constituent un « masquage du contenu qui est supprimé sans problème et ne limite pas son accès ». Les utilisateurs peuvent ajuster les paramètres de SafeSearch et désactivez-le à tout moment depuis les paramètres de recherche Google, sauf si un parent ou un administrateur du réseau éducatif l’a bloqué. Instagram et Facebook, tous deux réseaux sociaux Meta, ont également des fonctions similaires pour flouter les images et alerter avec un message dans des publications explicites.

Contrôle parental

Les parents, en plus d’enseigner à leurs enfants comment utiliser Internet de manière responsable, peuvent également utiliser SafeSearch comme mesure de contrôle parental, disponible depuis février. Cela fait partie de l’application Lien familial Google, et permet aux parents de définir des limites de temps d’écran et d’appliquer des restrictions de contenu, entre autres fonctionnalités. « Ils sont faciles à utiliser et vous permettent de comprendre à quoi vos enfants passent leur temps lorsqu’ils sont sur leurs appareils ou de gérer leurs paramètres de confidentialité », a expliqué l’entreprise à EL PAÍS en mars.

98% des mineurs entre 10 et 15 ans utilisent régulièrement Internet depuis la pandémie, selon un rapport publié par l’Observatoire National de la Technologie et de la Société (ONTSI). La désinformation, la manipulation, les dommages psychologiques et les addictions sont quelques-unes des conséquences de l’exposition des mineurs à des contenus inappropriés, comme décrit l’Institut National de Cybersécurité (INCIBE). Hugo Álvarez, directeur de Perception Point et expert en cybersécurité, indique que ses effets sont très négatifs. « Ils produisent une distorsion de la réalité, normalisant la violence ou contribuant à ce que les jeunes considèrent que le modèle de relation sexuelle est celui d’un film porno, objectivant presque toujours les femmes », dit-il.

Images personnelles explicites

Une autre innovation de Google pour améliorer la confidentialité des utilisateurs est mise à jour de la politique d’image personnel. Si quelqu’un apparaît sur Google dans une situation intime, dans un acte sexuel ou sans vêtements et sans avoir donné son consentement, vous pouvez demander à l’entreprise de supprimer l’image. Pour ce faire, il faut également que vous ne profitiez pas économiquement de cette image. Une autre nouveauté est que les contenus qui ont été à nouveau publiés peuvent être supprimés, même s’ils ont été supprimés dans le passé. De plus, les formulaires de demande de retrait de ce type de matériaux sont désormais plus simples. Ces changements donnent à l’utilisateur plus de contrôle sur son image et son empreinte numérique, même s’il faut tenir compte du fait que ce qui est supprimé de Google ne disparaît pas du Web ou des autres moteurs de recherche.

Résultats sur vous

L’année dernière, l’entreprise technologique a lancé l’outil « Des résultats sur vous » afin que les utilisateurs puissent supprimer leurs informations personnelles des résultats de recherche. Informations telles que numéro de téléphone, adresse ou e-mail. Cette fonctionnalité avertit également l’utilisateur avec des alertes lorsque ses données personnelles apparaissent sur Google. Pour le moment, le nouveau système n’est disponible qu’aux États-Unis et cherche les résultats en anglais, mais il arrivera en Espagne dans les prochains mois, selon l’entreprise.

Malgré des outils et des moteurs de recherche de plus en plus avancés et sécurisés, L’Agence espagnole de protection des données rappelle qu’elle n’est pas infaillible. Dans le document, l’agence recommande d’accompagner ces méthodes d’une « éducation adéquate sur l’utilisation sûre de la technologie, les dangers d’Internet et l’importance que les mineurs puissent prendre leurs propres mesures de sécurité ».