• A Propos
  • Politique de confidentialité
  • Contact
Tech News, Magazine & Review WordPress Theme 2017
Pas de résultats
View All Result
Digital RoundUp
Digital RoundUp
Pas de résultats
View All Result
ADVERTISEMENT

Home » Pour lutter contre la pédocriminalité, Apple va analyser des images envoyées sur iCloud

Pour lutter contre la pédocriminalité, Apple va analyser des images envoyées sur iCloud

14/10/2021
Partager sur FacebookPublier sur TwitterPartager sur LinkedInPartager sur WhatsApp

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Apple vient d’annoncer une série de nouvelles mesures pour lutter contre la pédocriminalité. Et parmi ces mesures, il y a une nouvelle fonctionnalité d’iCloud destinée à empêcher la circulation des contenus illégaux.

Cette semaine, une rumeur avait circulé indiquant qu’Apple développe une fonctionnalité qui permettra d’analyser les images mises en ligne sur sa plateforme de stockage, afin de détecter les contenus illégaux. Et aujourd’hui, c’est officiel.

Dans une publication, Apple donne plus de détails sur ce mécanisme, tout en rassurant les utilisateurs en évoquant toutes les mesures prises pour respecter la vie privée. En effet, les employés d’Apple ne vont pas regarder une par une les images stockées sur iCloud.

Le logiciel développé par la firme analysera plutôt des hash. En substance, il s’agit d’une signature numérique qui est générée à partir d’une image.

« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », indique la firme de Cupertino.

Apple détaille les différentes étapes pour respecter la confidentialité

En substance, avant qu’une image ne soit mise en ligne sur iCloud, l’algorithme qui fonctionne en local réalise une analyse (en analysant les hash) afin de savoir s’il y a une correspondance entre la signature de cette image et les bases de données d’images illégales connues.

« Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image », explique Apple.

Apple a également développé un autre garde-fou qui assure que le « bon de sécurité » ne peut être interprété que si un « seuil » a été atteint dans la détection. Et ce seuil a été établi de manière à ce qu’un très haut niveau de précision soit requis pour qu’il soit atteint. Apple assure que ce système « garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Si et seulement si ce seuil est atteint, Apple peut interpréter le contenu mis en ligne ainsi que le bon de sécurité. Ensuite, l’entreprise peut procéder à un examen « manuel » du signalement. Par la suite, Apple peut confirmer ce signalement, suspendre le compte concerné et signaler les autorités.

Le nouveau dispositif sera mis en place sur iOS 15. Et pour le moment, il ne concerne que les utilisateurs américains.

Parmi les autres fonctionnalités annoncées par Apple, il y a également un nouveau système d’alerte sur iMessages qui alertera un enfant ainsi que ses parents lorsqu’une image sexuellement explicite est envoyée. Pour détecter les images à signaler, l’application utilise une intelligence artificielle qui fonctionne sur l’appareil (donc, les données ne sont pas envoyées dans le cloud).

Sur Siri et sur son outil de recherche, Apple permettra également un accès facile aux ressources destinées aux enfants et aux parents concernant la sécurité en ligne. D’autre part, ces outils de recherche peuvent également intervenir lorsque l’utilisateur fait des recherches liées aux contenus illégaux.

En ce qui concerne la détection des contenus illégaux sur iCloud, il est à noter que des techniques similaires sont déjà utilisées par d’autres plateformes pour lutter contre la pédocriminalité. Néanmoins, la nouvelle a préoccupé certains experts (dont Edward Snowden), craignant que cet outil puisse être détourné.

pic.twitter.com/yN9DcTsBNT

— Edward Snowden (@Snowden) August 6, 2021

Rédacteur Digital RoundUp

Rédacteur Digital RoundUp

Post suivant

Streaming Foot : sur quelle chaîne voir la Ligue 1 en 2021/2022 ?

Recommended.

Le TousAntiCovid britannique fonctionne si bien qu’il menace l’économie

Le TousAntiCovid britannique fonctionne si bien qu’il menace l’économie

14/10/2021
1.5k

Vélos connectés : Cowboy à la rescousse… des propriétaires de vélos de son concurrent VanMoof

17/07/2023
1.5k

Trending.

Test Xiaomi Redmi Pad : les bons sacrifices

25/10/2022
1.5k
Quand Mark Zuckerberg cachait à juste titre la caméra de son ordinateur avec de l’adhésif noir

Quand Mark Zuckerberg cachait à juste titre la caméra de son ordinateur avec de l’adhésif noir

07/05/2022
1.5k
N26 face à de nouvelles révélations : 40% de turn-over dans la banque

N26 face à de nouvelles révélations : 40% de turn-over dans la banque

25/01/2022
1.5k

Test OPPO Find X5 Pro : le meilleur smartphone de 2022 ?

30/05/2022
1.5k
Telenet/Base : la fin du signal 3G prévue pour 2024

Telenet/Base : la fin du signal 3G prévue pour 2024

15/09/2022
1.5k
Digital RoundUp

Nous vous proposons les dernières infos Tech dans le monde. Abonnez-vous à notre Newletter pour ne rien manquer.

Suivez-nous

Catégories

  • Auto-moto
  • Autres
  • Cryptomonnaies
  • Digital
  • High Tech
  • Intelligence Artificielle
  • Internet
  • Jeux vidéo
  • Logiciel
  • Macbook
  • Musique
  • Ordinateurs
  • PC Windows
  • Sécurité
  • Smartphones, Tablettes, Mobile
  • Social Media
  • Sport

Derniers Articles

Bientôt un smartphone dopé à l’IA, un concurrent de taille pour l’iPhone ?

29/09/2023

Un procès historique, un record boursier et une concurrence accrue: les choses à savoir sur Google, un géant d’un quart de siècle

27/09/2023
  • A Propos
  • Politique de confidentialité
  • Contact

© 2021 Digital Round Up - Actualités et revues high-tech | Tous Droits Réservés | Site propulsé par Kipalangutu.

Pas de résultats
View All Result
  • Accueil
  • Les infos
    • Digital
    • Internet
      • Social Media
      • Sécurité
    • Auto-moto
    • Jeux vidéo
    • Smartphones, Tablettes, Mobile
    • Ordinateurs
    • Cryptomonnaies
  • Contact

© 2021 Digital Round Up - Actualités et revues high-tech | Tous Droits Réservés | Site propulsé par Kipalangutu.

We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies.
Do not sell my personal information.
Cookie SettingsAccept
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Toujours activé
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
CookieDuréeDescription
cookielawinfo-checkbox-analytics11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional11 monthsThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy11 monthsThe cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
Enregistrer & appliquer