• A Propos
  • Politique de confidentialité
  • Contact
Tech News, Magazine & Review WordPress Theme 2017
Pas de résultats
View All Result
Digital RoundUp
Digital RoundUp
Pas de résultats
View All Result
ADVERTISEMENT

Home » Twitter offre jusqu’à 3 500 dollars aux utilisateurs qui découvriraient des partis-pris sexistes ou racistes dans ses algorithmes

Twitter offre jusqu’à 3 500 dollars aux utilisateurs qui découvriraient des partis-pris sexistes ou racistes dans ses algorithmes

Rédacteur Digital RoundUp Par Rédacteur Digital RoundUp
14/10/2021
Partager sur FacebookPublier sur TwitterPartager sur LinkedInPartager sur WhatsApp

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Il s’agit, selon l’entreprise, de la première compétition sur le sujet, avec des prix allant jusqu’à 3.500 dollars. L’idée est calquée sur les concours proposés par certains sites webs pour déceler des failles de sécurité, expliquent Rumman Chowdhury et Jutta Williams, deux responsables de l’entreprise, dans un message. 

 

« Il est difficile de trouver des préjugés dans les modèles d’apprentissage automatique, et parfois, les entreprises découvrent qu’elles ont involontairement porté atteinte à l’éthique seulement après leur déploiement », expliquent ces responsables. « Nous voulons que cela change ». 

Dans le modèle développé pour déceler les failles de sécurité, les chercheurs tout comme les hackers ont aidé les responsables de la sécurité informatique « à établir des bonnes pratiques pour identifier et gérer les vulnérabilités afin de protéger le public », expliquent Rumman Chowdhury et Jutta Williams. « Nous voulons développer une communauté similaire » pour déceler les partis-pris des algorithmes. 

Twitter avait présenté en avril ses travaux en cours pour rendre plus éthiques les algorithmes qui sont à l’oeuvre dans les coulisses de la plateforme, une façon de répondre aux critiques sur les dangers liés à ces technologies. Le réseau social avait quelques semaines plus tard renoncé à un algorithme recadrant les photos, ayant découvert qu’il était notamment légèrement biaisé en faveur des personnes blanches.

Rédacteur Digital RoundUp

Rédacteur Digital RoundUp

Post suivant
Xiaomi aurait presque dépassé Samsung au second trimestre

Xiaomi aurait presque dépassé Samsung au second trimestre

Recommended.

Facebook retire politique, santé et religion du ciblage publicitaire

Facebook retire politique, santé et religion du ciblage publicitaire

10/11/2021
1.5k

« Quelques acteurs commencent à ajouter le sens du toucher dans la réalité virtuelle »

25/09/2022
1.5k

Trending.

Les entraînements de sport débarquent sur Netflix, comment s’y mettre ?

Les entraînements de sport débarquent sur Netflix, comment s’y mettre ?

22/12/2022
1.5k
Google dépose un nouveau recours contre une amende de plus de 4 milliards d’euros infligée par l’UE

Google dépose un nouveau recours contre une amende de plus de 4 milliards d’euros infligée par l’UE

01/12/2022
1.5k

La fusée qui bloquait le secteur aérien s’est bien écrasée sur Terre

10/11/2022
1.5k
Si vous avez ce bug sur iPhone 14, ne paniquez pas !

Si vous avez ce bug sur iPhone 14, ne paniquez pas !

23/12/2022
1.5k
Waze va inclure les bornes de recharge sur ses cartes

Waze va inclure les bornes de recharge sur ses cartes

26/07/2022
1.5k
Digital RoundUp

Nous vous proposons les dernières infos Tech dans le monde. Abonnez-vous à notre Newletter pour ne rien manquer.

Suivez-nous

Catégories

  • Auto-moto
  • Autres
  • Cryptomonnaies
  • Digital
  • High Tech
  • Intelligence Artificielle
  • Internet
  • Jeux vidéo
  • Logiciel
  • Macbook
  • Musique
  • Ordinateurs
  • PC Windows
  • Sécurité
  • Smartphones, Tablettes, Mobile
  • Social Media
  • Sport

Derniers Articles

Voici comment ChatGPT va tuer les mots-clés

Voici comment ChatGPT va tuer les mots-clés

06/02/2023
Ces avions ont évité un horrible crash au décollage (à 20 m près !)

Ces avions ont évité un horrible crash au décollage (à 20 m près !)

06/02/2023
  • A Propos
  • Politique de confidentialité
  • Contact

© 2021 Digital Round Up - Actualités et revues high-tech | Tous Droits Réservés | Site propulsé par Kipalangutu.

Pas de résultats
View All Result
  • Accueil
  • Les infos
    • Digital
    • Internet
      • Social Media
      • Sécurité
    • Auto-moto
    • Jeux vidéo
    • Smartphones, Tablettes, Mobile
    • Ordinateurs
    • Cryptomonnaies
  • Contact

© 2021 Digital Round Up - Actualités et revues high-tech | Tous Droits Réservés | Site propulsé par Kipalangutu.

We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies.
Do not sell my personal information.
Cookie SettingsAccept
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Toujours activé
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
CookieDuréeDescription
cookielawinfo-checkbox-analytics11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional11 monthsThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy11 monthsThe cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
Enregistrer & appliquer