Apple News se dévoile : les algorithmes peuvent aussi être conçus avec des préjugés !
Par Laurence - Publié le
Jusqu’à présent Apple News relevait du domaine du secret chez Apple (comme un certain nombre de dossiers). Tout juste sait-on que le choix des meilleures informations et histoires partagées sur l’app (ou le widget pour nous) est effectué par des humains et non des algorithmes, une façon de faire qui a de nombreux détracteurs.
Comment justifier qu’un douzaine de personne puisse contrôler ce que 90 millions d’autres vont lire en toute impartialité ? Mais Apple vient d’autoriser -pour la premiere fois- un journaliste du New York Times à accéder et décrire le processus interne utilisé pour choisir les informations.
L’équipe éditoriale est dirigée par l’ex rédactrice en chef du NYT Magazine, Lauren Kern. Après avoir choisi un sujet, s’en suit un tour de table des journaux, puis des articles plus pertinents. D’emblée, elle rejette l’argument selon lequel les algorithmes sont le seul moyen d’éviter les préjugés, car des critères peuvent être incorporés dans le code, permettant de cibler une information plus qu’une autre et donc de créer artificiellement des préjugés.
Elle a fait valoir que les humains - avec tous leurs défauts - sont finalement le seul moyen d'éviter les préjugés. Apple pense également qu'il est de sa responsabilité de prendre conscience de la mesure et de la délicatesse d’un sujet.
Source
Comment justifier qu’un douzaine de personne puisse contrôler ce que 90 millions d’autres vont lire en toute impartialité ? Mais Apple vient d’autoriser -pour la premiere fois- un journaliste du New York Times à accéder et décrire le processus interne utilisé pour choisir les informations.
L’équipe éditoriale est dirigée par l’ex rédactrice en chef du NYT Magazine, Lauren Kern. Après avoir choisi un sujet, s’en suit un tour de table des journaux, puis des articles plus pertinents. D’emblée, elle rejette l’argument selon lequel les algorithmes sont le seul moyen d’éviter les préjugés, car des critères peuvent être incorporés dans le code, permettant de cibler une information plus qu’une autre et donc de créer artificiellement des préjugés.
Elle a fait valoir que les humains - avec tous leurs défauts - sont finalement le seul moyen d'éviter les préjugés. Apple pense également qu'il est de sa responsabilité de prendre conscience de la mesure et de la délicatesse d’un sujet.
Source