[HORS SERIE] Guillaume Chaslot: ces algorithmes qui nous gouvernent
Sur le fil - En podkast av AFP Audio
![](https://is1-ssl.mzstatic.com/image/thumb/Podcasts125/v4/02/27/62/02276207-07d7-61f2-31ef-78500ebb836f/mza_5603426174304545483.jpeg/300x300bb-75.jpg)
Kategorier:
Guillaume Chaslot est l'un des premiers lanceurs d'alerte sur les excès de la tech. Cet ingénieur spécialiste en intelligence artificielle qui a notamment travaillé chez Google, a vécu à Los Angeles l'âge d'or de la tech, quand Google, YouTube ou encore Facebook se développaient à vive allure. L’ambiance était à l’euphorie et les développeurs comme Guillaume Chaslot pensaient qu’ils allaient changer le monde, en permettant à tous d’échanger et de s’instruire sans frontières.Il s'est soucié très tôt des conséquences des algorithmes de recommandation, réalisant qu'ils enfermaient les utilisateurs dans des "bulles de filtre", qui leur proposaient toujours les mêmes contenus. En 2016, il a réalisé que ces algorithmes favorisaient aussi des contenus toxiques comme les théories du complot. Il a créé un robot informatique qui a permis de démontrer cette mécanique. Il est le fondateur de Algotransparency.org, qui s'est concentré sur l'algorithme de YouTube.“Les algorithmes de recommandation sont devenus un espèce de Frankenstein, c’est un espèce de monstre qui a échappé à son contrôle. On ne sait pas ce qu’il fait, on ne sait pas pourquoi il le fait, on sait juste qu’il génère plus de temps de vue”, nous a-t-il expliqué.Guillaume Chaslot est donc très critique à l’’égard de Google, YouTube ou encore TikTok, que nous avons interrogés. Voici quelques éléments d'information sur ces entretiens, en plus de ceux cités dans notre podcast:En 2013, Guillaume Chaslot a été licencié par Google. L'entreprise évoque des performances insuffisantes. Pour sa part il évoque des divergences, car il passait trop de temps à développer des alternatives aux "bulles de filtre" qui n'intéressaient pas son employeur. Google et TikTok ont souligné que leur algorithme avait évolué depuis les recherches de Guillaume Chaslot. Google a signalé à notre correspondante à San Francisco Julie Jammot que la consommation de contenu problématique lié à l'algorithme de recommandation est désormais en dessous de 1%. Google a par ailleurs indiqué que Guillaume Chaslot n'avait pas d'accès privilégié aux données sur l’algorithme de recommandation et dément que l’entreprise ait ignoré ses observations quand il y travaillait.TikTok pour sa part a déclaré avoir introduit des fonctionnalités pour permettre aux utilisateurs de ne pas devenir “accros” à la plateforme et les inviter à ne pas diffuser ou visionner en boucle des contenus toxiques: le "screentime tool" pour décider combien de temps y passer par jour ou encore les "family features", pour aider les parents à avoir des conversations avec leurs ados et décider combien de temps ils passent sur la plateforme ou encore, des infos sur la santé mentale pour aider les utilisateurs à choisir quels contenus partager. TikTok signale aussi que les contenus qui glorifient le suicide sont interdits et travaille à limiter le nombre de "vidéos tristes". L’entreprise vient enfin d’annoncer son intention de partager davantage de données sur ses algorithmes avec des chercheurs .Aujourd’hui Guillaume Chaslot travaille au sein du Pôle d’expertise qui conseille le gouvernement sur la régulation du numérique, le Peren. Il plaide pour plus de transparence pour ces applications à l’impact immense sur la société.Réalisation: Michaëla Cancela-Kieffer. Avec Timothée David et Antoine Boyer pour le mixage. Musique originale: Michael Liot. Vignette: Fred Bourgeais. Communication: Coline Sallois. Merci à Dan Reed pour la photo de Guillaume Chaslot.Slow Fil est produit par l’équipe de Sur le Fil, le podcast quotidien de l'Agence France-Presse. Vous avez des commentaires ? Ecrivez-nous à [email protected] ou sur notre compte Instagram. Vous pouvez aussi nous envoyer une note vocale par Whatsapp au + 33 6 79 77 38 45. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.