logiciel rgpd

Netflix : Derrière nos écrans de fumées

RGPDFebruary 7, 2022

Décrypté par Witik

Dans un documentaire diffusé sur Netflix, d’anciens hauts cadres des géants du net comme Instagram, Facebook, Google, YouTube, Twitter ou encore Apple etc. dénoncent les dérives de produits qu’ils ont eux-mêmes participé à développer. Convaincus par les bienfaits de ces technologies au début de leur carrière, ils se disent aujourd’hui inquiets et affirment qu’ils n’avaient pas imaginé le revers de la médaille. Leur récit glaçant pousse à repenser notre rapport à ces outils et la place qu’ils prennent dans notre quotidien. 

Traquer.

Les intervenants expliquent que tout, dans ces technologies, est fait pour capter l’attention des utilisateurs, les garder sur l’écran et collecter ainsi un maximum de données. Jeff Seibert, ex-cadre chez Twitter, explique que ces acteurs voient absolument tout de notre comportement, que rien ne leur échappe et que le nombre de données collectées est sans précédent.

Pourquoi ? Parce que ce marché fait du profit avec de la donnée humaine comme d’autres le font avec le pétrole. Le commerce de données humaines, réalisé à échelle industrielle, a engrangé des milliers de millions de dollars faisant de ces acteurs les plus riches de l’histoire de l’humanité.

Prédiction.

Leur super pouvoir ? Les algorithmes qu’ils développent. Ces géants construisent des modèles capables de prédire nos actions sur la base des données recueillies et « celui qui a le meilleur modèle gagne ». Sandy Parakilas, ex-cadre Facebook et Uber, explique qu’ils ont la capacité de faire des prédictions de plus en plus précises sur ce que l’on pense ou ce que l’on est. Il évoque à ce propos Chamath Palihapitiya en expliquant que ce dernier a été pionnier en test chez Facebook et que les techniques de croissance qu’il a élaborées sont utilisées par tous aujourd’hui.  A chaque test mis en œuvre, ils en savent un peu plus sur l’utilisateur.

C’est comme s’ils avaient un avatar de nous, avec tout ce qu’on a vu, partagé et aimé. Tout ce qui est collecté est ensuite répertorié dans leurs bases de données pour améliorer leur modèle. Une fois établi, il est possible de prédire les actions de l’utilisateur, de détecter et proposer des contenus personnalisés.

Comment font-ils ?

La plupart des acteurs de ces réseaux savaient qu’ils pouvaient manipuler l’esprit humain et le comportement d’une personne avec des techniques de persuasion. En diffusant des recommandations, en mettant à jour sans cesse les « feed », en envoyant des notifications, ils font en sorte que l’utilisateur soit toujours dans l’attente de recevoir quelque chose et le tiennent en haleine. Ils conditionnement nos comportements. Chamath Palihapitiya, qui était chargé de la croissance chez Facebook explique que le but « c’est de manipuler subtilement avec en cadeau une dose de dopamine ».

Sean Parker, ex-président de Facebook affirme qu’ils ne font qu’exploiter une vulnérabilité et qu’en l’espèce, la vulnérabilité, c’est l’esprit humain.

Dépendance.

Les techniques de persuasion existaient déjà avec la télévision, la radio ou encore les journaux mais sont montées d’un cran avec les réseaux sociaux. Ces acteurs ont leurs propres objectifs qui ne sont pas d’être utilisés comme un produit lambda. Ils ont convaincu les utilisateurs qu’ils étaient indispensables à leur quotidien et les rendent dépendants de leurs outils. Tous, avouent, être tombés dans le piège qu’ils ont créé de leurs propres mains.

Tim Kendall, ex directeur de la monétisation chez Facebook, avouait que naviguer sans cesse sur Pinterest était devenu plus fort que lui alors même qu’il avait conscience de ce qu’il se passait.Un autre acteur avoue même avoir été jusqu’à développer un outil pour passer moins de temps sur Reddit.

Vendre de la certitude.

Pourquoi vouloir capter notre attention ? Parce que c’est l’attention des personnes qui est vendue par les réseaux sociaux. Shoshana Zuboff, Professeur émérite à Harvard Business School explique que le rêve des entreprises est d’avoir la garantie que dès qu’on publie une publicité, elle aura du succès.  C’est exactement ce que ces géants assurent. En recueillant un flux important de données, ils vendent de la certitude grâce aux prédictions qu’ils sont capables de faire. Ce capitalisme de surveillance permet de traquer les utilisateurs pour que les annonceurs touchent plus précisément leurs cibles.

Tim Kendall, raconte à quel point il devenait simple de jongler avec leur modèle publicitaire en ajustant les contenus « de manière chirurgicale ».

Nous sommes le produit.

« Si vous ne payez pas pour un produit, vous êtes le produit ». Tous ces services, à première vue gratuit, ne le sont pas vraiment. Trois buts principaux animent  ces acteurs : l’engagement (le temps passé sur les écrans), la croissance (inciter les gens à venir sur le réseau), la publicité pour générer du profit pendant que l’utilisateur passe du temps sur l’application. Les annonceurs payent pour diffuser le produit et plus précisément pour avoir un moyen de diffuser leurs produits jusqu’aux utilisateurs. Serait-ce simpliste de dire que les géants du net vendent notre attention aux annonceurs ?

Jarod Lanier va plus loin et explique que le vrai produit c’est « ce changement graduel et imperceptible de notre comportement et de notre perception du monde ». Pour lui, l’attention n’est pas le produit, c’est le changement comportemental garanti par ces géants qui l’est !

Évolution.

Randima Fernando explique que ce marché a connu une évolution exponentielle. La puissance des processeurs a été améliorée de 1000 milliards tandis que les voitures ne vont que deux fois plus vite. Aucun autre objet n’a évolué d’une manière aussi fulgurante ou de manière négligeable, le cas échéant. Selon lui, on ne peut pas gagner contre eux puisque l’intelligence artificielle dirige déjà.

Chez Google, il y a des pièces gigantesques avec des milliers d’ordinateurs sous terre ou sous l’eau, interconnectés grâce à des programmes de plus en plus sophistiqués qui s’envoient des informations en continue et font tourner des multitudes des programmes et produits différents. Tristan Haris, spécialisé dans l’éthique chez Google pense que le combat mené contre ces géants est déloyal et craint le jour où la technologie va prendre la place de l’homme en continuant d’exploiter ses faiblesses.

Les algorithmes, un danger.

Les algorithmes sont « *des opinions sous forme de code *». Si un algorithme est mis en place dans une entreprise, c’est dans un intérêt économique. L’algorithme définit le but et l’ordinateur va apprendre à atteindre ce but. Le danger, d’après les intervenants, réside dans le fait que l’algorithme a sa propre façon de faire et de penser et que personne ne le comprend exactement y compris la personne qui l’a écrit parfois.

« On commence construire la machine et la machine finit de se construire toute seule ». Un exemple peut parfaitement bien illustrer ce cas : l’intelligence artificielle développée par Microsoft qui a dérapé moins de 24 heures après son lancement. Le problème est que ces systèmes ont le contrôle sur les informations des utilisateurs et qu’en contrôlant cela, ils nous contrôlent.

Dérives.

Les outils mis à notre disposition érodent les fondations de notre société et des démocraties en place. Les réseaux sociaux sont capables de jouer aujourd’hui un rôle actif dans la politique comme ce fut le cas avec le scandale Cambridge Analytica. Ils sont en mesure de pousser les gens à aller voter, de propulser des campagnes présidentielles comme dernièrement au Brésil.

Plusieurs participants évoquent les risques des réseaux sur la santé mentale des utilisateurs et notamment les plus jeunes dont les statistiques de suicide ne cessent d’augmenter. D’autres encore, insistent sur le passage de l’ère de l’information à l’ère de la désinformation. Les fausses informations ou fake news sont de plus en plus répandues comme la théorie selon laquelle la Terre est plate, le PizzaGate et plus récemment les théroies sur le Coronavirus. Le système favorise les fausses informations parce qu’elles génèrent plus de clics et donc plus d’argent.

Ce qui inquiète.

Imaginez les conséquences de ces outils de persuasion dans les mains de dictateurs. Selon les participants, ce n’est pas la technologie qui menace notre existence c’est le fait qu’elle mette à jour le pire de la société humaine. Ils craignent l’apparition de guerres civiles ou encore la destruction progressive de notre civilisation et ce, par pure ignorance. Les utilisateurs n’ont, selon eux, pas conscience de la dangerosité de ces technologies et se demandent « comment sortir de la matrice si on ne sait pas qu’elle existe ».

Toujours selon eux, les intelligences artificielles vont devenir de plus en plus efficaces et de nouveaux algorithmes ne pourront pas régler cela. Quand bien même ils le pouvaient, ces géants ne reviendront pas en arrière. Pourquoi ? Parce que c’est leur business model même qui ne le leur permettrait pas. Leur revenu doit augmenter tous les trimestres.

Solution ?

Réguler. D’après les intervenants, toutes les régulations ont disparu. Ils illustrent leur propos donnant l’exemple des enfants qui étaient protégés des publicités il y a quelques années et qui sont aujourd’hui exposés comme tout le monde. Les lois actuelles ne sont, selon eux, pas utilisées au profit de l’utilisateur. Ils proposent une régulation fiscale : taxer la collecte des données en ligne, taxer le volume des données qu’ils ont pour tenter de les contraindre.

Tristan Haris conclue en affirmant qu’on peut changer les technologies en cessant de vouloir capter l’attention des gens, en changeant tout ce fonctionnement. Lorsque le journaliste lui demande s’il pense qu’on y arrivera, il répond qu’il le faut.

Et vous ? Vous en pensez quoi ?


Votre téléphone vous écoute ? Vous surveille ? Info ou intox ? On vous dit tout dans un article !

Lire l'article

La plateforme 100% made in France qui vous permet de simplifier, accélérer et pérenniser vos différents programmes de conformité.

Vous souhaitez rester au courant des dernières actualités ? Abonnez-vous à la newsletter !

Nous (Witik) collectons et traitons vos données conformément à notre Politique de protection des données.