En kiosques : mars 2024
Abonnement Faire un don
Accéder au menu

La cuisine électorale de Cambridge Analytica

par Alain Garrigou, 30 mars 2018
JPEG - 81.2 ko
« Sonde »

Émile Durkheim n’avait sans doute pas pensé à cette application de la science quand il écrivait que « notre science ne vaudrait pas une heure de peine si elle ne servait à quelque chose ». Certes, les scientifiques apportent leur savoir au commerce et se font parfois grassement payer pour cela. De leur côté, les entreprises marchandes utilisent volontiers le capital symbolique des institutions scientifiques, en s’appropriant par exemple des noms prestigieux, avec le concours (ou la légèreté) d’universitaires mal payés (ou saisis par la cupidité).

La société de conseil Cambridge Analytica n’est pas un laboratoire universitaire, comme sa référence à la ville universitaire britannique le laisserait supposer et bien que la référence à l’« analyse » semble la déconnecter de tout objectif pratique, mais une société de conseil en politique. Conseil de ceux qu’on appelle dorénavant les spin doctors, expression qu’on pourrait traduire assez littéralement par : experts en manipulation. Des conseils sonnants et trébuchants.

Cambridge Analytica, habituée à une discrétion très professionnelle, a surgi sur le devant de la scène après avoir exploité — grâce à une zone grise en attente de droit — les données personnelles de millions de comptes Facebook afin d’« éclairer » les campagnes électorales de Donald Trump et des partisans du Brexit. De là à voir le « deus ex machina » qui a permis leur victoire, il y a un pas que l’on franchit aisément. L’affaire paraît très moderne et pourtant elle s’inscrit dans un long mouvement de rationalisation de la politique.

Très vite les élections, domaine du chiffre, sont apparues comme un domaine idéal pour une science politique. La compréhension du vote ne pouvait aller sans pensées utilitaires, sinon de ses initiateurs du moins des candidats, partis ou vendeurs de recettes miracles. Ainsi, en faisant des cartes, en livrant des statistiques dès le XIXe siècle, ces derniers cherchaient bien à maîtriser la matière électorale. Leurs instruments semblaient bien sommaires au départ, ne livrant que des agrégats statistiques grossiers. Ils en tenaient néanmoins compte pour faire campagne dans telle ou telle commune, maîtrisant la distribution géographique des voix et servant déjà des discours adaptés à leur public grossièrement segmenté selon les méthodes, se précisant avec le temps, du marketing. La connaissance individuelle des électeurs restait cependant plus intéressante et, faute de science très « exacte », les politiciens pouvaient toujours compter sur une connaissance concrète du terrain par leurs partisans ou employés. En France, les agents électoraux offraient ainsi aux candidats cette connaissance du terrain en les informant, par les vertus de l’interconnaissance — leurs voisins, leur famille —, sur les votes des uns et des autres.

Longtemps après la parution de son Tableau politique de la France, basé sur la cartographie et les statistiques électorales, André Siegfried rappelait, en préface d’une monographie locale, cette possibilité de connaître les votes individuels : « Vers les années 1910, dans une circonscription de la Sarthe dont mon beau-père était député, je m’étais dit qu’il serait intéressant de connaître individuellement le comportement de chaque électeur, en le rapprochant des circonstances sociales susceptibles de l’expliquer. Cette petite enquête [fut] menée sur place sous la direction d’un guide local parfaitement informé (et vous savez qu’un guide semblable existe dans chaque commune)  (1)  », expliquait Siegfried qui, dans son livre, taisait cette méthode ethnographique — par prudence politique et scientifique. On ne sait jusqu’où il s’en servit pour corroborer ses corrélations géographiques et statistiques.

L’organisation rationnelle de cette méthode prit aux États Unis la forme du « bossisme » (2) et de la machine politique par laquelle les circonscriptions étaient divisées en quartiers dans lesquels les agents électoraux ou precinct captains connaissaient les familles et les électeurs : « Avec son intuition sociologique aiguë, la machine reconnaît que l’électeur est avant tout un homme vivant dans un quartier déterminé, avec des problèmes et des désirs personnels spécifiques (…). La machine fonctionne grâce non pas à un appel généralisé aux larges préoccupations politiques, mais à des relations directes quasi féodales entre les représentants locaux de la machine et les électeurs du quartier  (3) ». Évidemment, ce mode d’organisation coûtait cher en cadeaux et défraiements. Ces pratiques étant de plus ne plus perçues comme relevant de la corruption, elles furent disqualifiées. La rationalisation n’était cependant qu’amorcée alors qu’allaient apparaître les techniques autrement plus précises des enquêtes représentatives.

Les sondages, aussi issus des enquêtes sociales appliquées au marketing, apparurent aux États-Unis quand Paul Lazarsfeld mena une enquête sur l’audience de la radio dans le comté d’Erié en 1940, ouvrant ainsi, en quelque sorte par surcroît, la voie de la sociologie électorale. On en sait la suite qui a fait des sondages la méthode universelle d’auxiliaire du travail politique (4). Si la connaissance des électeurs en fut grandement améliorée, avec une segmentation démographique et sociale précise, et tandis que les sondeurs devenaient des conseillers écoutés des candidats, ils donnaient à la fois une connaissance pratique jugée indispensable mais aussi limitée. En effet, cette segmentation demeurait de l’ordre de la connaissance des strates et non des individus : on pouvait savoir ce qu’attendait telle catégorie de population —femmes, jeunes, retraités, ou bien agriculteurs, employés, etc. — et permettre de mieux cibler les électorats, mais pas de s’adresser personnellement à chacun des électeurs, en dépit de la rhétorique personnalisée engagée dans l’activité de mobilisation électorale.

L’économie numérique a changé tout cela en permettant la collecte d’une information individualisée massive — les big data — c’est-à-dire de millions de personnes, à l’échelle d’une population (et non plus les quelques milliers d’un échantillon), et donc de s’adresser personnellement par les mêmes moyens de communication numérique à chaque internaute électeur. Encore fallait-il connaître les attentes, les espérances de chacun. Cambridge Analytica, créé par un universitaire en neurosciences de Cambridge, a trouvé sa martingale dans les préférences et les goûts exprimés par les internautes échangeant sur Facebook. Le procédé est au moins douteux puisqu’il a consisté à interroger un échantillon réduit, contre gratification, dans une sorte de sondage en ligne et ainsi permis d’entrer dans la liste des contacts de chaque sondé sur Facebook. À partir des opinions exprimées sur des sujets pas forcément liés à la politique, mais avec une assez grande certitude, comme les like exprimés par les internautes, leurs goûts de consommation, sans même parler de leurs sujets de conversation — chômage, immigration, sécurité, pouvoir d’achat —, il devenait facile de deviner, dans un espace politique structuré par des préférences politiquement définies, les inclinations, les doutes, les attentes et finalement les probabilités de vote. À partir de là, il est possible d’envoyer des messages ciblés pour convaincre, en fonction des éléments relativement stables du comportement électoral. Par exemple, on ne convaincra pas un électeur de changer de parti s’il est un « électeur stable », mais on tentera de le faire douter suffisamment pour qu’il s’abstienne. Par contre, un électeur instable pourra être rallié. Il est évident que la stratégie ne marche pas forcément. Il suffit qu’elle le fasse assez souvent pour déplacer un nombre suffisant de suffrages pour emporter le scrutin. D’autant plus que l’intérêt des cibles ainsi identifiées est aussi hiérarchisé, et que l’effort peut être dosé inégalement selon les segments.

Les commentaires se sont évidemment portés sur la question de l’efficacité d’une telle méthode. Les services de Cambridge Analytica ont-ils permis l’élection de Trump et le Brexit ? On comprend que les effets électoraux soient minimisés par ceux qui préfèrent être rassurés. Le verdict ne peut pas être validé, pas plus que son inverse : il est impossible de savoir si les résultats d’une élection auraient été différents dans une autre situation, puisqu’on est incapable de la reproduire et donc d’en faire la preuve ! L’histoire n’est pas une science expérimentale.

Cela n’a pas empêché le directeur de Cambridge Analytica de se vanter d’avoir fait gagner Trump sur Channel 4 (20 mars 2018). Vantardise maladroite qui a entraîné sa suspension. De son côté, le lanceur d’alerte Christopher Wylie a soutenu que le Brexit n’aurait pas triomphé sans l’activité de son ancien employeur, Cambridge Analytica. Les commentaires se sont aussi portés sur la question de la protection légale. L’exploitation de données personnelles a manifestement été frauduleuse, ou à la limite de la légalité. La justice a été saisie, une perquisition a eu lieu et on en attend les jugements. On sait le temps qu’ils prennent.

Le directeur de Cambridge Analytica a donc été écarté. Provisoirement. Or, selon les propos du lanceur d’alerte, il n’est qu’un comparse, car le vrai patron de Cambridge Analytica serait bien plutôt Steve Bannon, conseiller de Donald Trump pour la campagne présidentielle. Il y a également un complice involontaire mais peu responsable dans cette affaire, Facebook et son fondateur, Mark Zuckerberg. On peut douter que ces derniers soient vraiment inquiétés puisque les régulations diffèrent d’un pays à l’autre et sont parfois peu protectrices des usagers des plateformes numériques, comme aux États-Unis. Certes Zuckerberg a reconnu publiquement la nécessité d’une régulation plus stricte et décidé de restreindre, ces six prochains mois, les données accessibles aux annonceurs. Toutefois, on peut se demander quel dispositif légal sera suffisamment protecteur devant l’invasion de l’économie numérique. Il n’est pas en effet que Facebook pour recueillir des données personnelles sur les utilisateurs. Toute l’économie numérique le fait avec les commandes en ligne. Le font aussi, et c’est encore plus directement liés aux préoccupations politiques, les « instituts » de sondage. Lesquels se vantent de disposer de millions de contacts et interrogent les gens sur leurs préférences de tous ordres et pas seulement politiques. Le conseil politique est leur vocation.

À cet égard, on ne peut ignorer les proximités plurielles entre Donald Trump et Steve Bannon d’un côté, et Nicolas Sarkozy et Patrick Buisson de l’autre : même relation de candidat à gourou, même appétence pour l’extrême droite, même confiance pour les données statistiques comme clef de la victoire électorale. Avec une méthode plus spécifique et sophistiquée dans le cas américain sans doute, mais la similitude est allée jusqu’à la brouille entre le président élu et son conseiller. Enfin, une dernière inquiétude plus large s’est exprimée, qui anticipe une vaste intrusion numérique en forme de dystopie avec la prise de pouvoir par des entreprises capables de traiter l’infinité des données personnelles. Non plus pour les vendre mais pour elles-mêmes. Big Brother en somme.

Ces inquiétudes sur l’avenir ne devraient cependant pas occulter les dégâts déjà présents. Les usages manipulateurs des big data s’apparentent à cet égard aux fake news, à la fois connues depuis longtemps sous le nom de « fausses nouvelles » dans le fonctionnement des démocraties, suffisamment contenues pour être oubliées, mais dont l’économie numérique a permis le resurgissement amplifié. Autrement dit, que Cambridge Analytica, ou une autre société encore inconnue, ait changé ou non les résultats des élections importe immédiatement car cela affecte la légitimité de ces élections. Le doute plane aujourd’hui sur des mécanismes qu’on croyait solidement établis. Le poison du soupçon est bien là. 

In fine, comme dans le projet de loi sur les fake news aujourd’hui en cours d’adoption en France, toutes les normes légales ne dispenseront pas d’en appeler surtout à l’éducation des citoyens. Sur ce plan, les révélations des pratiques de Cambridge Analytica par des lanceurs d’alerte montre que le sens civique et critique est bien vivant et supplée tant bien que mal aux autorités et aux normes légales. Trouvent-ils des citoyens à la hauteur de leur vigilance ? Pour l’heure manifestement non, puisque l’affaire est le signe incontestable de la légèreté sinon de la vénalité de citoyens ignorants voire indifférents, qui livrent, insouciants, leurs données personnelles sur la Toile, à moins qu’ils ne les vendent (5)… Comme avec les fake news il est dès lors significatif que les regards se tournent en dernière instance du côté de l’éducation et notamment de l’école. Quand l’école républicaine entendait former de bons citoyens, on avait des bonnes raisons d’espérer. On en a moins aujourd’hui quand celle-ci semble si souvent impuissante (6).

Alain Garrigou

(1A. Siegfried, préface à R. Thabault, Mon village, Ses hommes, ses routes, son école (1943), Presses de Sciences Po, Paris, 1993, p. 10.

(2Cf. « Le boss, la machine et le scandale. La chute de la maison Médecin », Politix, vol. 5, n° 17, Paris, 1992.

(3R. K. Merton, Éléments de méthode et de théorie sociologique, Paris, Plon, 1965, p. 128.

(4Lire Pierre Bourdieu, « La fabrique des débats publics », Le Monde diplomatique, janvier 2012.

(5Lire Pierre Rimbert, « Socialisme numérique », Le Monde diplomatique, février 2018.

(6Lire, dans le numéro d’avril du Monde diplomatique, en kiosques, l’article d’Annabelle Allouch, « Les étudiants livrés au marché de l’anxiété ».

Partager cet article