Tout d’abord, précisons ce qu’est la « neutralité du Net » (Net neutrality en anglais). Il ne s’agit ni du fait de permettre toutes les expressions (liberté d’expression), ni de privilégier un regard distancié faisant de l’équilibre des idées sa marque principale (le « principe de neutralité » tel qu’il est appliqué dans Wikipédia). Le neutralité du réseau découle du principe fondateur de l’Internet selon lequel chaque « paquet d’information », quels qu’en soient la source et le destinataire, est traité de façon égale par les nœuds du réseau, les routeurs. De ce principe découlent à la fois des risques pour l’équilibre global du réseau (les embouteillages de nos routes physiques deviennent la « congestion » de l’Internet) et des garanties pour les acteurs du réseau (lecteurs, serveurs et entreprises se lançant dans la sphère économique du numérique). Jusqu’à présent, malgré les annonces régulières d’un grand embouteillage, le réseau a su bon an mal an résister à la congestion : son propre succès incite les opérateurs à multiplier les routeurs, à renforcer les réseaux et à inventer en permanence de nouvelles règles de transmission qui accélèrent le processus de traitement. Le protocole de l’Internet n’est certainement pas le plus rapide de tous les protocoles de télécommunication, mais il est le plus coopératif, le plus ouvert et le plus robuste, le plus extensible. C’est ce qui a permis son succès, et qui aujourd’hui encore est le meilleur gage de son évolution.
Le protocole de l’Internet repousse « l’intelligence » (le traitement de l’information) dans les deux bouts de la communication : le serveur et le poste client. Ainsi, si un serveur décide d’inventer une nouvelle forme de codage de l’information (par exemple quand l’entreprise Real Networks a créé le premier protocole de streaming audio en 1995), il ne lui reste plus qu’à diffuser des outils de lecture (les players « RealAudio »), et il peut expérimenter, développer son produit et espérer acquérir une place au soleil dans la nouvelle économie numérique. Il n’a besoin de demander à personne l’autorisation : les réseaux doivent laisser passer ses données encodées, et seul le succès public vient arbitrer entre les divers services équivalents.
C’est cette logique de support permanent et ouvert à l’innovation technique et sociale qui a fait de l’Internet ce nouveau système nerveux mondial que nous connaissons. C’est elle aussi qui a permis la mise en place de protocoles dits P2P, de pairs à pairs, pour favoriser la diffusion d’informations volumineuses. Ce protocole sert aujourd’hui principalement aux échanges de fichiers de musique ou de vidéo, mais il est aussi un élément fondamental d’une accélération globale de l’Internet. Or, avec les restrictions liées aux diverses lois de renforcement de la propriété intellectuelle, il est demandé aux opérateurs de réseau de surveiller, et éventuellement de bloquer les usages de certains protocoles. C’est un premier coin dans l’architecture globale de l’Internet, qui donne une position centrale aux opérateurs de réseau.
Un autre changement radical dans la neutralité du transport d’information a été introduit par le « Patriot Act » aux États-Unis : le gouvernement fédéral pouvait imposer des « écoutes numériques » sur les échanges Internet, pour « lutter contre le terrorisme ». Les fabricants de routeurs, notamment Cisco, numéro un du secteur, se sont empressés d’ajouter cette fonctionnalité à leurs produits. Une fois ouverte, cette possibilité peut être exploitée par de nombreuses agences, de façon légale ou illégale... C’est le propre des technologies de sécurité d’introduire de l’insécurité pour les usagers au profit des tenants du pouvoir.
Mais la question qui se joue maintenant porte sur la neutralité pour les services aux usagers. Comment les sites et les outils qu’utilisent les internautes sont-il traités par les réseaux ? Certains sont-ils ralentis pour favoriser les plus gros offreurs ? Tous les sites sont-ils traités équitablement ?
Cette question de la neutralité du réseau ne peut être résolue par des négociations privées entre les acteurs, à l’image de celles engagées par Google et Verizon, mais relèvent des politiques publiques. Entrent en jeu des questions de transparence et d’information des usagers, des modèles économiques, des règles démocratiques et le refus de la concentration des acteurs de l’information et de la communication en immenses monopoles.
C’est la raison pour laquelle Barack Obama, à peine élu, a engagé la FCC (Federal Communications Commission) à définir la neutralité du réseau et à préparer une loi en ce sens afin d’échapper aux lobbyistes. C’est en France une « Consultation publique sur la neutralité du Net » qui a été lancée par Nathalie Kosciusko-Morizet au printemps 2010. La commission européenne a de même lancé une « Consultation publique sur l’Internet ouvert et la neutralité du Net » à laquelle les entreprises, les associations et les citoyens européens sont invités à participer avant le 30 septembre.
Car si l’enjeu est proprement politique (égalité de traitement des informations et des sources d’information), il est aussi économique : dans quelle mesure l’architecture du réseau informatique et les positions de force des opérateurs de réseau peuvent-elles laisser ouverte la porte à des innovateurs et des nouveaux entrants ?
Or les opérateurs plaident pour une meilleure capacité de négociation commerciale. Il ne veulent pas seulement avoir des clients individuels, qui pourraient les quitter si la concurrence joue son rôle, mais aussi des revenus provenant des fournisseurs de contenus eux-mêmes. Car le web a largement transformé l’Internet des pionniers, d’un réseau « horizontal » dans lequel chacun pouvait alternativement être récepteur et émetteur (par exemple dans le mail, les newsgroups, mais aussi les sites FTP,... ou les logiciels peer-to-peer) vers un réseau asymétrique dans lequel peu d’émetteurs s’adressent à de larges masses d’usagers. Les réseaux sociaux se comptent sur les doigts de la main, tout comme les sites de diffusion vidéo ou les grands sites d’information. Mais leurs utilisateurs sont nombreux et répartis aux quatre coins de la planète, ce qui complique les échanges entre les divers réseaux de télécommunication qui fournissent les accès Internet (le « peering »).
Dès lors, à côté de la logique du « best effort » qui est celle de l’Internet, dans laquelle l’opérateur doit faire au mieux pour délivrer le service, malgré les pointes de connexion, la taille des fichiers ou la concentration des lectures, quitte à ralentir tout le monde en période de surchauffe, on voit apparaître des stratégies de « qualité de service » (QoS) suivant lesquelles l’opérateur va privilégier le transport des informations d’un client payant. On comprend cette logique pour les actions liées à la santé en ligne, aux nuages de serveurs, ou aux réseaux privés. De même, les réseaux de télécommunication servant aussi au passage de la télévision (IPTV), la prestation de service peut y être différenciée. La question de la neutralité du Net revient à savoir si l’on peut étendre ces traitements différenciés à certains prestataires Internet qui seraient prêts à en payer le prix.
Intérêts croisés et négociations secrètes
Cette question pour l’opérateur se complique encore quand il s’agit des réseaux mobiles, pour lesquels la bande de fréquences allouée reste faible, alors que l’usage des mobiles pour l’accès à l’Internet va en croissant, pour représenter dit-on 80% des usages du web dans quelques années. Le modèle de paiement forfaitaire en vigueur pour le transfert des données va-t-il perdurer et à quelle hauteur ? Comcast, l’opérateur américain du câble, du téléphone et de l’Internet, a souhaité moduler ses tarifs en fonction des usages, et ralentir les échanges P2P en 2008. La FCC est intervenu pour empêcher cette brèche dans la neutralité du Net. Comcast a réagi devant les tribunaux, et en avril dernier, un jugement lui donnait raison : dans la logique libérale des Etats-Unis, une agence fédérale ne peut intervenir dans les décisions techniques d’un acteur privé (voir Edward Wyatt, « U.S. Court Curbs F.C.C. Authority on Web trafic », The New York Times, 6 avril 2010).
Cette décision judiciaire réduit considérablement le rôle d’une agence de régulation comme la FCC. Or, depuis la déréglementation des télécommunications, nous mesurons régulièrement l’enjeu de ce type d’agences, comme l’ARCEP en France : il faut fixer des règles transparentes pour que les usagers puissent s’y retrouver entre les diverses offres et éviter les accords d’entente entre les réseaux. Quand on voit malgré tout qu’il faut avoir bac+25 pour comprendre quelque chose aux « offres commerciales » dans le domaine des mobiles, on imagine combien la situation de l’internaute va devenir difficile en l’absence de régulateur.
Evidemment, ça n’a pas tardé. Google et Verizon discutent du prix que le géant de l’Internet devrait payer pour que les vidéos de sa filiale YouTube bénéficient d’un traitement de faveur auprès des abonnés via cet opérateur... notamment sur les mobiles, car Verizon est un des principaux acteurs du succès des smartphones Android de Google. Intérêts croisés, capacité de payer chez Google, mais aussi négociations secrètes, alors que tous les grands opérateurs et acteurs se réunissent régulièrement dans les locaux de la FCC pour préciser les nouvelles règles du jeu suite au jugement Comcast d’avril dernier.
Pourquoi Google, auparavant grand chantre de la neutralité des réseaux et de l’indépendance des prestataires Internet envers les télécoms, change-t-il ainsi son fusil d’épaule ? Les raisons sont nombreuses, mais on peu en distinguer au moins deux :
• la question des mobiles, et notamment la bataille sourde entre Google-Android et Apple-iPhone. Apple, en bloquant certains applications de Google, notamment un système permettant de téléphoner en utilisant l’Internet plutôt que le réseau mobile, et les applications de publicité géolocalisée, a montré la force d’un système installé derrière un puissant mur d’exclusivité. La question se déplace maintenant sur le format des vidéos de YouTube. Pour pouvoir être diffusées sur le iPhone, YouTube a encodé ses vidéos en H.264, un format sur lequel Apple détient des brevets. Or Google promeut maintenant le format WebM qu’il a racheté à On2 Technologies et rendu libre. La rapidité de diffusion de YouTube sur l’Internet va renforcer cette technique, qui est dorénavant implémentée en standard dans les navigateurs Chrome et Firefox... et bientôt dans la « télé Google ».
• la nouvelle télévision en gestation est aussi un enjeu central pour les immenses entreprises publicitaires que sont les géants du web. Google a annoncé cet été sa « Google TV » (deux vidéos sur YouTube éclairent l’étendue de ce projet, et son enjeu commercial : la présentation par Rishi Chandra devant les développeurs web et une animation détaillant les idées d’usage). Concrètement, celle-ci serait soit une télévision incorporant des outils pour accéder aux vidéos du web (entendez YouTube), soit une « box » extérieure à brancher sur le téléviseur. Dans les deux cas, une façon de relancer un marché électronique déjà saturé par le passage aux écrans plats.
Aujourd’hui, les prestataires Internet comme Orange, Free ou SFR proposent l’accès télé sur le même tuyau... mais pas l’accès depuis la télévision aux vidéos du web, ni la recherche par thème, ni le partage de vidéos par une communautés d’amis, etc. Et si les télévisions sur le tuyau Internet utilisent un autre protocole, répondant à une meilleure qualité de service, le web sur la télé va rester du web, donc entrant dans le cadre général de la neutralité du Net. Dans le même temps, les débits vont devenir encore plus importants. D’autant que YouTube améliore en permanence la qualité de ses vidéos, jusqu’à proposer des vidéos dites « 4K » (de 4096 sur 2304 pixels) pour la vidéo projection ou les murs de téléprésence. Il va de soi qu’un usage généralisé demandera le passage à la nouvelle étape des réseaux « ultra-broadband » (la « fibre »). Cependant, même en format dégradé (le HD actuel et ses 1080 pixels de large), la vidéo de qualité est gourmande en bande passante. D’autant que Google n’est pas le seul sur ce nouveau marché de la télévision. Boxee propose ainsi une box pour cet usage, et comme le dit l’entreprise sur Twitter, trouve « incroyable que Google puisse mettre en place un tel marché avec Verizon ». Et d’autres vont suivre.
On voit ici que la « neutralité du Net » est bien un enjeu commercial et politique essentiel.
Si les gouvernements et les instances de régulation ne se ressaisissent pas et continuent à céder aux méga-entreprises des nouvelles technologies, Google, en s’appuyant sur l’appel d’air du jugement Comcast, pourrait obtenir une position largement dominante dans le futur espace médiatique. Dès lors, tout nouvel entrant proposant de la vidéo à la demande, ou des services moins grand-public, et même éventuellement les chaînes de télévision quand elles voudront s’orienter elles aussi vers cette ubiquité qu’offre l’Internet... tous devront entreprendre des négociations et verser leurs « marges arrières » aux opérateurs. Qui seront alors en force pour négocier des fusions sur toute la chaîne de valeur : devenir à la fois opérateurs de télécommunication, prestataires de médias et fournisseurs de services web. Soit un renforcement de ce que j’ai appelé le « vectorialisme » : la fusion des industries de compteurs (qui savent ce que vous consommez) et des industries de médias (qui savent vous influencer).