Dans la transformation numérique des entreprises, on a tous un peu dans notre inconscient collectif le modèle des GAFAs.
Un modèle qui repose sur une règle simple « the winner takes all« . Il est fondé sur la capacité à exploiter rapidement la loi de Metcalf (la valeur d’un réseau augmente avec le carré du nombre de ses participants) et conduit généralement à l’avènement de mégaplateformes, qui imposent ensuite leurs lois sur le marché. Les investisseurs qui surinvestirent au départ pour obtenir cette croissance rapide des utilisateurs, multiplient alors leur mise quand la plateforme valorise ces utilisateurs.
On note que dans ces modèles centralisés, les données sont collectées massivement et également centralisées par peu d’acteurs qui en tirent un bénéfice, voire qui peuvent influencer le marché en manipulant les choix par des algorithmes.
La chute en bourse cette semaine de Netflix (de $347 à $224), après avoir annoncé la première baisse de son nombre d’abonnés depuis 10 ans, est liée à cette vision.
Ce n’est pas la perte de 200.000 malheureux abonnés sur l’exercice (sur plus de 220 millions) qui est sanctionnée, mais bien la fin de ce modèle de croissance, qui ampute Netflix de 35 % de sa valeur.
Le cours de l’action, qui valorise le futur de la base clients de Netflix, a intégré cette semaine la « balkanisation de l’Internet », cette fracture de l’Internet qui en réduit son potentiel de croissance. Un éclatement de l’Internet qui œuvre depuis quelque temps. GreenSI avait publié un billet en février 2021 pour montrer que la mondialisation avait un talon d’Achille au sein même du réseau qui l’a accéléré (Achille et LES Internets). Il se traduit concrètement dans la tête des investisseurs, par la perte du marché Russes pour Netflix (700.000 abonnés actuels et potentiel futur).
À moyen terme, c’est donc une vision plus éclatée de l’Internet qui challengera ceux qui vivent sur ce modèle et notamment les réseaux sociaux. Est-ce que Elon Musk, dans sa tentative de prise de rachat de 100 % de Twitter, aurait déjà vu avant tout le monde un changement de paradigme dans ce modèle ?
La réponse de Netflix sera certainement l’augmentation de son « ARPU » – Average revenu per user – bien connu des opérateurs télécoms, pour valoriser au mieux des abonnements (voir le billet d’analyse de janvier de Pascal Chevallier sur ZDnet). Ce sera également un virage pour la qualité du service et l’UX, pour que les utilisateurs soient prêts à payer plus, et par ricochet pour ses concurrents, car Netflix est déjà plutôt leader sur ce sujet.
Mais ce modèle n’est pas le seul.
Amazon a développé sa force sur l’excellence de sa logistique décentralisée en entrepôts et sur la taille de son catalogue, qui conduit à de bonnes vielles économies d’échelles, comme les conglomérats d’avant le digital. C’est de là d’ailleurs que vient son nom, le fleuve Amazone étant le plus grand fleuve dans le Monde. Ce modèle, c’est aussi celui auquel nous a habitué Microsoft avec son système d’exploitation Windows. Il permet de pousser de multiples produits, même de qualité moyenne – comme les premiers Internet Explorer, en tout cas moins bons que les leaders – mais rendus indissociables (« bundlé ») du produit amiral Windows.
La commission européenne a mené une longue, mais importante, bataille pour réduire ce pouvoir qui finalement étouffe l’innovation. C’est ce qui fait dire à GreenSI qu’un des risques à moyen terme sur Amazon, c’est peut-être le risque de démantèlement de ses activités. Il ferait chuter sa valorisation en libérant une partie des économies d’échelle capturées, le jour où le régulateur ne voudra plus qu’elles passent entre le Cloud (AWS), le streaming (Prime Video) et l’e-commerce, pour ne citer que celles-là.
Mais par rapport à ces deux approches très centralisatrices, une autre façon de penser et de transformer une industrie avec le numérique, existe.
Celle qui n’impose pas une plateforme centrale, car ce sont les données qui circulent au sein d’un réseau, qui créé localement de la valeur et globalement est un meilleur optimum que la centralisation. Cela vous semble utopique ?
C’est pourtant ce principe fondateur d’interopérabilité sur des standards simples qui a créé le réseau Internet et lui a donné sa croissance. Au départ, on a fixé que les standards, puis chacun est venu ajouter son propre serveur (et investir), le raccorder au DNS – le système de gestion des noms de domaines – et l’Internet s’agrandit. On peut aussi citer le Bitcoin, avec les standards de sa blockchain, pour valider et tracer de manière non remédiable, des transactions, sans avoir besoin d’un réseau centralisé.
Ça marche donc pour les plateformes, mais aussi pour les applications.
On a vu comment la directive « Open Banking » a permis à des FinTechs de se développer autour des services bancaires (voir Quand les APIs transforment les industries) en ouvrant par exemple la libre circulation des données des épargnants et des entreprises (avec leur accord).
Dans les villes ou les immeubles intelligents, c’est la même dynamique que l’on retrouve, car l’optimum local à plus de valeur que l’optimum mondial. La valeur se créé dans l’échange sur le territoire, par exemple pour l’efficacité énergétique du bâtiment ou la fluidification du trafic, et non à l’échelle de synergies mondiales.
À un moment où on entend partout que l’on revient au local, dans un contexte d’éclatement de l’Internet, ces modèles sont donc certainement promis à se développer. Leur point faible est cependant un niveau de coordination demandé plus élevé qu’un modèle centralisé. C’est d’ailleurs souvent désolant de voir que la dictature décide plus vite que les démocraties. C’est pour cela que ces modèles marchent bien quand ils sont imposés par une Directive ou un régulateur (qui assume son rôle de dictateur !) et qu’ils s’appliquent à tous.
Ironie de l’histoire informatique, cette coordination pour partager des ressources entre applications au sein d’un même système, c’est ce que l’on appelle le système d’exploitation. Il aurait pu jouer un rôle ouvert majeur, malheureusement, il est vite devenu une bataille pour établir le monopole de Windows sur les PCs, et on voit avec Android plus ouvert sur les smartphones, qu’il reste un enjeu de souveraineté. Néanmoins, le modèle ouvert open source, Linux, domine toujours celui de l’Internet et du monde des serveurs.
Quand l’Europe fait le constat, qu’elle n’a pas de GAFAs, et qu’on appelle à en créer en comptant tous les jours ses licornes – valorisées plus d’1 milliard – on est sur la reproduction du modèle actuel. Dans ce modèle, Doctolib gèrera tous les rendez-vous des européens, et Back Market sera le champion européen de l’e-commerce durable, pour ne citer que les deux Françaises du Top15 européen. En termes de souveraineté, si leurs infrastructures le sont, le contrôle des États sur les données de santé de Doctolib sera plus simple, mais ne sera pas une garantie.
Alors pourquoi ne pas jouer un modèle décentralisé ? Plus résilient ?
Ce serait une alternative reposant sur l’interopérabilité des données de santé. Elle a été testée l’an dernier avec l’équivalence des vaccins numérisés qui ont permis de passer simplement les frontières. Un réseau européen de services de santé interopérables pourrait théoriquement être plus résilient et créer plus de valeur et d’innovation.
Pour cela, l’Europe peut fixer ses standards dans les domaines de souveraineté numérique et mettre en place des moyens de contrôle pour vérifier leur respect.
C’est ce qu’elle a essayé de faire avec le RGPD. Mais ces standards ne sont pas porteurs de valeur dans ce modèle, car ils visent au contraire à limiter les échanges de données, voire les empêcher. L’interopérabilité entre opérateurs était présente, mais son approche trop complexe puisque c’est au citoyen de récupérer ses données, puis de les donner à une autre plateforme. Une autre vision de l’interopérabilité, plus proche de « l’Open Banking » actuel, doit être trouvée.
Fin mars, le Conseil et le Parlement européens sont parvenus à un accord politique provisoire sur la législation sur les marchés numériques (Digital Market Act) qui vise à rendre le secteur numérique plus équitable et plus compétitif.
Ce DMA fixe des règles pour les plateformes, qui se trouve dans une position de « contrôleur d’accès » vis‑à‑vis d’un grand nombre d’utilisateurs (plus de 45 millions mensuels), n’abusent de cette position. Une nouvelle dose d’interopérabilité est administrée, pour assurer l’interopérabilité des fonctionnalités de base, mais uniquement sur les services de messagerie instantanée.
C’est un début, mais timide. Si l’Europe veut être l’architecte d’une nouvelle approche des marchés, elle va devoir aller plus loin dans ses plans d’architecture. Il faut assurer l’interopérabilité, peut-être par industrie, pour les objets numériques communs qui permettent l’interopérabilité, à l’image des échanges de données bancaires entre banques.
Dans le hardware, elle donne cependant un signal plus fort cette semaine en affirmant sa vision d’un chargeur unique pour les smartphones (USB-C). Cela peut paraître anecdotique, mais cela consolide l’unité de son marché avec un nouvel objet physique commun. C’est maintenant aux entreprises européennes de s’en emparer, Back Market en premier, pour délivrer les promesses de durabilité associées à la fin des chargeurs neufs avec chaque nouveau téléphone.
Passer d’un marché commun européen, à des objets communs européens, facilitant la libre circulation des données en Europe, c’est peut-être une vision qui favoriserait plus loin la numérisation des industries et l’émergence de champions européens.
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));