Docstoc

économie du web 2.0 contrefaçons ou gratuités

Document Sample
économie du web 2.0  contrefaçons ou gratuités Powered By Docstoc
					                            Contrefaçon sur Internet : les enjeux du droit d’auteur sur le Web 2.0
                                                                     27 octobre 2008
                                                       Institut de la Recherche en Propriété Intellectuelle




 ECONOMIE DU WEB 2.0 : ECONOMIE DE CONTREFAÇON OU DE NOUVELLES GRATUITES                                                                                  ?
                               Philippe CHANTEPIE
  Chef du Département des études, de la prospective et des statistiques du ministre de la Culture et de la Communication, Professeur associé à Paris 8,
                                                     enseignant à Paris 1, l’ENST, l’IEP de Paris




L’économie du web 2.0 est en butte à des réflexions, voire des actions juridiques au motif qu’elle
relèverait de la contrefaçon. Il appartiendra aux juridictions d’en décider, mais en toute hypothèse,
et la pré-qualification de contrefaçon en est peut-être un signe avant-coureur, il s’agit avant tout
d’une économie de la gratuité, c’est-à-dire de modèles économiques très variés et que recoupe
improprement l’expression de web 2.0. En effet, plus que le web 2.0, en tant que tel et pour autant
qu’il se laisse définir adéquatement, la question du financement de la gratuité joue une fonction
synthétique d’une très grande diversité de services. Depuis que Tim O’ Reilly a présenté le Web 2.0
comme quelque chose de neuf, dominent cependant des continuités fortes, capables d’éclairer les
nouveaux modèles d’affaires, contrefaisants ou non.


          I - Modèles du Web 2.0 ? – expressions attendues d’internet

Dès les premiers schémas d’internet, la première continuité est naturellement celle des réseaux, de la
structure des réseaux. On est passé au début du XXe siècle, avec la loi dite de Sarnoff, du nom du
président de CBS inventant le modèle économique de la radio fondé sur la qualité des contenus
pour accroitre l’utilité des consommateurs et donc l’audience. La structure du réseau one/to all a bien
été déterminante d’un modèle économique applicable désormais au plus grand nombre de types de
contenus, le modèle des médias.

Avec les réseaux commutés, autrement dit les télécommunications, la structure du réseau déplace
les conditions de production de l’utilité pour les consommateurs. Elle se range du côté du nombre
des utilisateurs, selon la loi dite de Metcalfe qui manifeste que plus il y a d’utilisateurs, plus chacun à
intérêt à participer à un réseau. Cette loi, qui traduit en réalité ce qu’on appelle une externalité de
réseau, vaut pour un très grand nombre de biens-réseaux, ainsi des messageries, des logiciels, etc.

Une troisième catégorie de réseau procèderait de la combinaison des précédentes et traduirait un
accroissement de l’utilité du consommateur, selon la loi dite de Reed qui indique qu’en réalité, c’est
la communauté qui peut être réalisée autour d’un contenu ou autour d’un intérêt commun qui fait la
valeur du réseau. Dans cette perspective, les services du Web 2.0 ne font que prolonger ces
continuités en assurant une forme de synthèse de ces structures de réseaux.

En outre, ces structures de réseaux favorisent des dynamiques économiques singulières de
croissance sur lesquels les services numériques, ceux du web 2.0 notamment s’appuient. Ils
cherchent à déclencher des effets d’avalanche de déploiement à partir des externalités de réseaux
positives propres aux réseaux, à savoir le déploiement de la loi de Metcalfe, en jouant notamment
sur des biens complémentaires. La nature même du réseau produit ces effets induits qui ne sont pas
sur le marché, mais qui tiennent à la nature même du réseau. C’est sur cette logique ou sur cette
dynamique que la plupart des industries numériques se développent : logiciels, devices,
télécommunications, etc. Elles cherchent, dans ce but, à obtenir, dans un délai rapide pour tenir
compte de la concurrence, une taille critique à partir de laquelle peut se déclencher un effet
d’avalanche ou boule de neige. Les mêmes dynamiques sont à l’œuvre pour le Web 2.0, de façon
plus systématique.




                                                                                                                                                              1
La nouveauté du Web 2.0 tient sans doute dans la prise en compte très forte, au moins pour le
moment, des effets économiques de la numérisation des contenus, c’est-à-dire l’évolution de la
nature économique des biens par le numérique.

Classiquement, les économistes distinguent quatre types de biens : un bien privé, autrement dit un
bien caractérisé par sa rivalité en consommation. Ce type de bien est constitutif de l’essentiel de
l’économie de marché. À ce titre, les contenus, les œuvres, sont des biens privés. On détermine les
autres types de biens selon les formes d’excluabilité ou de rivalité possible. Ainsi, on dispose de
biens de club, comme la télévision payante par exemple, et des biens collectifs quand les biens sont
non rivaux, soit lorsque tout agent économique peut consommer le bien sans diminuer la
consommation du voisin, comme par exemple la télévision ou la radio hertzienne.

Le numérique a pour effet, notamment rendu visible par les réseaux peer to peer, le basculement de
l’ensemble des biens numériques du statut de bien privé au statut de bien collectif. D’où la nécessité
d’exclure les consommateurs qui, sinon sont des passagers clandestins, par des MTP ou des DRMs,
car leur présence constitue une défaillance de marché qui induit une sur-production ou une sous-
production, le marché ne pouvant révéler dans ces conditions l’état de l’offre et de la demande. À
partir de cette perspective qui vaut pour l’ensemble des biens, s’agissant de l’économie des biens
informationnels, quelques types d’exploitation ou de valorisation sont possibles selon le degré de
rivalité ou le degré d’excluabilité : la taille de la salle, la position dans la salle, etc. permettent de
discriminer les prix en fonction de la demande. À rebours, du côté de la radio et de la télévision, on
ne peut faire payer personne, et l’on se trouve dans une situation d’appropriabilité indirecte de
revenu, puisqu’on ne peut pas faire payer directement le consommateur. Il s’agit de revenus
administrés : redevance ou tiers-payant, dont l’agent le plus important est évidemment la publicité.

Cette modification de la nature des biens par le numérique prend une place singulière dans
l’ensemble des modèles économiques rendus possibles selon la nature des biens. En amont des
chaîne de valeurs, se trouvent les droits des auteurs, des artistes, des éditeurs et des producteurs, qui
sont valorisés, selon la nature des biens, selon des modèles propres : un système d’économie de la
distribution quand l’œuvre est sur support avec un retour de rémunération proportionnelle aux
ventes et donc un système de discrimination de prix et de publics ; avec des biens non rivaux, et
surtout dans l’économie numérique, des modèles fondées sur l’économie d’audience ou
d’agrégation de trafics, mais aussi des modèles d’accès lorsque de l’excluabilité est possible face à la
non rivalité des contenus numériques, par exemple la VOD.

Dans ce complexe, le Web 2.0 qui affaire à des biens informationnels non-rivaux et non excluables,
établit des modèles économiques de gratuité des services pour les consommateurs. Ces modèles
prennent aussi en compte une autre dimension qui tient au potentiel de participation des
utilisateurs, de consommateurs tenus comme des consommacteurs qui peuvent créer, réutiliser les
biens, etc.


        II - Modèles du Web 2.0 ? – de nouvelles formalisations de l’internet.

Le Web 2.0 présente cependant un certain nombre de nouveautés qui reposent sur des évolutions
des techniques logicielles permettant d’adresser plusieurs clients en fonction de leurs besoins. Ces
outils développés par les langages et les logiciels permettent en fonction des utilisateurs de
constituer des systèmes d’adressage d’information comme les flux RSS qui agrègent, syndiquent,
diffusent, personnalisent l’information. C’est aussi la possibilité en fonction des usages, de
l’information produite par l’usage même, de retrouver une information plus pertinente à la source
de l’évolution des plates-formes de services vers un modèle, désigné de « services ou médias de
masse communautaires et interactifs » jouant des quatre modèles de base : top/down (offre de
contenus), one to one (communication interpersonnelle), communautaires et participatives.




                                                                                                        2
La logique des plates-formes, qui est donc synthétique et unit logique d’industries des médias,
d’industries de la recherche, des télécommunications, de nouveaux services…, est déterminante et
ouverte à un grand nombre d’acteurs anciens et nouveaux, qui collectivement se font concurrence
en mettant en avant des services gratuits, ce qui conduit tendanciellement à peser sur la
rémunération de l’amont, c’est-à-dire des droits de la création, d’abord des producteurs, ensuite des
artistes et des auteurs, et donc à chercher un tiers-payant plutôt du côté de l’État, soit par des
crédits d’impôt, soit par de l’intermittence, mais à publiciser d’une certaine manière le financement
de la création en raison du déploiement de plates-formes où la gratuité est un outil concurrentiel
majeur. Ce phénomène ne procède pas exclusivement du Web 2.0, mais nombre de ses services
tendent à amplifier ce mouvement davantage compris dans les effets de la numérisation des
contenus, du moins sur la distribution de ceux-ci.

Une seconde nouveauté du Web 2.0 tient au principe selon lequel la foule est productrice. Elle a
donné autour des possibilités d’indexation par les utilisateurs un certain nombre de modèles de mise
à disposition ou de partage (Flickr, Youtube, Dailymotion...). Elle s’inscrit aussi dans les modèles de
personnalisation avec des services de type Netvibes ou communautaires de type Facebook. Dans
nombre de ces services, les logiques de contribution des utilisateurs sont importantes, car elle
constitue une ressource de gratuité. Ces nouveautés tendent à accélérer le déplacement de la valeur
des contenus qui est centrale dans les modèles classiques, vers les réseaux, physiques, mais surtout
sociaux, c’est-à-dire informationnels. Ont de la valeur les relations qui peuvent s’organiser dans
cette foule. Par exemple, on note l’importance des modèles fondés sur l’analyse des graphes,
modèle mathématique développé par les Français dans les années 1950-60 qui permet de regarder
les relations dans un réseau en fonction de la centralité et de la proximité de l’agglomération, etc., et
de voir l’intérêt de la valeur et de l’organisation de toute communauté. La valeur du côté de
l’information sur le contenu et de la manière dont elle se dissémine et s’organise dans les réseaux est
essentielle pour le marketing.

Cette seconde caractéristique permet de dériver deux catégories de dynamiques. L’une tient à la loi
de la participation selon laquelle les publics, en fonction de leur contribution, apporteront au
service un certain nombre d’éléments qui seront ensuite valorisés : la lecture, tagger, souscrire,
commenter, etc. Des vérifications montrent cependant, par exemple pour les logiciels libres, qu’il
existe des communautés très actives de développement mais en réalité qui ne reposent que sur 1 ou
2 % de réels développeurs. L’autre est liée à l’ouverte des services du Web 2.0 aux logiciels libres,
donc de la gratuité en amont puisqu’il n’y a pas d’input logiciel à rémunérer, et ensuite par une mise
à disposition des codes pour favoriser l’éclosion de mashups. Il s’agit de mélanges de logiciels, donc
de services réalisés à partir d’interfaces de programmation d’applications (APIs). Celles-ci
permettent par exemple d’employer Googlemaps avec des bases de données, comme celle de la
criminalité, de logements en vente, etc. pour des agences immobilières, par exemple. Cette
ouverture est propice à une démultiplication importante de services si l’on utilise les principaux
services de géolocalisation, de commerces électroniques, etc. Elle favorise l’émergence de services
offrant une personnalisation accrue tout en bénéficiant de logiciels gratuits et d’amélioration de
ceux-ci par les utilisateurs/développeurs. Ces services soulèvent de réelles questions concernant les
droits de propriété intellectuelle, car si pour les utilisateurs, les services sont gratuits, si pour les
développeurs, l’usage des APIs l’est aussi, les codes utilisés et les conditions d’utilisations sont le
plus souvent contraignantes et créent de la valeur et des droits pour les fournisseurs des APIs.

Un dernier élément est souvent associé au Web 2.0, mais il n’en dépend pas directement bien qu’il
alimente en principe de nombreux modèles d’affaires. Il s’agit de la Long tail (longue traîne)
développée par Chris Anderson, le rédacteur en chef de Wired. Cette hypothèse est assez
miraculeuse qui ferait naître par l’effet de l’internet une inversion de la vieille loi de Ricardo selon
laquelle 20 % de l’offre réalise 80 % du marché en faveur d’une distribution où progressivement des
marchés de niches représenteraient l’essentiel du marché. Cette sorte de modèle idéal de la diversité
culturelle n’est cependant pas confirmée non plus sur la musique libre et en un sens on constate




                                                                                                       3
plus de star system. Cette réalité n’est pas sans risque pour la diversité mais aussi pour de nombreux
modèles du Web 2.0.

Alors la nouveauté des modèles du Web 2.0 se trouve déplacée encore dans un modèle plus large
qui serait celui du tout gratuit. Chris Anderson a récemment publié un livre en expliquant pourquoi
tout devait être gratuit ou serait gratuit. Dans cette taxonomie du gratuit, il y aurait le freemium, la
publicité, les subventions croisées, etc. mais encore l’échange de travail, l’économie du don le plus
souvent autour des users générated contents. La modélisation du Web 2.0 s’oriente vers un système de
plus en plus complexe cherchant des justificatifs à la fois des plus classiques et prétendument
nouveaux pour redécouvrir qu’une partie de l’économie a toujours admis des situations dans
lesquelles le consommateur ne paie pas.


        III – Le Web 2.0 comme plate-forme ou l’internaute comme plate-forme ?

Face à cette complexité croissante, il existe pourtant un modèle économique qui n’est pas propre au
Web 2.0 et possède une capacité explicative très supérieure aux diverses hypothèses avancées ici ou
là. Il s’agit des marchés bifaces, modélisés dans les années 1990-2000. Par exemple, la manière dont
on peut assurer des services gratuits consiste à créer des plates-formes dites d’interaction dans
laquelle on pourra mettre en rapport des agents économiques qui n’ont pas le même intérêt mais
qui recherchent ou offrent de l’information, des programmes, des contenus, des recherches, des
rencontres, et en jouant le plus possible d’externalités entre les deux types d’agents. Pour prendre
un exemple historique, les assistants personnels s’appuyaient sur des logiciels propriétaires puis
laissés à réutiliser et modifier par des développeurs. Plus les développeurs multipliaient des logiciels,
plus les consommateurs avaient intérêt à acheter le produit. La plate-forme a joué d’externalité entre
le produit physique (l’assistant personnel) et les logiciels et services associés. Mais le modèle de base
est celui des médias puisqu’il met en relation des annonceurs et du public, soi de l’intermédiation de
« vente de cerveaux disponibles » ou attention. Et, plus il donne de l’attention, plus les contenus
peuvent s’améliorer puisque les annonceurs obtenant de l’attention payent plus cher la publicité et
les programmes sont supérieurs. Les médias classiques ou nouveaux (Dailymotion, You Tube, etc.)
constituent des offres de contenus qui sont fondées sur ces modèles de plates-formes et qui jouent
des externalités positives d’un côté et de l’autre. Ces modèles fonctionnent aussi bien pour Amazon,
par exemple autour de la prescription, pour e-Bay autour de la qualité des produits ou de
l’information, de Meetic pour la qualité des relations, mais aussi pour le B to C.

Le modèle le plus important est Google, poussé à un niveau de sophistication extrêmement
important. Il joue de cette logique de plate-forme puisque plus on cherche, plus on trouve quelque
chose de pertinent et plus on offre de l’attention, mais cela marche aussi avec des développeurs
puisque Google est l’un des premiers développer la logique d’API ouvertes pour produit des boucles
d’auto-renforcement : plus on utilise Google, plus on utilise la diversité des services de Google et plus
on vous fournit et dispose d’annonces pertinentes et donc des revenus et de services adaptés. Le
deuxième facteur de sophistication s’appuie sur les logiques de plates-formes développées pour
l’ensemble des services de Google comme un système fractal. Le premier modèle de plate-forme est
la recherche, mais il est lié et démultiplié dans chacun des services. Par exemple, sur la publicité
dans les jeux vidéo, Google a acheté Adscape Media qui assure du placement dynamique de publicité
dans les jeux vidéo et des services techniques d’échange de texte et de son, message vidéo via SMS
ou e-mail. Il est possible à partir de là de créer deux plates-formes autour de logiciels qui mettent en
relation des développeurs qui vont travailler gratuitement pour améliorer le logiciel et placer les
publicités. Avec les interactions créées entre catégories de publics (joueurs/développeurs), il est
possible d’en créer une nouvelle avec un autre logiciel de Google, Sketchup Pro et Free de création
d’univers en 3D utilisables dans les jeux ou ailleurs. Or ce logiciel est lié à une base de données
partagée avec des modules de logiciels professionnels d’architecture, mais aussi des services
personnalisés de Google, etc. Il s’agit donc d’un système d’intégration extrêmement puissant qui sait
très largement s’appuyer sur des marchés bifaces avec des services gratuits.



                                                                                                       4
Pour le consommateur, l’essentiel est gratuit, mais deux limites demeurent : la première limite tient
à ce que les agents économiques, qu’ils soient annonceurs ou consommateurs, peuvent choisir entre
Google, Yahoo et les autres et alors, ils se cannibalisent les uns les autres et ne peuvent plus jouer
nécessairement de toutes les externalités potentielles ; la seconde tient à la formation d’univers
fermés concurrents qui accroissent pour le consommateur les coûts de réseaux (nécessité d’être
clients de plusieurs services), par exemple sur Facebook et Linkedin pour être lié aux membres de ses
communautés. Cette limite pousse probablement à une logique d’interopérabilité de la plupart des
services de Web 2.0 et place l’internaute en situation d’être lui-même une plate-forme et de jouer
d’interaction entre différents services web et les annonceurs ou services proposés. L’internaute
devient le média ou la plate-forme. Or, ceci a un inconvénient économique majeur, car dans ce cas,
il n’y a pas de possibilité d’internaliser les externalités qu’on crée soi-même vis-à-vis de Google,
Myspace, Facebook, etc. ou vis-à-vis des annonceurs et des services. Dans cette configuration, bien
des services du Web 2.0 conduisent à une impasse économique.


                                Quelle gratuité sans contrefaçon ?

Ce panorama des modèles ne tranche pas une question essentielle qui est posée par la propriété
intellectuelle des bases de données et des données qui sont presque toujours au fondement des
modèles économiques gratuits, question qui embrasse les droits de bases et de données qui ont
supposé des coûts et ceux des users generated contents. Par delà une situation d’innovations importantes
et rapides, des grappes d’innovations extrêmement riches autour du Web 2.0, on doit supposer
vraisemblable un retour vers une situation plus classique de modèles économiques. Cette dernière
est assez probable à travers deux perspectives principales. La première repose sur des systèmes
d’intégration verticale entre les plates-formes et des producteurs de contenus, comme l’ont montré
les acquisitions comme Myspace, ou comme le dénote un certain nombre d’accords respectueux des
droits de propriété intellectuelle pour rendre durable les modèles économiques sous-jacents qui sont
relativement friables s’ils sont fondés sur la seule gratuité. Cette perspective qui suppose des
apports en contenu implique un temps de transition assez long qui est le temps de transaction entre
les acteurs. La seconde perspective a peu été explorée, elle relève du droit de la concurrence. Il
s’agirait d’analyser des logiques de subventions croisées intriquées selon le système fractal de Google,
tel qu’il y a toujours quelque part dans les systèmes gratuits des agents économiques qui paient, mais
par des logiques de subventions croisées. Dans des systèmes aussi complexes que celui de Google, il
est extrêmement difficile de déterminer quel service a apporté quelle valeur.

Dans la plupart des cas, la contrefaçon est donc naturellement un problème majeur mais, en grande
partie temporelle et qui s’analyse comme un élément des coûts de transaction des droits. Au-delà, la
contrefaçon s’inscrit dans l’émergence de modèles économiques où la gratuité est une condition de
croissance, déstabilisatrice des valeurs ajoutées de chaque catégorie d’acteurs, mais pas
nécessairement le fruit de contrefaçon. Le Web 2.0 qui oscille encore entre ces deux situations
révèle surtout un nouveau régime de gratuité.




                                                                                                      5