Docstoc

Esprit avril 2006 Contrôler l'accès_ entre stratégies industrielles et régulations publiques

Document Sample
Esprit avril 2006 Contrôler l'accès_ entre stratégies industrielles et régulations publiques Powered By Docstoc
					        Contrôler l'accès : entre stratégies
       industrielles et régulations publiques


                                       Philippe CHANTEPIE

    Chef du Département des études, de la prospective et des statistiques au Ministère de la culture et de la
      communication, enseigne l’économie de la communication numérique à Paris I et à l’ENST-INA.




Au début de la « bulle internet », des ouvrages comme La société en
réseaux de Manuel Castells, L’économie de l’information de Carl Varian,
Code and Other Laws of Cyberspace de Lawrence Lessig, ou encore
L’économie de l’accès de Jeremy Rifkin ont, parmi d'autres, posé des
jalons de la réflexion sur les dynamiques à l’œuvre dans ce qu’il est
convenu d'appeler la « société de l’information ». En dépit d’une
évolution parfois syncopée, de l’éclatement de la bulle, et surtout, de la
banalisation des techniques numériques dans une large part des sociétés
industrialisées, leurs analyses se trouvent désormais en phase avec les
phénomènes effectivement à l'œuvre aujourd'hui. Au centre de ces
analyses, la question de l’accès est apparue primordiale tant pour les
stratégies industrielles que pour les régulations publiques à mettre en
œuvre. "accès à internet", "contrôle d’accès", "droits d’accès" ou "accès
aux contenus", "interopérabilité" font désormais partie d’un large débat
public.

Une grande partie des règles économiques et des pratiques industrielles de
la société de l’information sont paradoxales. L’universalité du code
numérique couplée à l'instauration d’un seul protocole pour la constitution
du réseau des réseaux devraient concourir à lever brutalement toutes les
barrières techniques, uniformiser les formats, et de ce fait, dessiner
l’image d’une société de transparence numérique. Mais économiquement,
ce paysage technique en voie d’unification oscille entre, d’une part la




                                                       1
Esprit – Avril 2006




réalisation d’un marché pur et parfait, et d’autre part, l’accumulation de
mécanismes – économies d’échelle, effets réseaux, monopole naturel,
rendements croissants d’adoption, développements de biens communs –
qui caractérisent le champ de l’économie publique. En réalité, le paysage
numérique concurrentiel est marqué par la multiplication des obstacles,
qu’ils prennent la forme de stratégies de verrouillage, de portier péages,
clubs fermés, enclosures techniques ou juridiques.

Le défi est significatif pour les pouvoirs publics — gouvernements,
législateurs, autorités de régulation, juge national et européen, lieux
d’autorégulation. Ils doivent à la fois favoriser la transparence et
consolider des obstacles, c’est-à-dire gérer les contradictions profondes de
l’économie de la société de l’information. L’accès, autorisé, interdit ou
simplement pris, constitue alors l’enjeu principal des choix publics et de
marchés.

          Des dynamiques contradictoires

Dès le milieu des années quatre-vingt-dix, les desseins économiques
permis par le développement des techniques numériques et des réseaux se
fédèrent autour d'un terme, la "convergence" : convergence des « tuyaux »
et des « contenus » qui doit susciter la confiance des investisseurs au
moment de ce qui apparaîtra bientôt comme une simple bulle. En effet, le
changement d’infrastructure technique des industries culturelles et de
communication a suscité principalement un modèle économique de
communication des contenus par l’intermédiaire de « plates-formes »
d’accès, censées jouer une fonction de distribution et de médiation. Ces
plates-formes doivent assurer techniquement un contrôle d’accès pour la
distribution numérique de contenus audiovisuels, culturels et ludiques sur
nos ordinateurs personnels, consoles de jeux, assistants personnels,
modems ADSL, voire baladeurs numériques audio et vidéo, etc.), mais
aussi, des logiciels, des moyens de paiement, etc. Ces plates-formes sont
au centre des régulations économiques d’accès.

Les dynamiques de verrouillage de la distribution de contenus...

Par leur architecture technique, les plates-formes qui permettent de
contrôler les marchés amont mais aussi aval, et finalement les
consommateurs sont le levier d’opérations de concentration verticale
comme horizontale dans le secteur des technologies de l’information et en




                                     2
                       Contrôler l'accès : entre stratégies industrielles et régulations publiques




particulier des industries culturelles. Elles ont vocation à être à l’interface
de plusieurs marchés : les marchés des utilisateurs finaux, des applications
et services destinés aux utilisateurs, mais aussi des matériels, composants
et logiciels de ces plates-formes, ou encore des contenus et de leurs droits.
Leur architecture technique est essentielle pour configurer l’accès ou, au
contraire, le verrouillage.

Du côté de l’accès, on trouvera un modèle ouvert avec la télévision
payante, notamment numérique. Dans ce domaine, des efforts de
normalisation ont eu lieu pour éviter les techniques de verrouillage et
permettre à chaque abonné de décoder les programmes des différents
opérateurs. Du côté du verrouillage, on trouvera le modèle des consoles de
jeux vidéo ou celui de la distribution numérique de contenus, fondés sur
des systèmes numériques de gestion de droits (Digital Rights Management
systems). Les consoles de jeux vidéo issus des consoliers (Sega, Nitendo,
Sony, Microsoft) ont développé des stratégies de domination sur les
distributeurs, les éditeurs de jeux et les studios de développement, afin de
s'assurer des remontées de rémunération et contrôler le degré de
concurrence sur les jeux. Un tel contrôle repose sur une politique d’octroi
de licences contraignante. De manière assez analogue, les systèmes
numériques de gestion des droits développés par Apple, Sony, Microsoft
ont pour fonction d’assurer la distribution numérique contrôlée de
contenus (texte, images, sons, vidéos) et des droits d’accès aux contenus
qui leur sont associés. Ici, le contrôle technique et industriel limite l’accès
des producteurs de contenus aux distributeurs ou des utilisateurs aux
contenus.

… fruits des stratégies industrielles liées à la numérisation des contenus…

Si ce modèle semble l’emporter, cela tient aux effets de la numérisation
des contenus. En effet, les contenus sont des biens informationnels et des
biens d’expérience, produits industriellement avec de fortes économies
d’échelle. Leur rentabilité suppose un jeu d’exploitations et une maîtrise
de la distribution des reproductions. Economiquement, la remontée de
rémunération suppose donc de développer des techniques d’exclusion des
consommateurs qui ne consentiraient pas à payer les contenus, d’autant
plus que ces contenus sont devenus hyper-reproductibles et que leur
consommation ne diminue pas la satisfaction d’un autre consommateur
(principe de non rivalité des contenus). Ce modèle est donc organisé sur le
contrôle d’accès aux contenus à travers une architecture technique




                                            3
Esprit – Avril 2006




destinée à redoubler l’objectif d’une norme juridique spécifique : le droit
de propriété intellectuelle contre des consommateurs en situation de
passager clandestin (free rider).

Mais les plates-formes de distribution numérique de contenus occupent
une place majeure dans les stratégies d’acteurs des industries culturelles
pour une autre raison. Elles ont vocation à se placer au centre de plusieurs
marchés et peuvent bénéficier d’effets économiques féconds. En effet, il
existe des « effets réseaux » appelés par les économistes « externalités de
réseaux ». Par exemple, l’utilité retirée par chaque abonné à un réseau, à
l’usage d’un logiciel, d’un service de communication (messagerie, chat,
peer-to-peer, etc.) est fonction du nombre d’abonnés formant le réseau.
Les plates-formes ont précisément pour objectif d’organiser ces effets et
d’en matérialiser les bénéfices. De plus, elles sont souvent à l’intersection
de deux marchés, dits « bifaces » : ainsi, un consolier de jeu (Nitendo,
Sega…) s’adresse au marché des éditeurs de jeux qu’il met en
concurrence pour accéder à sa console, et au marché des utilisateurs. Les
plates-formes visent à contrôler les interactions entre les marchés qu’elles
mettent en relation et à en retirer les fruits. On perçoit l’intérêt de ces
logiques pour la plupart des médias (presse, télévisions commerciales,
payantes, guides de programmes, etc.). Après s'être imposes dans le
domaine des jeux vidéos à travers les relations complexes entre
consoliers, éditeurs de jeux et utilisateurs, elles se développent désormais
dans la concurrence que se livrent les fabricants de systèmes numériques
de gestion des droits, en particulier Apple avec son service de musique en
ligne iTunes Music Store, ou Microsoft qui dispose aussi d’un tel système
mais cherche à en accroître le nombre d’utilisateurs.

… et portées par une idée de « convergence »industrielle.

La logique « the winner takes all » a été dominante dans les stratégies
industrielles conduites durant une période marquée par l’incertitude
technique, l’apparition de nouveaux entrants, l’émergence de marchés et
modèles inédits. Elle s’est accompagnée de la recherche d’avantages
décisifs que pourraient obtenir les acteurs les plus rapides dans le contrôle
des nouveaux modes d’accès. Ces logiques se sont traduites par des
stratégies d’intégration fondées notamment sur l’existence de plates-
formes numériques à l’interface des contenus et des tuyaux (intégration
verticale) ou d’extension de services de communications (intégration
horizontale). Face aux risques pour l’accès aux contenus que ces stratégies




                                     4
                      Contrôler l'accès : entre stratégies industrielles et régulations publiques




industrielles et financières peuvent créer, les régulateurs, notamment sur
le terrain du droit de la concurrence, ont porté une attention vigilante aux
effets des plates-formes numériques.

Ainsi, la fusion AOL/Time Warner, vue du côté américain, est d’ordre
horizontal : elle combine le parc d’abonnés aux réseaux câblés de Warner
Cable et son service internet haut débit avec les abonnés du fournisseur
d’accès AOL. Le risque était la mise en place d’une plate-forme de
messagerie instantanée qui aurait été dominante, d’autant qu’elle aurait
bénéficiée de futurs services à forte valeur ajoutée issus de Warner : envoi
de fichiers audio, images, vidéo ; jeux en réseau ; visioconférence, etc.
Une pareille fusion était de nature à donner un avantage décisif et
cumulatif à cette entreprise. C’est pourquoi, contre le risque de
verrouillage, le régulateur américain a ordonné une mesure d’accès :
l’interopérabilité des messageries instantanées d’AOL avec celle de ses
concurrents.

Dans le cas d’opération d’intégration verticale, les régulateurs ont regardé
les « cercles vertueux » issus de ces opérations et les « spirales
négatives » qui pouvaient en résulter. Ainsi, dans les affaires AOL/Time
Warner ou Vivendi Universal/Seagram/Canal Plus, les risques étaient
inhérents aux plates-formes qui combinaient d’importants volumes de
contenus exclusifs et des masses d’abonnés potentiels à travers les
réseaux. Une telle fusion aurait sans doute créé des cercles vertueux de
développement avec des effets d’auto-renforcement et donc aussi des
spirales négatives pour les concurrents, notamment les chaînes de
télévision hertzienne qui auraient perdu de l’audience.

Là où il appartenait jusqu'à présent à une pluralité de régulations
sectorielles – audiovisuel, télécommunications, soutiens publics sectoriels,
propriétés intellectuelles, droit de la concurrence – d’intervenir,
l’économie numérique a recentré les enjeux sur la question de l’accès, à la
croisée de logiques de transparence ou d’obstacles. Cette clef d’entrée
pour les régulateurs est nécessaire, car elle a été centrale dans des
stratégies économiques combinant plusieurs logiques industrielles.

    La convergence a posteriori des régulations

Les régulateurs ne sont pas partis démunis face au déploiement de ces
stratégies industrielles. Forts d’une expérience forgée dans le domaine de




                                           5
Esprit – Avril 2006




l’audiovisuel, ils ont, consciemment ou non, fini par articuler les divers
points d’entrée nécessaire pour orienter, le plus souvent après coup, le
sens de l’économie de la société de l’information.

Le modèle historique de l’audiovisuel en faveur du pluralisme et de la
diversité

Dans le domaine de l’audiovisuel, les risques liés à la concentration
d’opérateurs dans un environnement de relative rareté des ressources de
diffusion ont conduit depuis longtemps à favoriser des régulations en
faveur de l’accès aux réseaux. Elles ont été redoublées par des
mécanismes encadrant l’accès aux contenus et des mécanismes d’accès
aux plates-formes de distribution de services audiovisuels.

La réglementation obligeant un distributeur de services par câble ou par
satellite de reprendre certains services (must carry) a pour vocation de
desserrer les goulets d’étranglement aval sur les réseaux (câble, satellite,
télévision numérique de terre, télévision par ADSL). Elle entend limiter le
risque de réduction de l’offre pour les consommateurs et contribue au
pluralisme en favorisant l’offre audiovisuelle publique. Cette
réglementation peut s’accompagner d’obligation de fourniture de services
audiovisuels pour éviter par exemple qu’un diffuseur hertzien présent sur
un autre mode de diffusion ne limite l’offre de ses concurrents par une
fourniture exclusive.

L’accès aux droits des « contenus d’appel » est aussi devenu une nouvelle
dimension de la régulation de la société de l’information. En effet,
l’économie des contenus dans un univers d’élargissement de la
concurrence a conféré à certains contenus une valeur déterminante sur les
marchés mondiaux. Leur rareté et leur caractère stratégique ont pu
conduire à des régulations visant à éviter des restrictions d’accès en dépit
des droits d’exploitation favorable à l’exclusivité. C’est par exemple dans
le domaine des droits sportifs ou des catalogues de cinéma qui sont au
cœur de l’économie des distributeurs de services de contenus, que cette
régulation a trouvé à se développer.

De quoi s’agit-il ? A la fois de reconnaître l’existence de droits exclusifs
(qui sont des monopoles d’exploitation) et d’éviter des formes d’exercice
de ces droits qui se traduiraient par des abus de position dominante. Car
l’exercice des droits exclusifs de propriété littéraire et artistique permet




                                     6
                      Contrôler l'accès : entre stratégies industrielles et régulations publiques




évidement des exploitations en exclusivité qui sont créatrices de valeur
économique. C’est pourquoi l’exclusivité ne peut être bornée que dans
« certaines circonstances », par exemple en raison de durées trop longues
ou parce qu’elle limite le droit à l’information (manifestations sportives).
Dans ce contexte, contre l’obstacle que peut constituer la propriété de
contenus premium (contenus haut de gamme détenus en exclusivité), le
régulateur pourra organiser un partage entre des services payants (chaînes
de télévision, accès à internet) et des services gratuits pour le public,
notamment au titre du droit à l’information. Il aura à veiller à une fluidité
des droits en segmentant les canaux de diffusion pour favoriser de
nouveaux marchés (ADSL, UMTS), diminuant les barrières d’entrée à de
nouveaux entrants. Il pourra aussi réserver des domaines non
appropriables, par exemple pour les événements sportifs « d’importance
majeure », voire interdire des pratiques de « gel des droits ». Toute
formation de domaine public est alors susceptible de constituer une
régulation d’accès particulièrement efficace.

La propriété intellectuelle sur les œuvres comme sur les technologies est
bien alors considérée par les régulateurs comme un obstacle aux objectifs
d’accès. C’est notamment le cas quand elle porte sur des systèmes de
contrôle d’accès qui peuvent porter atteinte au pluralisme quand elle
renforce une position dominante, quand elle limite la concurrence dans
l’offre de programmes. C’est pourquoi, la politique européenne en matière
de systèmes de contrôle d’accès cherche à imposer une interopérabilité
des services d’accès à la télévision. A cette fin, outre les efforts de
normalisation qui évite l’incompatibilité des systèmes, elle confère aux
autorités réglementaires nationales le pouvoir d’assurer l’accès par
l’interopérabilité.

La délicate articulation de la concurrence et de la propriété des plates-
formes d’accès

L’accès, comme objectif ou comme solution, est un facteur de
convergence des diverses régulations de l’économie de la société de
l’information. Il est revenu au droit de la concurrence d’assurer l’équilibre
entre une pluralité d’objectifs parfois contradictoires, notamment entre la
concurrence et les droits de propriété.

De nouveau, c’est à propos des plates-formes numériques que cette
évolution a vu le jour. En effet, les plates-formes constituent un




                                           7
Esprit – Avril 2006




investissement d’infrastructure important (fabrication, commercialisation,
installation de parc de décodeurs, modems, téléphones mobiles) qui
suppose souvent des pratiques de subventions d’accès des utilisateurs et
sont alors favorables à la concentration d’acteurs économiques. C'est
pourquoi la préservation de la propriété industrielle, économiquement
essentielle, s’accompagne dans ce contexte économique de la société de
l’information de tendances au monopole et à des risques
anticoncurrentiels.

L’ouverture technique des plates-formes est dès lors devenue un moyen
de remédier aux risques de concentration et d’abus de position dominante.
Cette approche éprouvée d’abord dans le domaine de la télévision payante
constitue un modèle de référence. Par exemple, à l’occasion de la fusion
Bertelsmann-Kirch-Premiere, le régulateur européen a développé des
principes pour rendre possible l’accès aux spécifications des services
techniques des décodeurs, l’ouverture des interfaces de programme
d’applications des décodeurs pour permettre l’accès à plusieurs guides
électroniques de programme concurrents et à une pluralité de services
interactifs.

En se focalisant sur les plates-formes techniques, la régulation de la
concurrence s’est attachée aux verrous de la société de l’information.
C’est la même politique qui s’est appliquée pour éviter des dynamiques
irréversibles des fusions comme Vivendi/Seagram/Canal Plus ou AOL-
Time Warner. Dans le premier cas, l’intégration des contenus et des
tuyaux aurait se serait effectué par l'intermédiaire d’un portail multi-accès,
Vizzavi, combinant abonnés des services de télécommunications mobiles
(Cegetel, SFR, Vodafone), abonnés à internet, et catalogues importants de
contenus (films, programmes télévisés…). L’intérêt de la plate-forme
aurait pu être tel qu’il aurait évincé la concurrence et probablement
diminué l’offre globale de contenus. Il aurait affaibli la part gratuite
d’accès aux contenus, en particulier les offres publiques. Cette politique
s’était d’ailleurs aussi exercée à l’égard des consoles de jeux vidéo,
propriétés de Nitendo, Sega et Sony, qui agissaient comme trois
monopoles distincts vis-à-vis des éditeurs indépendants, et qui ont été
contraints de faciliter l’accès technique à leurs plates-formes en
fournissant plus aisément les outils de développement de jeux.

En revanche, s’agissant des DRMs, la régulation de la concurrence en
faveur de l’accès n’a pas – encore – vue le jour, parce que le marché de la




                                      8
                      Contrôler l'accès : entre stratégies industrielles et régulations publiques




musique en ligne est émergent et qu’un marché des systèmes de contrôle
d’accès par les DRMs n’a pas été spécifié. Toutefois, les risques de
verrouillage de marché par ce type de techniques et les risques
économiques qu’elles peuvent engendrer ont été examinés. Ainsi, pour la
fusion AOL-Time Warner, avaient été établis les risques encourus par la
position privilégiée de « gate keeper » qui pourrait résulter de la détention
du logiciel de lecture de contenus (dénommé Winamp) sur le marché de la
musique en ligne. Grâce à l’effet de levier des catalogues musicaux, ce
logiciel pouvait devenir dominant, s’imposer aux concurrents et favoriser
la concentration de l’édition musicale. C’est pourquoi, autour de ce
logiciel, le régulateur a-t-il limité la fusion. A présent, des questions
analogues sont soulevées en ce qui concerne la stratégie d’intégration
verticale conduite par Apple entre son service Itunes et ses iPod à travers
son DRMs, voire avec la stratégie de développement de base installée que
mène Microsoft avec son lecteur Windows Media Player et le DRMs qui
lui est associé.

L’interopérabilité

Au fur et à mesure que se sont développées les régulations d’accès, la
question de l’interopérabilité, est finalement apparue comme la plus
fondamentale. Comme les logiciels occupent une fonction majeure
d’interface technique entre les réseaux, les matériels, le contrôle et la
lecture des contenus, etc., il est naturel que l’interopérabilité, en
particulier des logiciels, soit devenue centrale.

Pourtant, l’interopérabilité n’était, depuis le début des années quatre-
vingt-dix, qu’un simple objectif justifiant une limitation des droits de
propriété des logiciels. Sous l’expression d’« exception de décompilation
à des fins d’interopérabilité » (reverse engineering), le droit de propriété
littéraire et artistique avait reconnu en son sein une forme de régulation ou
de limitation au droit de propriété des logiciels. Cette exception au droit
de propriété intellectuelle permet de trouver un équilibre entre les intérêts
des auteurs et des investisseurs et ceux des utilisateurs. Économiquement,
cette exception présente aussi des contrariétés sérieuses : elle peut
encourager la concurrence et l’innovation, mais favoriser des
comportements de concurrence déloyale, de détournement des fruits de
l’innovation, voire de contrefaçon. Ce mode de régulation a donc été
fermement encadré. Son usage reste d’ailleurs, en pratique, très limité. Il
aurait dû favoriser le développement d’émulateurs de jeux vidéo sur PC




                                           9
Esprit – Avril 2006




alors qu’ils étaient conçus pour des consoles. Il est limité aux interfaces
pour favoriser la concurrence. En effet, cette régulation provient de la
volonté de concurrencer la domination historique des PC d’IBM qui
s’appuyait sur un système d’exploitation propriétaire, en permettant des
systèmes compatibles. En réalité le jeu de la concurrence informatique et
sa rapidité ont déplacé le problème de concurrence et rendu peu utile cette
forme de régulation, puisqu’à partir du milieu des années quatre-vingt-dix
le pouvoir de marché informatique ne concernait plus IBM mais l’axe
Intel-Microsoft.

A présent, l’interopérabilité des logiciels apparaît bien comme un objectif
et un remède à l’absence d’accès particulièrement efficace mais largement
contraire à la reconnaissance des droits de propriété. C’est pourquoi, son
emploi sur le terrain du droit de la concurrence est aussi limité.
L’obligation d’interopérabilité, par exemple par la fourniture de
documentations sur le fonctionnement des logiciels, est ainsi au cœur de
l’affaire Microsoft jugée par les autorités européennes de la concurrence.
Mais sa mise en œuvre est fondée sur une doctrine qui n’est pas reconnue
au plan mondial et demeure d’un emploi restreint en ce qui concerne les
biens immatériels : la doctrine des facilités essentielles. Elle consiste à
rendre possible l’accès à des infrastructures essentielles (à l’origine : des
ports, aéroports, etc.), à des fins de concurrence. S’agissant de droits de
propriété intellectuelle, elle permet d’y porter atteinte mais dans des
circonstances exceptionnelles. Elle a été utilisée pour rendre possible
l’accès à des informations, des bases de données, un logiciel ou au tronc
commun d’un logiciel, etc., en bornant autant que possible cette atteinte. Il
faut par exemple que l’accès soit indispensable pour opérer ou continuer
d’opérer sur le marché ; que le refus de licence fasse obstacle à
l’apparition d’un produit nouveau pour lequel il existe une demande
potentielle des consommateurs, etc. Une telle approche ne semble pouvoir
prospérer que de façon limitée car elle conduit à des décisions
irréversibles et met en balance droit de la concurrence et droit de
propriété, au fondement de la concurrence.


                              Après l’accès ?

Au cours de la décennie passée, en général au gré de cas d’espèces, des
régulations sectorielles étanches, sous l’impulsion principale du droit de la
concurrence, se sont progressivement focalisées sur un enjeu majeur de la




                                     10
                      Contrôler l'accès : entre stratégies industrielles et régulations publiques




société de l’information : l’accès. Oscillant entre transparence et obstacle
et leurs dérivés – pluralisme, ouverture, compatibilité, etc. ou
verrouillage, fermeture, propriétés, etc. – elles semblent converger vers
des points d’équilibre entre principes parfois contraires. Elles ne tranchent
surtout pas entre les avenirs de l’économie de la société de l’information
traversés par des dynamiques contradictoires. Elles ont veillé aussi,
indirectement le plus souvent, à rendre possibles les conditions de
maintien de domaines publics.

Mais, c’est principalement des usages et des progrès techniques que
semblent dépendre les futures orientations des régulations. Parallèlement
en effet au déploiement d’une convergence des régulations d’accès, à la
fois comme objectif ou comme remède, les usages ont révélé de nouvelles
formes d’accès ou de concurrence sur de nouveaux réseaux. Ils
manifestent surtout un déplacement de la rareté et des stratégies de
concurrence qu’elle permet. Dans le domaine des contenus notamment, un
déplacement des ressorts de la rareté et de la distribution contrôlée s’est
effectué avec rapidité au profit de l’abondance et la pluralité des modes
d’accès (supports, réseaux, mobilité, etc.). Au moins dans le domaine des
médias de masse interactifs et communautaires, une partie des questions
soulevées par l’accès s’est donc recentrée sur des questions relatives à
l’information sur les contenus (cascades informationnelles), les systèmes
partagés de création de contenus et de connaissance, les formes d’édition
et de distributions décentralisées, les moteurs de recherche, etc. Au
moment où les régulations classiques ont largement engagé leur mise en
cohérence sur la question de l’accès, il est bien possible que le
renouvellement de la question de l’accès soit lui aussi engagé mais doive
toujours choisir entre la transparence et l’obstacle.




                                          11