Mémoire Master 2 SIIN
D511
- Etudes et Recherche
Thème :
LES APPORTS DU WEB 2.0 SUR LES FUTURS SITES WEB, LES
ENJEUX DANS LA RELATION CLIENT ET LES IMPACTS SUR LES MODÈLES
ÉCONOMIQUES
Présenté par
ZIE FOMEKONG Dany Stéphane
Encadré par
M.
Richard
CHAIGNEAU
Année académique 2009/2010
Table des matières
Introduction
3
I. Web 2.0 :
états des lieux et perspectives
4
1. Comprendre le web 2.0
4
a. Historique et définition
4
b. Le panorama des techniques et
technologies utilisés par le web 2.0
5
c. Web 2.0 : concepts pratiques et
technologiques
11
d. Web 2.0 : Point de vue social
13
2. Les principaux type de sites web 2.0
14
a. Les plateformes de blogs et de Réseau
sociaux
14
b. Les interfaces de partages d'images et de
Vidéos
18
c. Partage et agrégateur
d'actualités
23
d. Les RIA
24
d. Les applications composite, ou Mashups.
27
e. Les espaces personnalisés en lignes
29
3. Evolutions probables
30
a. Blog 2.0 : Vous-même êtes votre
propre marque
30
b. Social Shopping 2.0 : Nous sommes tous des
commerçants
31
c. Réseaux sociaux 2.0 : des millions d'
«amis » à portée de clic
31
d. Contenus multimédia 2.0 : Tous des
directeurs de programmation
32
e. Mashup 2.0 : Vous êtes votre propre
directeur informatique
32
II. Impact sur les modèles
économiques et CRM 2.0
34
1. Les modèles économiques
34
a. E-Publicité 2.0
34
b. Libre-service et de participation de
l'utilisateur
35
c. L'ouverture des services : disponibilité
d'API et création de MashUp
36
d. Les limites
36
2. L'évolution du e-Commerce et du
e-Commerce
37
a. Le e-commerce 2.0
38
b. Blog de marque
39
3. Stratégie marketing et CRM
41
a. Crowdsourcing et pronétariat
41
b. CRM 2.0
43
4. Les enjeux juridiques du Web 2.0
44
a. Le problème des droits d'auteurs dans les
sites de partages
44
Conclusion
46
BIBLIOGRAPHIE
46
Webographie
47
What Is Web 2.0
48
ANNEXES
48
Annexe 1 : Traduction française de
l'article fondateur du web 2.0 de Tim O'Reilly
49
Annexe 2 : exemples de services revendiquant
l'approche Web 2.0
66
Annexe 3 : exemple de fichier CSS
68
Annexe 3 : exemple de contenu XML
69
Introduction
En quelques années, Internet et son utilisation s'est
entièrement emparé de notre vie au quotidien, immergeant ce qu'il
faut sans doute qualifier de révolution. Cette
révolution-là, contrairement à beaucoup de celles qui ont
précédé, est une révolution de l'information et de
la communication, qui entraîne un changement fondamental dans les
habitudes avec notamment de nouveaux agissements, de nouvelles façons de
penser, de vivre, d'échanger avec les autres.
Sur ce plan, le Web 2.0 et ses différentes technologies
novatrices a assurément favorisé la montée en puissance du
web qui se veut désormais plus collaboratif. Ceci a été
rendu possible principalement en plaçant l'utilisateur au centre des
services en line.
Dans son article «Qu'est-ce que le web 2.0 ?»
publié sur son site le 30 septembre 2005, Tim O'Reilly pose ainsi les
bases et dessine les enjeux cette révolution du web. Les technologies
Web 2.0 sont source de nouveaux applicatifs sur les sites, d'une ergonomie
améliorée et innovante pour un confort utilisateur
accentué et surtout une interaction plus concrète. Elles
favorisent alors la montée en puissance d'un Web qui se veut plus
collaboratif, plaçant l'utilisateur au coeur des services en ligne.
Le web 2.0 dont les concepts, technologies et impacts
économiques seront passés en revue dans cette étude,
prône la mise en collaboration des multiples ressources, tant
technologiques qu'humaines, qui sont à la base du trafic et des
interactions sur la toile. Les exemples sont légions, nous pouvons
simplement citer les plates formes très connues comme Youtube,
Facebook, Twitter ou Dailymotion qui permettent à l'internaute
d'être au centre de l'information.
Comment expliquer cet engouement, cet avènement
des nouvelles technologies de l'information et de la communication ? Comment
décrypter et faire la part entre mode et nouvelles relations de
l'individu au monde et aux autres ? Blogs, flux RSS, wiki, podcasts
font désormais partie de notre lexique mais quel est leur
impact sur les différents acteurs sociaux et économique du web
? Quelles possibilités offrent les nouveaux supports de diffusion ?
Le web 2.0 dans ce sens ouvre une multitude d'inforoutes dans un contexte de
réappropriation du web par ses utilisateurs et donne par ce fait
matière à réflexion pour en déceler le coeur de
cette révolution.
A toute révolution associé sa marge de contre
sens et autres déformations, il s'agira t-il de déceler les
fausses promesses et les vrais rêves qu'apporteront les innovations du
web 2.0 au sein de la communauté des utilisateurs d'Internet.
Nous ferons dans un premier temps un réel état
des lieux, en étudiant premièrement les concepts et
définitions. Nous détaillerons aussi les différents
types de services, les technologies et évolutions probables du Web
2.0. Dans un second temps, nous nous pencherons sur les questions et enjeux
économiques, notamment l'impact du web 2.0 sur les modèles
économiques.
I. Web 2.0 :
états des lieux et perspectives
1. Comprendre le web 2.0
a. Historique et définition
L'explosion de la bulle internet en 2001 a
définitivement marqué un tournant dans l'histoire du web.
Beaucoup de gens ont à ce moment considéré que le web
était une technologie surévaluée alors qu'au contraire, le
fait qu'une bulle se forme puis éclate est un trait commun à
toutes les révolutions industrielles. Ces soubresauts sont même
caractéristiques du moment où une technologie ascendante est
prête à entrer dans une nouvelle phase. C'est en effet le moment
où les simples prétendants arrivent à bout de souffle
tandis que les points forts des premiers gagnants apparaissent : et c'est
seulement à cet instant que l'on commence à comprendre ce qui
distingue les premiers des seconds.
Le concept de web 2.0 est apparu avec une conférence
« brainstorming » entre O'Reilly et Medialive
International1. Dale Dougherty, pionner du web et membre
d'O'Reilly notait alors que bien loin de s'être effondré, le web
n'avait jamais été aussi important et que nombre de nouveaux
sites et applications à caractère innovant apparaissaient avec
une régularité déconcertante. De plus, les quelques
sociétés qui avaient survécu à l'hécatombe
semblaient avoir quelque chose de commun. Se pouvait-il que le crack des «
dot com » eût révélé une nouvelle ère
pour le web au point que l'expression « web 2.0 » ait un sens ? Nous
sommes alors tombés d'accord sur le fait que cela en avait un : la
conférence web 2.0 était née.
A l'issue de ce brainstorming, les conférenciers
ont différenciés les sites et services dits `web 1.0' de
ceux estampillées `web 2.0'. Par exemple les équivalents
des sites personnels sont les blogs, l'équivalent de mp3.com est
Napster, etc... Ces différences ne se sont pas arrêtées
aux sites seuls mais également aux grandes familles de services
liées aux web. Par exemple la spéculation sur les noms de
domaines, opérées pendant les années 1990, a fait
place au marché grandissant du référencement, les
systèmes de gestion de contenu (encyclopédies en ligne)
ont été progressivement remplacés par des wiki. Ceux-ci,
popularisé par Wikipedia permettent aux membres d'un groupe social,
une entreprise par exemple, de proposer des définitions aux
termes utilisés par le groupe sans en référer à un
rédacteur centralisé. Cette première prise de conscience
par des chercheurs des évolutions possibles du web sont
présentées en annexes, Tim O'Reilly ayant publié un
article qui concentre les idées et concept de base.
Concrètement, le concept web 2.0 n'a jamais eu de
réelle définition par les instances supérieures, comme
le W3.
1What is Web 2.0 by Tim O'Reilly
http://www.eutech-ssii.com/ressources/1
On peut résumer le "concept" Web 2.0 en deux aspects :
l'un qui est technique et l'autre qui est plus lié à la
communication et le partage.
· Au niveau technique le Web 2.0 correspond à ce que
l'on peut appeler les interfaces enrichies (Ajax, Flash, Ruby on Rails...) Tous
ces outils techniques, on pour but de faciliter la navigation et
l'ergonomie ;
· Au niveau communication cela correspond au partage et
à la diffusion d'information (blog, RSS, utilisation d'api, portail
communautaire, forum, folksonomie, wiki...) mais aussi au marketing viral.
Il y a une volonté certaine de redonner le pouvoir aux
utilisateurs, les internautes deviennent acteurs c'est ça la philosophie
du Web 2.0.
b. Le panorama des techniques et
technologies utilisés par le web 2.0
Pour implémenter ces nouvelles technologies les
développeurs et concepteurs multimédias ont à leur
disposition plusieurs nouveaux langages de programmation, principalement
l'AJAX, le XML et le Ruby. Ces langages sont utilisés par les
machines pour communiquer entre elles, et de nouvelles architectures
sont mises en place comme REST et SOAP. De plus, il faut également
préciser qu'en plus du fond, les sites Internet ont évolué
sur la forme. Le Web2.0 a ainsi vu l'émergence de nouvelles normes
graphiques pour les nouveaux sites Internet.
Tous ces éléments ont pris forme sur plusieurs
media différents qui là aussi sont apparus petit à petit :
on parlera de blogs (journal intime publique sur une personne, un thème
ou autre) mais aussi de wiki (qui sont des sites mis à jour directement
par les internautes).
Enfin ces architectures permettent l'émergence de
concepts jusqu'ici inconnu comme les flux RSS, les applications Internet riches
et les mashups.
· Les nouveaux langages
- AJAX
Ajax, ou Asynchronous Javascipt And XML, est un acronyme
désignant une solution informatique libre pour le développement
d'applications Web2. AJAX n'est pas à proprement
parler un langage, mais consiste en l'utilisation conjointe du XML,
des CSS et de JavaScript.
2 Le développement web avec AJAX
-
http://www.ak-project.com/spip.php?article82
Cet ensemble permet de créer des interfaces riches sans
avoir à rafraîchir la page internet où vous vous trouvez
pour accomplir une action.
Les applications Ajax sont compatibles avec la plupart des
navigateurs actuellement utilisés par la majorité des internautes
: Internet Explorer, Firefox, Safari, Opera, Konqueror, Mozilla...
Le nombre de ces applications accessibles sur le Web a
littéralement explosé depuis leur apparition, en 2005 : deux
millions de nouvelles pages reposant sur cette technologie sont en effet mises
en ligne chaque semaine2.
Même si le terme AJAX est employé depuis 2005,
les éléments qui le composent et leur utilisation sont
antérieurs. L'objet XMLHttpRequest par exemple (aussi nommé
XMLHTTP), point de départ de cette technique, fut
développé par Microsoft en tant qu'objet ActiveX en 1999.
Néanmoins son utilisation n'est pas plébiscitée par
toute la communauté des développeurs, en raison notamment de sa
difficulté à être appréhendé et de sa non
prise en compte des standards de navigation et d'accessibilité.
- XML
XML (entendez eXtensible Markup Language et traduisez Langage
à balises étendu, ou Langage à balises extensible) est en
quelque sorte un langage HTML amélioré permettant de
définir de nouvelles balises. Il s'agit effectivement d'un langage
permettant de mettre en forme des documents grâce à des balises
(markup).
Contrairement à HTML, qui est à
considérer comme un langage défini et figé (avec un nombre
de balises limité), XML peut être considéré comme un
métalangage permettant de définir d'autres langages,
c'est-à-dire définir de nouvelles balises permettant de
décrire la présentation d'un texte.
La force de XML réside dans sa capacité à
pouvoir décrire n'importe quel domaine de données grâce
à son extensibilité. Il va permettre de structurer, poser le
vocabulaire et la syntaxe des données qu'il va contenir.
XML a été mis au point par le XML Working Group
sous l'égide du World Wide Web Consortium (W3C) dès 1996. Depuis
le 10 février 1998, les spécifications XML 1.0 ont
été reconnues comme recommandations par le W3C, ce qui en fait un
langage reconnu. (Tous les documents liés à la norme XML sont
consultables et téléchargeables sur le site web du W3C,
http://www.w3.org/XML/)
3.
XML est un sous ensemble de SGML (Standard Generalized Markup
Language), défini par le standard ISO8879 en 1986, utilisé dans
le milieu de la Gestion Electronique Documentaire (GED). XML reprend la majeure
partie des fonctionnalités de SGML, il s'agit donc d'une simplification
de SGML afin de le rendre utilisable sur le web !
3
http://www.commentcamarche.net/contents/xml/xmlintro.php3
Evolution du langage SGML permettant aux concepteurs de
documents HTML de définir leurs propres marqueurs, dans le but de
personnaliser la structure des données qu'ils comptent présenter.
Le XML est une recommandation du W3C. L'objectif initial de XML était de
faciliter le partage de textes et d'informations structurées, par
exemple au travers de l'Internet, en séparant le contenu (les
données) du contenant (la présentation des données)
3.
- Ruby on Rails
Le Ruby a été crée au japon, par Yukihiro
"Matz" Matsumoto en 19934. La première version a
été publiée en 1995. Son auteur voulait un langage
à la fois simple comme le Python mais aussi flexible comme le Perl. Ruby
est un langage de script orienté objet. Il a été
conçu pour le web. L'une de ses principales caractéristiques est
d'être intégralement orientée objet. Il s'agit d'un
langage serveur, comme PHP, qui permet de créer des interfaces
très facilement et très rapidement, au contraire de PHP
qui nécessite de longues heures de développements. Parfaitement
adaptée aux exigences des nouveaux services qui doivent
bénéficier d'une grande réactivité, son essor
est grandissant dans la communauté. Malgré ses nombreuses
qualités, il manquait à ce langage un environnement de travail,
un Framework puissant, exploitant ses nombreuses possibilités. Ruby on
rails s'est présenté comme le candidat idéal. Il en
résulte des sites qui proposent des interfaces riches en
fonctionnalités, pourvues d'une forte interactivité, illustrant
bien le concept web 2.0.
- CSS
Afin de simplifier la programmation mais aussi
améliorer le graphisme et donc l'ergonomie des sites internet, la
séparation du contenu d'un site se sa forme propre s'est vite
révélée indispensable. Les feuilles de styles en cascades
(Cascading styles sheets, CSS) sont le système aujourd'hui
standardisé de mise en page des pages web, utilisés par
la majorité des concepteurs web. Elles leurs permettent de mettre en
place une mise en page
- XSL
Un fichier XSL (eXtending Stylesheet Language) est une
feuille de style CSS améliorée. Ce format permet la
création de template (modèles de pages) qui,
utilisées avec les données d'un fichier XML permettent
l'affichage d'une page web complète. Les feuilles de styles XSL
étendent l'effet des CSS à la création de calques
ou de tableaux contenant un certain type d'information. De plus les
développeurs peuvent programmer sommairement certains aspects,
grâce à une syntaxe fonctionnelle, permettant de créer des
boucles afin d'automatiser certaines mises en page. On aura ainsi un
fichier XML contenant les articles d'un journal, une feuille de style XSL
positionnant cet article dans la page, et une feuille de style CSS
gérant l'aspect du texte.
4
http://blog.aysoon.com/66-ruby-on-rails-dossier-complet-pour-tout-comprendre-sur-cette-techno-pahre-du-web20
· Nouvelles architectures réseaux
- REST
REST, acronyme de Representational State Transfer, est une
technologie développée par Roy T. Fielding en 2000 dans sa
thèse « Architectural Styles and the Design of
Network-based Software Architectures »5. REST
est un modèle définissant l'architecture du web,
bâtie sur quatre principes fondamentaux. Connaître l'URI
(l'URI est l'identifiant de ressource Internet, généralement
une adresse web) doit suffire pour accéder à
l'information, le protocole HTTP doit être à même de
fournir toutes les informations, chaque opération doit être
auto suffisante et les standards hypermédias doivent être
utilisés. Cette architecture n'est pas limitée aux sites
Internet, elle est de plus en plus utilisée par les développeurs
pour faire communiquer des machines entre elles. En effet, elle reste
simple, compréhensive par des systèmes très
différents. L'information de base, dans une architecture REST, est
appelée ressource. Toute information qui peut être nommée
est une ressource : un article d'un journal, une photo, un service ou
n'importe quel concept. Dans un système hypermédia, une ressource
est tout ce qui peut être référencé par un lien.
Enfin, les composants de l'architecture manipulent ces ressources en
transférant des représentations de ces ressources. Sur le web, on
trouve aujourd'hui le plus souvent des représentations au format HTML ou
XML. Par exemple, les services d'Amazon et de Flickr sont bâtis sur des
architectures REST.
- SOAP
SOAP est l'autre standard d'architecture utilisé
par les nouveaux services web. Développé par Microsoft et
IBM, son utilisation est recommandée par le W3C. Le protocole
SOAP bâti sur XML différencie l'enveloppe de l'information, et
un modèle de données contenant les informations à
transmettre. Il permet la transmission de messages entre objets distants, ce
qui veut dire qu'il autorise un objet à invoquer des méthodes
d'objets physiquement situés sur un autre serveur. Le transfert se fait
le plus souvent à l'aide du protocole HTTP, mais peut également
se faire par un autre protocole, comme SMTP.
5
http://www.clever-age.com/veille/clever-link/soap-vs.-rest-choisir-la-bonne-architecture-web-services.html#titre4
· Nouvelles applications
- Les RIA (Applications Internet Riches)
Rich Internet Application (RIA), ou Application
Internet riche, est une application web qui offre des caractéristiques
similaires aux logiciels traditionnels installés sur un ordinateur. La
dimension interactive et la vitesse d'exécution sont
particulièrement soignées dans ces applications web
6.
Les RIA, terme introduit par Macromédia en 2002
déjà, proposent depuis ce temps d'utiliser des applications web
avec l'ergonomie des applications de bureau. Les plus étonnantes de
ces applications sont développées en Flash, mais elles peuvent
l'être en Ajax, voir dans d'autres technologies qui seront avec le temps
implémentées sur les navigateurs modernes : SVG (Scalable Vector
Graphics, format de fichier basé sur XML permettant de décrire
des ensembles de graphiques vectoriels.), XUL (XML-based User interface
Language, langage de description d'interfaces graphiques basé sur XML
créé dans le cadre du projet Mozilla), ...
- Les Mashups ou applications Web
composites
Produit Web 2.0 type, les mashups se proposent de bâtir
de nouvelles applications et de mutualiser les contenus en s'appuyant sur des
services déjà existants. Traduisible en français par
"mixage" ou "fusion", le mashup consiste à agréger au sein d'une
même application (ou service Internet) des contenus ou services extraits
d'un ou plusieurs autres sites Web. Les mashups, qu'ils s'agissent
d'applications Web ou de sites Internet, sont également nommés
sites hybrides ou encore mutants.
Les mashups sont donc pleinement dans la mouvance du Web 2.0
et placent l'utilisateur, ou plus particulièrement les
développeurs, au coeur de ce qui est présenté comme le
nouvel Internet, en lui permettant de personnaliser des interfaces Web,
d'extraire et d'agréger librement des contenus.
Un grand nombre d'interfaces web 2.0 mettent à
disposition des développeurs indépendants des fragments de
leur codes sources. En utilisant ces fragments les développeurs
peuvent mixer différents services entre eux afin de créer
une nouvelle application composite. C'est le cas d'Amazon, Flickr ou
Google, qui ont donné lieu à de nombreuses applications
nouvelles, comme la Flickr Clock ou Veni Vidi Wiki, exemples que nous
analyserons plus loin.
6
http://fr.wikipedia.org/wiki/Rich_Internet_Application
- Le RSS
RSS est l'acronyme de `'Really Simple Syndication''.
La syndication de contenu désigne la possibilité de
republier sur un site Web de façon automatisée du contenu
provenant d'un autre site Web7
RSS est un format d'échange de données,
défini en XML, permettant de décrire un contenu Web, et plus
généralement toute page qui présente un contenu mis
à jour chronologiquement, à l'aide de balises
spécifiques.
Les fils RSS sont des flux de contenus gratuits en
provenance de sites Internet. Le fil RSS est en fait un simple fichier texte au
format XML, généré automatiquement au fur et à
mesure de la publication de nouvelles actualités, et comprenant les
titres des articles, des résumés et des liens vers les articles
intégraux à consulter en ligne. Les articles associés
à un flux RSS, sont des articles produits régulièrement
qui peuvent être ceux publiés sur l'ensemble d'un site web ou ceux
produits dans le cadre d'une rubrique du site ou encore, par exemple, ceux
postés dans un
blog. Il est ainsi possible
de générer, pour un site, plusieurs fils RSS. Le fichier du fil
RSS a sa propre URL et est repérable sur le site par une petite
icône orange spécifique portant le label
ou
ou
ou encore
.
-
Folksonomy, tags et social bookmarking
Folksonomy est un
mot-valise issu de la contraction des mots folks ("potes" en français)
et taxonomy ("taxinomie" en français, la science du classement). Il
s'agit d'une méthode de classification collaborative de contenus Web,
via des tags (étiquettes en français), réalisée par
une communauté d'internautes. Le but est de faciliter la recherche et
l'identification des contenus. Cette méthode de classement
réintroduit un facteur humain et une part de subjectivité dans
les processus de recherche d'information sur Internet.
L'ensemble des
tags peut-être rassemblé dans un tag cloud, c'est-à-dire un
nuage de mots qui affiche les tags qui ont été les plus
utilisés dans un laps de temps donné. La taille des mots y est
proportionnelle à la fréquence de leur utilisation par les
internautes, ce qui permet d'identifier en un clin d'oeil les sujets
chauds.
Le social
bookmarking (en français « marque-page social », «
navigation sociale » ou « partage de signets ») est une
façon pour les internautes de stocker, de classer, de chercher et de
partager leurs liens favoris.
7
http://wiki.univ-paris5.fr/wiki/Fil_RSS
c. Web 2.0 : concepts pratiques et
technologiques
La principale caractéristique du web 2.0 est
qu'il utilise est basé sur l'utilisation de technologies
déjà existantes et sûres. De ce fait il ne constitue pas
en soi une révolution technologique mais une succession
d'évolutions. Il est à noté que la principale contrainte
des développeurs étant le parc de navigateurs
installés sur les machines des internautes, leur souci a
toujours été de développer des applications accessibles
aux plus grands nombre.
- Structuration de l'information, des données
à valeur ajoutée
Un ensemble de technologies (telles que celles du "web
sémantique" qui enrichit le web de contenu assimilable par la machine et
celles associées à l'agrégation-syndication-flux RSS)
permettent de relier les informations, d'agréger ou de partager des
services et des contenus, de refondre les interfaces, de participer à
des espaces collaboratifs, de personnaliser sa pratique de l'Internet et de
prendre part plus facilement à son développement.
- Une interactivité toujours plus
grande
Renouveau des interfaces utilisateurs des sites web.
Interfaces riches, Rich media (intégration de la vidéo et de
l'audio). Les technologies AJAX et FLASH enrichissent les interfaces
utilisateurs de fonctionnalités nouvelles. Ajax aide la fluidité
de navigation en évitant des rechargements de pages lorsque l'on modifie
certains éléments. Il rend également possible les
"glisser-déplacer" d'objets tout comme dans les environnements de type
Windows. Le web devient encore plus interactif.
- Interopérabilité
Le web 2.0 combine des architectures plus flexibles, des
protocoles de communication plus ouverts (Web Services) avec notamment REST et
SOAP, une interopérabilité plus poussée, une
amélioration des interfaces utilisateurs d'un point de vue ergonomique
et sémantique qui donnent des résultats d'une grande souplesse
d'utilisation.
- Modularité
Les applications et services fournis par divers sites sont
autant de briques d'application qui peuvent, grâce aux Web Services les
rendant interopérables, être recombinées à loisir
à d'autres fonctionnalités pour composer, créer de
nouvelles application, pour proposer de nouveaux services. Ainsi, les (mashups)
ajoutent des couches plus pratiques et fonctionnelles au web. L'avantage pour
les utilisateurs est immédiat : disposer d'un guichet unique pour
consulter différents services.
- Montée en puissance des applications
bureautique en ligne
Microsoft a bien senti le renversement de situation en cours
avec son ambitieux programme Office Live, ainsi que Google, avec sa plateform
en ligne "Google Docs"8 : l'avenir n'est plus aux
applications autonomes installées sur le poste des utilisateurs mais
plutôt aux applications en ligne qui seront facturées à la
demande. Ainsi, de nouveaux services en ligne ont fait leur apparition (Suite
bureautique, traitement de texte, tableur, création de diagrammes,
client email, gestion de calendrier, gestion de projet).
A terme, les services de Web 2.0 pourraient remplacer les
applications bureautiques. Les logiciels utiles se libèrent d'une
plate-forme spécifique. Ils deviennent accessibles partout et sur tout
support. Vers plus de mobilité.
- Une mutation perpétuelle des
services
La version beta d'un service n'est plus une étape vers
une version figée : elle devient la situation "stable" d'un service en
changement dynamique. Elle est mise en ligne alors même qu'elle est en
cours d'évolution. Cela permet de générer du buzz autour
de ses nouveaux services, d'avoir des béta testeurs, de faire
évoluer le service et ses infrastructures petit à petit
(grâce notamment à l'analyse du comportement des internautes face
aux nouvelles fonctionnalités proposées au fur et à
mesure).
- Une démarche open source à travers le
développement participatif :
Une grande partie de l'infrastructure du web elle-même
repose sur les méthodes de production individuelle de l'open-source qui
sont, elles aussi, une émanation de l'intelligence collective. Les
utilisateurs deviennent des co-développeurs.
8 Découvrez Google Docs
http://www.google.com/google-d-s/intl/fr/tour1.html
d. Web 2.0 : Point de vue social
Sur un aspect purement social, le web 2.0 représente le
partage de l'information, fondé sur des bases de données ouvertes
qui permettent à d'autres utilisateurs de les employer.
Le web 2.0 mêle le global au local
("glocalisation9"). Il donne aux gens la possibilité
de trouver, organiser, partager et créer de l'information d'une
manière à la fois personnelle et globalement accessible. La
création de contenu provient de plus en plus des particuliers. Flux rss,
Blogs, podcasts, vidéocasts, échange de fichiers, utilisation
d'api, portail communautaire, forum, tags, commentaires, folksonomie, wikis,
services interactifs : l'internaute participe activement au lieu de consommer
passivement, il devient acteur et rédacteur.
En facilitant toutes ces formes de partages le web 2.0
favorise la création de communautés et la mise en place de
réseaux sociaux. Le web 2.0 devient véritablement une partie de
la vie des citoyens, et non plus seulement un outil dont on se sert pour
effectuer une recherche spécifique. Des études de
même nature avaient eu lieu lors de l'apparition d'autres
nouvelles technologies de communication, comme la radio, promettant que
les liens sociaux allaient se retrouver bouleversés. Ce n'a jamais
été le cas, mais peut on dire que ca ne le sera pas non plus avec
l'arrivée du web 2.0 ? Les bouleversements sont déjà la,
sur toutes les facette de la communication, artistique, économique,
politique, etc...
A l'origine, en 2003, c'est surtout l'aspect
technologique qui caractérisait l'appellation web 2.0, le but
étant de faire évoluer l'Internet en mettant à disposition
de l'internaute de nouvelles applications lui permettant de
personnaliser sa pratique de ce média. Ici, le modèle
économique rejoint celui des autres produits qui tendent à
être de plus en plus personnalisables. (Téléchargement
de sonneries sur téléphone portable, tuning,...) Comme
expliqué plus haut, ce sont surtout les flux RSS qui
permettent d'afficher sur une même page des informations provenant
de multiples sources (Netvibes) ainsi que la mise en place d'espace
collaboratifs (Wikipedia) qui sont les plus utilisés. La meilleure
illustration du web 2.0 est, selon les observateurs qualifiés,
l'explosion des blogs. Aidée par une architecture technique telle que
celle développé plus haut, ceux-ci permettent à un
simple internaute lambda de créer son propre site, et surtout
de pouvoir avoir un retour direct sur ses articles grâce au
système du commentaire.
L'internaute devient ainsi à la fois acteur
spectateur et commentateur. La démarche n'est plus commerciale,
le but est uniquement le partage d'idées et de documents, du
moins dans l'idée des premiers analystes. Abraham
Lincoln parlait de « gouvernement du peuple par le peuple et
pour le peuple », Le Web 2.0 Serait donc « le Web
par le peuple, pour le peuple ». De même les
technologies utilisées pour arriver à ces résultats
sont la plupart du temps issues de l'informatique libre, et donc
gratuites. La triple casquette de l'internaute le rend capable de
créer son propre site personnalisé, grâce à des
outils type.
9 Glocalisation -
http://wiki.univ-paris5.fr/wiki/Glocalisation
2. Les principaux type de
sites web 2.0
De l'action de mettre à contribution l'internaute et de
la placer au coeur d'un contenu désormais modifiable et
évolutif, diverses applications sont ainsi rendus possibles partant de
ce principe. Nous allons faire un étude de cas selon les grandes
thématiques de typologies de sites web 2.0 en recensant les services les
plus en vue.
a. Les plateformes de blogs
et de Réseau sociaux
Facebook
Avec ses 250 millions d'utilisateurs dans le monde, 5 millions
de membres en France, Facebokk est assurément la plateforme de
réseau social la plus prolifique. Mark Zuckerberg, le jeune (25 ans)
fondateur de facebook, l'a annoncé aujourd'hui sur son blog le jeudi 15
juillet 2009 10. Le service affichait 200 millions "d'amis"
au début du mois d'avril, ce qui signifie que le nombre d'utilisateurs a
progressé de 50 millions de nouveaux inscrits en à peine plus de
trois mois. Un rythme de croissance qui ne fléchit pas, puisque les
paliers de 50 millions d'utilisateurs supplémentaires s'enchaînent
de manière de plus en plus rapprochée.
Facebook est donc un site Web de réseautage social
créé par Mark Zuckerberg et destiné à rassembler
des personnes proches ou inconnues. Depuis septembre 2009, il rassemble plus de
300 millions de membres à travers la planète.
Il est le 2e site le plus visité au monde selon Alexa
Internet11 (après google.com). Facebook est
né à Harvard : il est à l'origine le réseau social
fermé des étudiants de cette université avant de devenir
accessible aux autres universités américaines. La
vérification de la provenance de l'utilisateur se faisait alors par une
vérification de l'adresse électronique de l'étudiant. Le
site est ouvert à tous depuis septembre 2006.
Le 2 octobre 2008, Facebook annonce qu'il va implanter son
siège international à Dublin, en Irlande (pour les marchés
européen, africain et moyen-oriental). Le 9 octobre 2008, Facebook
annonce qu'il va ouvrir un bureau à Paris.
Le nom du site s'inspire des albums photo (trombinoscope ou
facebooks en anglais) regroupant les photos prises de tous les
élèves durant l'année scolaire et distribuées
à la fin de celle-ci aux collégiens, lycéens et
étudiants.
10
http://blog.facebook.com/blog.php?post=106860717130
11 Statistiques sur les sites interne
http://www.alexa.com/
Comme application de réseau social, Facebook permet
à ses utilisateurs d'entrer des informations personnelles et d'interagir
avec d'autres utilisateurs. Les informations susceptibles d'être mises
à disposition du réseau concernent l'état civil, les
études et les centres d'intérêt. Ces informations
permettent de retrouver les utilisateurs partageant des mêmes centres
d'intérêt. Ces derniers peuvent former des groupes et y inviter
d'autres personnes. Les interactions entre membres incluent le partage de
correspondance et de documents multimédias.
Si le plus grand réseau social du web a
rencontré son public, le modèle économique semble moins
lucratif que prévu. En cause, les tentatives de publicité
basées sur l'analyse des données personnelles, qui ont
suscité une levée de boucliers de la part des utilisateurs. Ils
ont jugé ces nouveaux formats publicitaires trop intrusifs. La
polémique s'est apaisée avec le temps et un assouplissement du
système. Depuis, le site commence à réaliser des
bénéfices.
En novembre 2007, Microsoft avait versé 240 millions de
dollars pour s'approprier 1,6 % du capital de Facebook 12.
Cette participation plaçait alors la valorisation potentielle du site
à 15 milliards de dollars. Un chiffre colossal, dont on se demande
aujourd'hui s'il ne se réduisait pas à un simple écran de
fumée. Un fond russe, Digital Sky Technologies (DST), a lancé une
offre de rachat d'action en direction des 900 employés du réseau
social. S'il réussit son opération, il détiendra 3,5 % de
facebook, valorisant le site à 6,5 milliards de dollars, soit un peu
moins de la moitié de ce qui avait été annoncé il y
a deux ans.
Myspace
Myspace est un site créé aux Etats Unis dont la
fonction première est la création de réseaux sociaux
entre ses membres. Les membres enregistrés ont ainsi
accès à un espace web paramétrable leur permettant de
créer leur propre page personnelle. Fondé par Tom Anderson et
Chris DeWolfe, son énorme succès en Amériques a
intéressé Rupert Murdoch, propriétaire du groupe News
Corp, qui l'a acheté en juillet 2005 pour 580 millions de
dollars. En juillet 2006 il était le site web à
posséder le plus d'utilisateurs enregistrés, 90 millions.
Myspace est une plate forme permettant à chacun de créer son
propre espace sur Internet et de se faire connaître de la
communauté. Grâce à un système de messagerie
permettant aux membres de communiquer directement grâce à
l'interface du site, et d'ajouter des amis en visitant leurs pages
personnelles, il permet très facilement et rapidement de se
constituer un réseau de connaissances. Les pages personnelles
des différents membres permettent d'afficher des articles de
types blogs, c'est-à-dire des textes, des photos, des vidéos,
et surtout des compositions musicales. On assiste ainsi à une
augmentation de la création de Myspace de groupes de musiques,
souvent au détriment des sites traditionnels. En effet grâce aux
systèmes d'ajout de contact, les fans des groupes présents
peuvent se sentir important en ajoutant comme amis les membres de leur groupe
favoris.
12
http://www.lepoint.fr/actualites-technologie-internet/2009-07-16/facebook-250-millions-de-membres-et-beaucoup-de-questions/1387/0/361779
L'exemple le plus célèbre est celui du groupe
TTC, qui a créé son Myspace et a basé toute sa
communication sur Internet par ce média. Cette stratégie
inédite lui a permis de créer un buzz sur ses membres et de
gagner en popularité très rapidement sans disposer au
début de site web. Les premiers fans du groupes ont ainsi pu faire
partie des `amis' des membres, faire écouter les chansons à leur
propre communauté et faire connaître de plus en plus ce groupe,
qui aujourd'hui bénéficie d'une popularité
grandissante.
Twitter
Twitter est le symbole de cette génération de
sites qui minent peu à peu le colosse de la publication de blogs
traditionnels. En effet, Twitter, comme d'autres sites similaires, permet de
poster un microarticle de 140 caractères maximum répondant
à la question « Que faites-vous en ce moment ? ».
L'inscription est très rapide et l'internaute peut
inviter ses collègues et amis à utiliser le service. On peut
choisir de publier ses « twits » de façon publique ou
privée, de s'abonner (suivre) d'autres utilisateurs et de gérer
les utilisateurs qui s'abonne à votre flux. L'utilisation peut se faire
à partir du site d'accueil, de plusieurs sites qui permettent de mettre
à jour le statut, et aussi à partir d'un téléphone
mobile.
Une question que l'on est droit de se poser est pourquoi
l'apparition, et surtout la popularité d'un tel service, qui semble
à prime abord inutile. Les créateurs de Twitter ont bien compris
que la majorité des internautes sont de plus en plus fréquemment
à l'affût de la moindre information sur le Web, et d'avoir une
application qui permet de savoir si votre collègue est en retard au
travail ou que vous organisez une fête permet de mieux communiquer ces
informations aux gens concernés.
Là où le bât blesse, malgré la
simplicité implicite de l'utilisation de Twitter, c'est que ce service
surcharge le web déjà saturé de contenu
généré par les utilisateurs. Le micro-blogging rend de
plus en plus obsolète la lecture d'articles de 500 mots en
accélérant la diffusion de contenu informatif, mais en ne le
rendant pas plus valide.
Skyblog
Skyblog est la plus populaire des plateformes
d'hébergement de blogs en France auprès des jeunes.
Lancé en décembre 2002 par la radio française
Skyrock, il dérive légèrement des plates formes
habituelles de blogs par sa simplicité. Son succès
indéniable est maintenant utilisé pour des campagnes
publicitaires, les films ayant pour cible les adolescents ouvrant des
skyblogs en plus de leur site publicitaire habituel. Les
différences avec les interfaces plus traditionnelles comme
Blogspot se situent au niveau technologique mais également social.
Fin mai 2006, on comptait environ 4 800 000 Skyblogs alors que
seuls 2 900 000 comptes Skyrock étaient ouverts. Ainsi une
personne a souvent plusieurs blogs. Les travaux d'Hélène
Delaunay-Téterel ont révélé que 97% des
skybloggeurs étaient des jeunes de 12 à 18 ans mais
surtout que 60% étaient des filles. 13
Du point de vue technologique, les habituelles fonctions de
syndications RSS des commentaires sont absentes. Cette absence peut
sûrement être mis au compte du fait que les flux RSS
permettent à l'utilisateur de ne pas revenir sur le site et donc de ne
plus être exposés a la publicité, ce qui serait
préjudiciable à la plate forme. Néanmoins son
ancienneté et le succès qu'il rencontre la rende
incontournable. La mise en page et la création d'un Skyblog est
très simple : il suffit de se créer un compte Skyrock
et de mettre en page puis en ligne ses articles. Les contenus
diffèrent également des blogs traditionnels. La plupart
étant créés par des adolescents, on trouve peu de blogs
sérieux, mais plus généralement des photos de proches, des
poèmes, etc... Le style d'écriture est souvent de type SMS,
c'est à dire peu respectueux des règles grammaticales et
orthographiques française. L'utilisation de ce langage est
à mettre au crédit des utilisateurs, qui font partie
d'une communauté plus jeune et ayant ses propres codes
linguistiques, on assiste ainsi de la part des rédacteurs de blogs plus
`sérieux' à un rejet des skyblogs. Le but de tout
skybloggeurs est la popularité au sein de la communauté,
mesurable par le nombre de visites, mais surtout de commentaire
l'expression « lâche tes com' » (laisse un commentaire)
revenant souvent. Skyblog est une plateforme commerciale, elle dispose
donc d'un certain nombre d'outils payants à destination des
utilisateurs. On peut ainsi accroître sa popularité en envoyant un
message SMS ou vocal, par téléphone mobile via un
numéro surtaxé permettant d'afficher en page d'accueil un
message et un lien vers son Skyblog. La publicité est
également omniprésente sous forme de bannière ou de
liens commerciaux, type Google Adsense. Les images et les articles
sont hébergés en interne, mais les vidéos
proviennent des serveurs Youtube et Google vidéo. La mise en
page est très rigide, le rédacteur n'ayant accès
qu'à une quinzaine de templates différents, mais aucune
action sur le code source. Néanmoins, l'aspect communautaire
prend le dessus ici, et nous verrons que les internautes ont
réussi de manière très intéressante à
retourner la rigidité originelle à leur propre avantage.
Skyblog est ainsi un parfait exemple de l'appropriation de l'outil
technologique par une communauté. En effet sa simplicité a
forcé les utilisateurs à trouver des manières de
mettre en page de façon plus personnalisée leurs blogs,
on assiste ainsi à une véritable communauté qui
propose de télécharger des codes sources de mise en page
utilisable dans son blog.
On retrouve souvent l'expression `EntreNet' pour
définir ces plates formes ou les technologies reste majoritairement
web 1.0 mais où l'aspect social et communautaire est totalement web
2.0. Skyblog propose plusieurs outils de classification et de
classement des meilleurs blogs. Le but d'un skybloggeur est souvent de
faire partie de ces top, affichés en première page afin
d'augmenter sa popularité. La page d'accueil de Skyblog
présente en premier lieu, juste en dessous du logo, de la
publicité annonçant clairement son statut commercial, et
à but lucratif.
13Source : d'Hélène
Delaunay-Téterel, doctorante à France Télécom
R&D
http://cems.ehess.fr/document.php?id=765
On a ensuite plusieurs encarts présentant les
Skyblogs stars, les publicités envoyées par SMS, une
interface de recherche simple sur les contenus des skyblogs (pas de
gestion des tags), ainsi qu'une sélection de skyblogs officiels.
Ainsi, malgré quelques lacunes au niveau
technologique, cette plate-forme popularise de façon énorme le
web 2.0 et les concepts qui y sont rattachés. Elle
bénéficie d'une assise très forte et permet ainsi
également de montrer à ses détracteurs qu'un
modèle économique basé sur un site communautaire 2.0 est
parfaitement viable.
b. Les interfaces de
partages d'images et de Vidéos
Dailymotion
Dailymotion est un site web français permettant
de partager et de visionner des vidéos diverses et
variées. Il est semblable en ceci à Youtube, mais va
plus loin dans l'utilisation du web 2.0, notamment dans la gestion
des tags. Ce genre de site a un succès certain, Dailymotion
compte plus de 800 millions de pages vues par mois14.
Dailymotion a été créé en
février 2005 par deux développeurs travaillant à
l'origine dans une société d'hébergement, Benjamin
Bejbaum et Olivier Poitrey. Son capital de départ était
de 250 000 euros, apporté par des investisseurs individuels. En
septembre 2006 les deux créateurs ont révélés
que deux fonds d'investissement, Atlas Ventures et Partech
International ont levés 7 millions d'euros, levée de
fonds la plus importante de l'année 2006 pour le web 2.0
français.
Dailymotion utilise comme la plupart de ces outils la
technologie flash, mais à la différence de Youtube, il se
démarque par une interface multilingue et un moteur d'encodage
développé en interne.
Ce type de site est exemplifie tout à fait le
caractère `démocratique' du web 2.0. En effet l'auteur du
site ne met à disposition aucun contenu, aucune information.
C'est l'utilisateur lui même qui ajoute les vidéos qu'il veut
faire partager.
La page d'accueil du site comporte plusieurs encarts,
mis en page de façon typiquement `web 2.0'. Le style graphique
souvent semblable de ces sites fera d'ailleurs l'objet d'une partie
ultérieure de cette étude.
14 source : comScore World Metrix,
Septembre 2009
http://publicite.dailymotion.com/?page_id=9
Le premier outil de recherche est la recherche simple
sur des mots clés, les fameux tags. Lorsqu'on entre un mot clé
dans ce champ, le site effectue une recherche sur les tags
entrés par l'uploadeur de la vidéo.
Jusqu'ici le principe est le même que pour un moteur de
recherche normal. Mais lors de l'affichage de la page des résultats, un
encart nous présente les `hot tags'. Des mots clés connexes
classés de manière visuelle par ordre de
popularité. C'est la que les tags deviennent vraiment un nouveau
mode d'utilisation d'Internet, la classification se faisant par les internautes
eux mêmes sans action d'un quelconque modérateur. (En dehors des
vidéos classées X ou à caractère raciste). Ces tags
se retrouvent en page d'accueil sous la forme d'un encart intitulé
également `hot tags' et mis en forme toujours selon un code couleur
précis correspondant à leur popularité. Lors du clic sur
un de ces liens on accède à une page contenant les
vidéos connexes à ce mot clé. On peut ensuite
préciser sa recherche en ajoutant d'autres tags afin de
réduire le nombre de résultats. Cette recherche intuitive
correspond aux balbutiements du web sémantique, en effet ces
tags permettent d'isoler des ontologies (concepts) plutôt que de
simples mots clés. En effet dans un moteur de recherche
classique, type Google, l'application ne recherche pas les mots
clés ayant des sens s'approchant, mais uniquement des orthographes
proches, lors d'une faute de frappe par exemple.
D'autres outils de recherche existent également. Afin
de renforcer l'aspect communautaire et de fidéliser les utilisateurs,
il est possible de créer sa propre page présentant ses
vidéos, mais également de créer des groupes, des
chaînes (assimilable à des chaînes de
télévision) Ces classifications sont affichées sur la page
d'accueil sous la forme d'une sélection des vidéos dans chaque
catégories, des membres affichées de façon
aléatoire ainsi que des partenaires. Dailymotion met ainsi à
disposition de ces partenaires (Le Monde, Itélé, ...) des espaces
leur permettant de mettre en ligne des vidéos (interviews, etc...)
Youtube
Aujourd'hui, les vidéos sont incontournables sur le
Web. Les grands journaux en agrémentent leurs pages, les chaines
spécialisées se développent pour partager du contenu audio
et vidéo, professionnel comme amateur, et les internautes ne sont pas en
reste car ils sont les plus gros consommateurs et producteurs de vidéos.
Youtube, principalement consulté par un public anglophone, en est encore
le leader mondial.
Beaucoup de services professionnels se
dégagent et produisent des émissions indépendantes,
du contenu sponsorisés avec ou sans publicité
et offrent des plus grandes fonctionnalités que
Youtube. Reste que le site américain est encore le plus
populaire avec plus de 60 millions de visites au mois de mai
200815.
15Selon le site Movers 2.0 utilisant la
technologie Alexa
Fondé en 2005 et racheté par Google en 2006,
Youtube reste encore LE site de référence pour le partage de
vidéo. La recherche se fait avec des mots-clés, « Tags
» utilisés par les utilisateurs, dans la barre de recherche. Depuis
peu la barre de recherche affiche des suggestions de recherches (comme Google).
Les utilisateurs qui téléchargent des vidéos les
regroupent dans des chaines (channels) et n'importe quel internaute peut s'y
inscrire et ainsi être mis au courant des nouvelles vidéos de sa
chaîne favorite.
Les internautes inscrits peuvent voter pour leurs
vidéos favorites, les sauvegarder dans une liste de favoris, composer
leurs « playlists » et commenter les vidéos regardées.
Les vidéos peuvent aussi être téléchargées
à partir d'un téléphone mobile.
Dans l'affichage vidéo, à droite de
l'écran, s'affichent les vidéos du membre qui les met en ligne et
encore des « related vidéos » avec les mêmes
mots-clés. S'affichent aussi des vidéos sponsorisées par
des professionnels et des publicités. Les vidéos peuvent
être visionnées en plein écran mais leur qualité
n'est pas toujours homogène, étant donné le taux de
compression utilisé pour le téléchargement. Une
fonctionnalité intéressante est d'utiliser un code,
présent à droite des vidéos, qui les incorpore dans un
cadre pour les afficher dans des blogs et des forums.
La page d'accueil regroupe les abonnements aux diverses
chaînes, les suggestions de
vidéos basées sur les mots-clés des
favoris et les vidéos commerciales qui sont développés par
des professionnels. Comme beaucoup d'autres sites, Youtube tend à
regrouper plusieurs services sur la même interface. Ainsi, un service de
courriel est disponible pour recevoir les messages d'autres utilisateurs et
suivre leur activité. Le service permet aussi de suivre la trace des
commentaires laissés sous une vidéo, permettant de voir qui a
répondu. Un carnet de contacts permet d'organiser les différents
contacts et de les classer dans des catégories avec des options de
confidentialité diverses.
Plusieurs options sont disponibles pour protéger les
informations personnelles des internautes inscrits, comme la possibilité
de rendre des vidéos accessibles seulement pour les amis et la famille.
Pour ce qui est du contenu, Youtube reste intéressant pour voir un
extrait de concert, vidéo, ou une interview des médias, mais on y
trouve également beaucoup de vidéos personnelles des utilisateurs
qui parlent de leur vie sentimentale, leurs relations. Le fait de pouvoir
interagir directement avec des gens qui parlent de problèmes bien
réels a beaucoup d'attrait pour les internautes, mais il ressort qu'il y
a beaucoup de contenu sans intérêt réel. Le problème
le plus fréquemment rencontré est l'abus des mots-clés
utilisés pour attirer le plus d'auditeurs pour une vidéo ou une
chaîne. Ces mots-clés sont souvent sans rapport avec le contenu
même de la vidéo.
Flickr
Flickr est un site web de diffusion et
de partage d'images. Il est gratuit mais certaines
fonctionnalités sont payantes. Flickr est une interface
totalement web 2, elle utilise de façon complète les
fonctionnalités offerte par les tags et exploite très
bien le concept de folksonomie. Flickr est une interface souvent
utilisée par les blogueurs pour faire partager leurs albums photos.
C'est un des sites les plus symboliques du web 2, qui a dépassé
en février 2006 les 100 millions de photos. Mis en ligne en
2004, il a été développé par Ludicorp, une
société canadienne fondée en 2002. A l'origine, il
s'agissait d'un ensemble d'outils développé pour un jeu
multi-joueurs sur Internet : Game Neverending, qui a finalement
été abandonné. Il consistait en un chat room
dédiée au partage des photos, mais a ensuite
évolué vers le téléchargement et le
classement des photos. En 2005, Ludicorp a été
rachetée par Yahoo, et ses serveurs ont été
transférés aux Etats-Unis, assujettissant ses contenus aux
lois américaines. L'interface de Flickr utilise AJAX, permettant
à l'utilisateur de gérer ses photos en rajoutant des tags, titres
et descriptifs automatiquement sans recharger la page.
Les sites de partages de photos existent depuis les
débuts d'Internet, Flickr se distinguant par plusieurs
différences caractéristiques de son offre. Tout d'abord le
fait que par défaut les photos publiées sont publiques,
même si chaque utilisateur peut créer des groupes ayant des
accès différents à ses photos. Ensuite, la
possibilité pour l'utilisateur de marquer les photos uploadées
de tags lui permettant de décrire l'objet de ses photographies. Et enfin
le service dispose d'un grand nombre d'outils permettant de fidéliser
les utilisateurs et développe un certain nombre d'applications
gratuites, telles qu'un navigateur intégrant des outils permettant de
faciliter l'envoi d'images. Une autre fonctionnalité
intéressante est la possibilité de rajouter des notes sur
sa photo. Ainsi il est possible de dessiner un cadre autour d'un
élément de la photo (par exemple un bateau dans une
crique) et d'ajouter un commentaire lisible par l'internaute lors d'un
survol sur cette partie de la photo (par exemple `c'est moi'). Le
résultat de ces caractéristiques uniques est que 80% des
photos sont publiques, que la moitié est balisée de mots
clés et que plusieurs dizaines de milliers d'utilisateurs participent
à une communauté bâtie autour de Flickr. L'essentiel
est ici de montrer ses photos, la page d'accueil, le blog et les flux
RSS présentant les dernières photos, les plus populaires ou les
plus insolites. Flickr dispose d'un système de tags abouti, qui
fonctionne de la même façon que celui de Dailymotion, nous
ne le détaillerons donc pas ici. Il propose tout de même
quelques fonctionnalités supplémentaires comme la
possibilité de s'abonner aux flux RSS de chaque tag, permettant
ainsi à l'internaute de se tenir au courant des nouvelles images
en ligne mais également d'afficher les images d'un même
thème sur un autre site, en respectant la licence de l'auteur.
En effet Flickr est attaché à défendre le droit
des créateurs d'image et a donc mis en place un système
de licence Creative Commons régi par l'utilisateur
lui-même. Creative Commons est une licence de droit d'auteur qui
est de plus en plus utilisée dans le monde de l'informatique
libre mais également lors de la distribution d'oeuvres
numériques. Elle permet de donner un certain nombre de droits à
l'internaute téléchargeant l'oeuvre, en fonction de la
volonté de son auteur. Son objectif est d'encourager la
circulation des oeuvres sur Internet de manière licite et
d'encourager les internautes à mieux respecter le droit, mais
elle ne prévoit aucune rémunération pour l'auteur.
L'interface permet de gérer les groupes ayant accès à ses
photos et de gérer les droits d'accès en lecture des
différents groupes.
Les développeurs ont intégrés un
certain nombre d'outils innovants, comme par exemple le `badge'. Cette
petite bannière, intégrable sur n'importe quel site web (le code
source est donné), permet d'afficher de manière aléatoire
en flash ou en html des photos de son propre compte ou de n'importe quel
utilisateur, selon certains tags à définir. Il permet
ainsi de montrer des images en rapport avec un thème et de
proposer un lien vers la galerie de photos de son choix. A cela
s'ajoute toujours le bouton `blog this' permettant d'afficher directement
sur son blog n'importe quelle photo issue de Flickr.
Les développeurs ont également mis à
disposition des programmeurs indépendants les API (interfaces de
programmation ouvertes) leur permettant de créer une
infinité d'applications ou d'extensions. Comme par exemple Flickr Graph
permettant de visualiser les réseaux sociaux au sein de la
communauté, la Flickr Clock affichant l'heure avec des photos ou
d'autres mashups.
L'aspect communautaire est présent à
travers la possibilité donnée aux utilisateurs de se
regrouper en communautés qui regroupe des internautes d'un
milieu donné. On trouve ainsi des communautés
d'utilisateurs d'une marque d'appareil photo, de photographes d'un
thème précis, ou des regroupements par styles,... Ce sont
ces regroupements qui font la force de Flickr, en effet une photographie d'une
fleur n'a que peu de valeur en soi, mais c'est le fait que plusieurs
photographes vont confronter leurs clichés pour en discuter et
faire ainsi vivre la communauté qui rend cette plateforme
vivante
On retrouve dans Flickr l'esprit des skyblogs et Myspace, la
popularité au sein de la communauté. Celle-ci est
mesurée au travers du nombre de pages vues et par le nombre
de commentaires laissés par les visiteurs. Flickr propose
également un accès payant pour 25$ par mois, permettant
à l'utilisateur `pro' de bénéficier d'un nombre de
photo illimité à uploader, de la disparition des
publicités, et l'archivage permanent des photos haute
résolution, l'interface permettant de poster différentes
résolutions
Le principal écueil de Flickr est sa
difficulté à convaincre les professionnels, ce pour
plusieurs raisons. Tout d'abord pour des questions techniques, ceux-ci
préférant travailler avec des fichiers en haute
résolution, dont la qualité est située bien au delà
des standards Flickr. De plus on assiste à un sentiment de
« dépossession ». En effet, la qualité des
photographes amateurs ne peut être comparée à celles
des professionnels, néanmoins ceux-ci rencontrent un succès
certain. Dans ce cas les photographes vivant de leur art peuvent se
sentir quasiment humiliés par le succès d'amateurs enclins
à partager gratuitement des photos, alors qu'eux même
tirent leurs ressources de la publication de leurs clichés. Pour
Luc Pérénom, photographe professionnel, les outils amateurs
ne doivent se mélanger avec ceux destinés aux
professionnels, qu'ils soient acheteurs ou vendeurs : «Vu la profusion
d'images numériques aujourd'hui, je ne pense pas qu'un professionnel,
qui doit savoir montrer la valeur ajoutée de son travail,
doive utiliser les mêmes outils que les amateurs. Flickr propose
une interface relativement pauvre, peu dédiée à
l'usage professionnel. L'espace d'échange est vite limité
: les commentaires tournent vite en rond à se congratuler les
uns les autres. Sans compter que la photographie est une démarche
personnelle, indépendante par définition. C'est sa vision qu'on a
besoin de pousser au bout, pas les avis des uns et des autres.»
La réticence des professionnels s'explique ainsi
par deux raisons. Le coté non-commercial, excluant toute forme
de rémunération, et l'aspect amateuriste constaté.
Convaincre les professionnels sera donc la prochaine étape de
cette start-up, ainsi que l'ajout de certaines fonctions encore en
développement comme la reconnaissance automatique des lieux et des
personnes sur les photos.
c. Partage et
agrégateur d'actualités
Newsvine
Newsvine répertorie les actualités mondiales
avec une prédominance américaine. Le plus intéressant est
que non seulement on peut personnaliser la page d'accueil, mais on y retrouve
toutes les autres fonctionnalités des sites comme Digg (analysé
plus bas) qui permettent de voter pour les nouvelles les plus
intéressantes.
Toutes les dépêches et articles sont tirés
de l'agence « Associated Press », mais absolument aucun
contrôle éditorial n'intervient dans la sélection des
articles présentés. L'interface se présente de
façon très sobre et fonctionnelle. La page d'accueil est
composée de modules indépendants les uns des autres que l'on peut
déplacer, effacer, et ainsi composer une page complètement
personnalisée. Les modules permettent d'afficher des informations selon
le lieu géographique de l'internaute. C'est une fonction du reste
très intéressante parce que, même majoritairement
américain, cela évite de devoir chercher le flux RSS d'une
région et l'installer soi-même.
Une barre de recherche permet d'introduire des
mots-clés pour trouver des articles correspondants. Les
différentes sections du site (World News, Sport, Politics) sont
séparées en onglets, ce qui rend la lecture beaucoup plus facile
et conviviale.
Avec la création d'un compte utilisateur, l'internaute
peut créer « sa » page éditoriale, y écrire des
articles et des recommandations. La présence sur le site de
publicités peut être gênante, mais génère des
revenus pour les internautes qui publient régulièrement du
contenu sur leur page éditoriale.
Lors de la lecture d'un article, l'internaute peut voter (Up
or Down), et à sa prochaine
visite, les actualités lui seront proposées en
rapport avec ses votes et ceux d'autres utilisateurs. Newsvine permet aussi de
proposer des actualités à partir d'autres sites web ; une
nouvelle intéressante sera publiée avec la fonction « Seed
» et le flux seraaffiché en page d'accueil. Les « Seed »
publiés peuvent provenir de sources journalistiques qui ont une
crédibilité, mais après quelques manipulations on y trouve
aussi des « nouvelles » qui n'en sont pas et qui s'apparentent
à du « spam ». Malgré tout, c'est un des sites les plus
« professionnels » rencontré lors des recherches.
DIGG
Avec près de 220 millions de pages
vues par mois 16, Digg reste un des sites majeurs de la
webosphère et un phénomène à lui tout seul. Le
principe est très simple : les actualités proviennent d'autres
sites et s'affichent sur la page d'accueil avec quelques lignes résumant
l'article.
L'internaute clique sur l'article (en général
n'en lit que le résumé) et ensuite vote pour (« thumbs up =
Digg ») ou contre (« thumbs down = Dugg »).
Plus un article a reçu de votes, plus il sera
affiché en tête de liste dans la page principale. Les dizaines
d'articles qui émaillent l'accueil sont le « buzz » du moment,
ce dont les gens « discutent et commentent ».
La page d'accueil peut être filtrée pour
n'afficher que des thématiques qui intéressent l'internaute. Digg
ne propose pas que du texte, mais tout ce qui est relié à une
actualité (photos, vidéos). De plus, le site propose une fonction
de réseau social qui permet d'ajouter des amis, de voir leur
activité sur le site et de leur envoyer des messages.
De ce fait, tous les articles peuvent être
commentés et c'est là que l'on se rend compte qu'en fait la
majorité des internautes ne vont pas lire l'article en entier mais se
contentent du résumé. La lecture des commentaires sur des
thématiques actuelles peut
virer à l'empoignade virtuelle, et plus aucun
commentaire n'est relié au texte. La page d'aide revendique la «
démocratisation » de l'actualité, étant donné
qu'il n'y a aucun contrôle éditorial, mais contrairement à
Newsvine traité précédemment, les flux sont
affichés de façon désordonnés, ce qui rend la
lecture moins facile.
d. Les RIA
Google propose en plus de son
célèbre moteur de recherche un certain nombre
d'applications disponibles en ligne, permettant de disposer d'une
interface de mail très avancée, d'effectuer des travaux
bureautiques, ou de disposer de cartes géographique très
complètes.
Gmail est un service de messagerie mis
en place par Google, et offrant de très nombreuses
fonctionnalités, semblables a celles des logiciels
téléchargeables, comme Outlook. C'est une des plus
utilisées des Application Internet Riches. A la différence des
autres webmails (Hotmail, etc...) L'utilisateur dispose d'une
capacité de stockage augmentant en permanence d'environ 3 gigaoctet.
16
http://www.haute-disponibilite.net/2009/02/04/l-architecture-et-les-bases-de-donnees-du-site-digg/
Il peut également regrouper les messages et
réponses d'un unique interlocuteur en conversations lui
permettant de mieux suivre et retrouver tout le fil d'une conversation par
mail, classer ses messages en les rangeant dans une page spéciale,
trier et filtrer les messages, les spam, etc... Le système
reconnaît également les raccourcis clavier, par exemple en
tapant Ctrl+S, le message est sauvegardé.
L'interface dispose également d'une
vérification orthographique, d'une fonction de chat, de syndication via
RSS, d'affichage de nouvelles du web, et d'une quantité étonnante
de services connexes, comme l'utilisation du service via
téléphone portable, sur le Wap. L'interface est encore une fois
bâtie en AJAX, ce qui permet l'utilisation des raccourcis claviers
dans le navigateur. Depuis 2007, il intègre même un logiciel
de chat de type MSN, à l'origine développé
séparément, Google talk.
Gmail utilise des logiciels lui permettant d'analyser
le contenu des messages envoyés et d'adresser des publicités
en encart en rapport avec le contenu des messages.
Ces fonctionnalités font débat, et sont
particulièrement intéressantes car elles correspondent a des
aspects marketing du web 2.0.
Google Docs est une application en ligne ouverte en 2006, et
exemplifiant tout à fait la possibilité qu'auraient les
applications Internet riches de remplacer les suites bureautique
habituelles. En effet il y est possible d'importer et de modifier n'importe
quel document Microsoft Office, Open Office,... Toujours grâce
à une interface en AJAX, les modifications sont automatiquement
sauvegardées et mises a jour, permettant ainsi un travail
collaboratif dont la portée est très importante.
Grâce à ce système plusieurs personnes peuvent
travailler en même temps sur un même document à des
kilomètres de distance et sans communiquer par
téléphone ou par mail pour se rendre compte de
l'avancement de chacun. A l'origine uniquement tableur, il est également
devenu logiciel de traitement de texte lors de l'acquisition de Writely
(développé par Upstartle) par Google.
Google Maps est l'exemple même des
fonctionnalités offertes par le web 2.0 puisqu'il reprend
exactement l'interface du logiciel de bureau Google Earth, mais en
l'adaptant à une interface web. Basé sur une base de
données contenant les photos satellites de tous les endroits de
la planète ainsi que des cartes très complètes,
Google Maps est une application qui permet la création de très
nombreux mashups. En effet les API de cette plate forme sont ouvertes
aux développeurs indépendants, ce qui leur permet de
rajouter sur ces cartes d'autres contenus comme l'emplacement d'une
entreprise, ou des revendeurs d'un produit. Les possibilités
offertes sont énormes et ne sont limitées que par
l'imagination des concepteurs. C'est bien la l'intérêt du web 2.0
qui rend l'outil de création sur Internet accessible à
tous, ne posant plus de barrières techniques à
l'imagination.
Adobe AIR
Adobe AIR représente un nouveau média
réunissant le meilleur de deux univers, celui du web et celui des postes
de travail, comme le précise Kevin Lynch, senior Vice President &
Chief Software Architect chez Adobe17.
Adobe AIR élargit le champ des possibilités pour
des développeurs web qui sont à présent en mesure de
produire une nouvelle génération d'applications exploitables sur
tous systèmes d'exploitation, au sein comme en dehors du navigateur, et
qui font le lien entre le web et le micro-ordinateur.
Adobe a décidé d'ouvrir à tous sa
plate-forme de développement Web 2.0 AIR (Apollo Intergrated Runtime)
dans une première version bêta. Précédemment connue
sous le nom de code Apollo, AIR permet aux développeurs de faire
appel aux technologies HTML/CSS, Ajax, Adobe Flash et Adobe Flex pour
déployer des applications Internet riches (RIA) sur les postes de
travail
AIR intègre une base de données locale, le
support de la technologie PDF, des fonctionnalités optimisées
pour les développeurs JavaScript et une intégration encore plus
étroite avec Adobe Flex.
Yahoo ! Mail
Qualité de service quasi-irréprochable,
fonctionnalités innovantes, sobriété : depuis le lancement
de son service de messagerie gratuite en 1997, Yahoo! a su montrer avec son
service Yahoo! Mail une certaine constance. Un atout non négligeable
dans le domaine
Certains d'entre vous ont eu l'occasion de découvrir le
nouveau Yahoo ! Mail. Depuis quelques mois déjà, les usagers
basculent en effet sur la nouvelle interface de la messagerie. Que vaut donc
cette version ?
Premier constat : l'interface a été
épurée. Annoncée comme plus rapide, elle est
harmonisée avec la nouvelle page d'accueil de Yahoo! qui fait la part
belle au blanc. Bon point : l'ergonomie générale n'a pas
changé. Les utilisateurs du webmail de Yahoo! ne seront donc pas
déconcertés
Côté technique, les pièces jointes peuvent
désormais atteindre 25 Mo (contre 10 Mo auparavant). Sur ce point,
Yahoo! Mail est
désormais à la hauteur de
Gmail.
17
http://www.linformaticien.com/Actualités/tabid/58/newsid496/2267/Default.aspx
Un système d'extensions (plug-ins) permet d'ajouter des
fonctionnalités nouvelles, comme par exemple la gestion et le partage de
vos photos ou le paiement via Paypal. Plutôt sympathique et prometteur
sur le papier, même si seulement 2 extensions sont pour l'instant
proposées.
Mais la principale nouveauté de ce
Yahoo! Mail, c'est
l'apparition de fonctions de réseau social. Sur le modèle de
ce que fait déjà Microsoft avec
Hotmail et les profils
Windows Live, Yahoo! vous propose de partager votre vie numérique avec
vos contacts. En pratique, vous pouvez désormais vous créer un
profil Yahoo!, définir qui sont vos proches, mettre à jour
votre statut et être informé de l'actualité de votre
réseau.
A droite de la page d'accueil
(rebaptisée Nouveautés), Yahoo! vous fait des suggestions de
contacts dont vous pouvez suivre les activités. Les nouveaux e-mails de
ces proches (que Yahoo! appelle Connexions) sont mis en avant sur la page
d'accueil de
Yahoo! Mail.
Vous pouvez mettre à jour votre statut
grâce au champ Que faites-vous en ce moment ? En haut de
la page Nouveautés. Vos proches en prendront alors connaissance
depuis leur propre page Nouveautés.
Yahoo! vous permet si vous le désirez de partager des
activités supplémentaires (Flickr, Youtube, Vimeo, Picasa,
Last.fm) avec vos connexions.
d. Les applications
composite, ou Mashups.
Veni Vidi Wiki
Ce service novateur exemplifie tout à
fait les possibilités offertes par les mashups. Encore confidentiel et
peu connu, cette application issue de Google Maps est
une ressource de voyage qui renouvelle le style du guide de voyage sur
Internet auparavant rédigé et utilisé comme un guide
papier.
L'interface utilise Google Maps pour
afficher des cartes du monde, et les internautes peuvent ajouter des
points d'intérêts à certains endroits et
rédiger des articles, insérer des vidéos Dailymotion ou
Youtube. Ainsi le guide planétaire se crée de façon
collaborative. Il n'existe aucun remplissage de la base préalable, c'est
uniquement l'internaute qui va donner du sens ou non à cette
nouvelle application. Développée par une française, ce
guide compte environ 400 références sur toute la planète.
Les mashups issus de Flickr
Un des credo des développeurs de
Flickr a toujours été de laisser une partie de leur code
source accessible aux internautes. Le fait de permettre à ces
développeurs de créer des applications innovantes sur le
squelette de leur interface a permis à Flickr de
bénéficier d'une grande popularité, et à
donner lieux à de très nombreuses applications composites
que nous allons étudier ici. Le code source de Flickr à
d'ailleurs été optimisé pour pouvoir être souple et
permettre le développement d'applications annexes. Ainsi les
développeurs ont prévu des packages permettant d'intégrer
les éléments Flickr au Flash, au PHP ou à d'autres
langages de programmation en usage sur Internet. Les développeurs
qui veulent réaliser un mashups peuvent ainsi jouer sur les tags, les
noms d'utilisateurs, la popularité, et bien sûr, les photos
elles-mêmes. Ces développements peuvent donner lieu à
des créations artistiques, des jeux, des outils de e-commerce, ou des
moyens de propagande. Le web 2.0 permet donc ici à chacun d'utiliser le
même outil et d'en faire une oeuvre ou un service différent, ce
qui est à mon sens la réelle révolution induite par les
nouvelles technologies.
- Retrievr
Retrievr est une nouvelle façon de concevoir la
recherche documentaire sur Internet. En effet il permet à
l'utilisateur de rechercher des photos ressemblant à un croquis
dessiné par ordinateur. Créée par Christian Langreiter,
cette application effectue une recherche dans la base de données Flickr
en se basant sur les couleurs et les formes dessinées. Le tout se
fait en temps réel, une modification du dessin apportant
immédiatement d'autres résultats. Même si
l'utilité en est réduite, il sera ainsi toujours plus
rapide et facile de taper un mot clé, ce service prouve que
l'imagination devient désormais la seule barrière à
la création, qui aurait pu imaginer que de tels outils puissent
exister ?
- Spell
La encore, Spell est plus une performance qu'un
réel outil. Flickr accueillant un grand nombre de photographies
d'objet en forme de lettres, son créateur à eu l'idée de
développer une application qui écrit des mots
entrées auparavant par l'utilisateur sous forme de photos.
- Tagnautica
A la différence des deux premiers, ce mashups
dénote une réelle utilité en plus de créer une
oeuvre esthétiquement aboutie. La première action de
l'utilisateur consiste à entrer un mot clé. Ce mot
clé sera recherché dans la base de données de
Flickr et les tags qui lui sont le plus proches seront affichés dans
un anneau graphique autour du tag original. Cet anneau est composé
de plusieurs photographies correspondant à chaque tag. Chaque tag
est un noeud permettant d'explorer l'univers et les photos de Flickr, la
taille de chaque noeud étant proportionnelle à
l'importance de ce tag. Le clic sur un de ces noeuds commande la
création d'un nouvel anneau, en rapport avec ce dernier. Ce
mashup a été écrit par Mario Kingeman, le créateur
entre autres de Clockr, une horloge utilisant des photos pour dessiner les
nombres. On a ici typiquement une rencontre entre un outil utile et une oeuvre
presque artistique, du moins conceptuelle.
- Fastr
Cette application fait partie des jeux qui peuvent
être développés en utilisant les API Flickr. Ce jeu
de rapidité cherche quelques images ayant un tag en commun et
les affiche sur une page web. Le but pour l'utilisateur est de
deviner quel est ce tag commun, le plus vite possible.
Créé par Scott Reynen, ce jeu permet également de
se comparer aux autres joueurs via un classement des meilleurs scores.
e. Les espaces
personnalisés en lignes
Netvibes
Netvibes est un service de page d'accueil
personnalisable. Créé par Pierre Chappaz et Tariq Krim, ce
portail français a désormais une antenne à Londres.
Netvibes est lancé en septembre 2005, et offre le même
style de service que les pages d'accueil Google. L'utilisateur peut
ainsi ajouter à sa page des « widgets » ou modules
lui permettant d'afficher des informations d'autres sites, ou de blogs. Ainsi
cette application est parfaitement web 2.0 : elle ne propose par
elle-même aucun contenu, mais paradoxalement est plus fournie que
la plus énorme des bases de données. Netvibes utilise les
flux RSS pour se remettre à jour de façon automatique, et la
plupart des sites disposent d'un bouton « add to Netvibes »
permettant à l'internaute de s'abonner à ce flux. Les
services vont encore plus loi puisque grâce à
l'utilisation de l'AJAX, on a également des widgets qui indiquent
l'heure ou permettent de noter des informations sur un calendrier virtuel.
Lauréat du prix spécial du Jury des 9e clics d'or en 2006,
Netvibes met également à disposition des développeurs des
fragments de son API, espérant ainsi drainer de nouveaux talent et
disposer d'innovations constantes.
Ainsi grâce à ce genre d'application, l'espace
de travail devient virtuel et le bureau se déplace avec
l'utilisateur. Les employés étant de plus en plus
mobiles, le web 2.0 participe à la mise en place de nouvelles
manières de travailler, et s'inscrit dans une démarche qui
va au delà du monde des nouvelles technologies.
Del.ico.us
Dans la même idée de disponibilité
de l'information, où que soit l'internaute, se trouve
également Del.ico.us un service permettant de sauvegarder ses
favoris et de pouvoir y accéder en ligne depuis n'importe quel
ordinateur. L'avantage en est certain, et se rapproche de la
modularité constatée dans le monde des grandes entreprises
ou de plus en plus d'espace de travail ne sont plus fixes mais temporaires et
changent tous les jours. A cela s'ajoutent des fonctionnalités
permettant de noter de s'informer sur les liens préférés
de ses amis ou des autres membres de la communauté. Le tout
s'apparentant à l'idée de « social bookmarking ».
A travers cette typologie, forcément
incomplète, le web 2.0 apparaît non plus comme une simple
idée de collaboration entre internautes, mais comme une galaxie
de nouveaux services. Les évolutions induites par les nouvelles
technologies permettent d'imaginer un grand nombre de nouvelles
applications et relations entres les différents acteurs
d'Internet. Que ceux-ci soient stratèges économiques,
concepteurs, artistes, chercheurs ou politiciens, le web 2.0 apporte à
sa façon de nouvelles façons de travailler. C'est dans ces
conditions que nous allons continuer cette étude, on explorant
tout d'abord les évolutions probables et les recherches en cours chez
les grands groupes.
3. Evolutions probables
Fort est de constater qu'avec l'avènement du concept
Web 2.0, beaucoup d'encre a coulé sur les véritables
potentialités et perspectives du Web 2. Il s'agit maintenant de se
projeter dans un avenir relativement proche et d'essayer d'anticiper quelles
pourraient être les hypothèses d'évolution des
services ayant fait le succès du web 2.0.
a. Blog 2.0 : Vous-même êtes
votre propre marque
Se souvient-on de la première fois
où il a entendu parler de «blog» ? Ça date
certainement... et pourtant, si vous faites abstraction de ces
infâmes sidebar qui pullulent de widgets à la
con, le principe des blogs n'a quasiment pas évolué :
billets, commentaires, catégories.
Et pourtant, la relève est déjà
là sous la forme de services de micro-blogging comme
Twitter. Le moins que l'on
puisse dire c'est que ce type de services ne laissent pas indifférent :
soit on déteste, soit on reste hypnotisé.
En poussant un peu plus loin ce concept d'agrégation
de l'activité quotidienne d'un individu, on en arrive à regarder
d'un oeil moins méfiant les services
de lifelogs comme
LiFE-LiNE.
Alimentée en permanence par nos actions quotidiennes, ces lignes de vie
digitales sont le témoin et la mémoire de notre présence
en ligne, de notre existence passée et présente.
Encore plus fort, puisqu'il est question de documenter notre
quotidien, pourquoi ne pas en faire un documentaire filmé via une webcam
allumée en permanence ? C'est ce que vous propose déjà de
faire des services comme
uStream : adapter
aux individus le principe de
lifecast.
b. Social Shopping 2.0 : Nous sommes
tous des commerçants
Reparlons maintenant de micro-blogging mais dans un cadre de
commerce en ligne : Tant qu'à documenter le quotidien d'un individu (ses
actions, déplacements, rendez-vous...) pourquoi ne pas également
documenter ses achats ? Nous pourrions ainsi imaginer un service à
mi-chemin entre
Shopalize et
Zlio qui archiverait
vos achats et vous rémunèrerais en fonction des ventes
réalisées à partir de
cette « buylog » via un système
d'affiliation silencieuse (non-contraignant pour l'utilisateur)
De même, cela n'a pas encore été fait en
France, mais de nombreux services de
Team
Buying existent déjà en Chine. Pourquoi ne pas
envisager des agents intelligents capables d'identifier des groupes
d'utilisateurs homogènes (ayant les mêmes besoins et
fréquentant les mêmes quartiers) et de leur proposer
des rassemblements spontanés pour faire de l'achat groupé
hors-ligne. Le tout orchestré par SMS, géolocalisation de votre
téléphone portable et anticipation d'une baisse des prix à
l'aide de services prédictifs comme
Farecast (pour
l'instant limité aux prix de billets d'avion et d'hôtels). Celui
ou celle qui mènerait les négociations avec le marchand se
verrait créditer des points de confiance par les autres acheteurs
(l'utilisation de ces points reste à définir, si vous avez une
idée, n'hésitez pas à la publier dans les
commentaires).
c. Réseaux sociaux 2.0 : des
millions d' «amis » à portée de clic
Oubliez
MySpace et ces 200 millions de
comptes, l'avenir des réseaux sociaux se trouve ailleurs.
Peut-être dans la
Facebook
Platform ou autre Ning, une sorte
de système d'exploitation en ligne pouvant héberger une
infinité de services au sein d'un écosystème (
Facebook
se métamorphose en web OS). Le tout reposant bien évidement
sur la gigantesque base de données d'utilisateurs sous le contrôle
d'un éditeur tout puissant (ça ne vous rappelle pas un certain
moteur de recherche qui a pris beaucoup d'ampleur ces dernières
années ?)
Puisque que l'on parle du loup, autant aborder le cas de
SocialStream,
un réseau social universel qui mise avant tout sur
l'unification (unified social network) et l'interopérabilité. Une
sorte de Facebook Platform à la sauce Google.
Il ya également Ning, une sorte de
réseau des réseaux. C'est un outil référence pour
créer son réseau social à pas cher. Encore faut-il
s'investir un minimum dans la conception et surtout l'animation de son
réseau. Il comptabilise plus de de 500 000 réseaux
créés en 2008. 18
Evoquons enfin le cas très intéressant de
Skaaz, un service à
mi-chemin entre avatar et agent conversationnel (
Créez
votre double virtuel avec Skaaz). Le principe est redoutable :
créer un avatar intelligent qui va apprendre à reproduire
votre personnalité pour pouvoir converser à votre place.
18
http://blog.ning.com/2008/10/500000-social-networks-on-ning.html
d. Contenus multimédia 2.0 : Tous
des directeurs de programmation
A l'heure où
YouTube semble plus puissant que
jamais (son audience dépasserait celle de Google), les regards des
géants de l'audiovisuel se tournent plutôt vers
Joost, une plateforme d'IPTV.
Car il faut bien se rendre à l'évidence : plus on leur en donne
(du contenu) et plus ils en consomment (de la bande passante). Arrêtons
de nous mentir et regardons la réalité en face : trop de frais
techniques (hébergement, bande passante), trop de contenus
illégaux (sous copyright), trop de polémiques (pour
hébergement de contenus à caractère raciste /
pornographique)... tout ça va bien s'arrêter un jour, même
quand on s'appelle Google. Bref, la solution se trouve dans une nouvelle
génération de service de distribution de vidéos en ligne :
une infrastructure technique moins lourde, des
contenus «casher«, un moteur de recommandation et de ciblage
publicitaire efficace.
Et puisque l'on parle de moteur de recommandation,
souvenez-vous que le temps est la monnaie de demain. A partir de là, les
services capables de faire des recommandations pertinentes sous forme
de playlist de vidéos, de musiques et pourquoi pas
de casual games seront également en mesure de
modéliser des profils de consommateurs valant de l'or pour les
annonceurs. J'anticipe ainsi un service à mi-chemin entre
Pandora,
TOITI,
Cafe et régie
publicitaire. Le tout en multi-plateforme et haute-définition bien
évidemment !
Terminons ces hypothèses de l'entertainment
2.0 avec un principe de show TV open source : les
éditeurs se «contenteraient» de rédiger un brief et de
réaliser un pilote, les spectateurs se chargeraient ensuite de faire
évoluer l'histoire (avec un système de soumissions / votes), de
gérer le casting (avec un service de crowdsourcing comme
ItsOurMovie) ainsi
que le financement (via un système de collecte de fond en mode P2P).
e. Mashup 2.0 : Vous êtes votre
propre directeur informatique
Le web 2.0 a au moins l'avantage d'avoir pu familiariser le
grand public avec des notions informatiques complexes comme
les mahups et les API. Mais si tout le monde à l'exemple de
Google Maps en tête, qui
connaît de services de conception de mashup comme
Yahoo! Pipes,
Google Mashup
Editor ou encore
Popfly ? En rendant
les mashup accessibles à tous, ces services facilitent
la re-sémantisation des contenus ainsi que la transformation
des sites en services (lire à ce sujet ce très bon billet :
When
Web Sites Become Web Services).
Encore plus fort, en combinant des solutions comme
DAMIA et
QEDWiki (déjà
présentés en
vidéo), on se met
à rêver d'un système d'information extrêmement
modulaire que l'on pourrait enrichir et personnaliser à l'aide
de widgets applicatifs partagés au sein d'un
écosystème. Le nirvana de l'
Entreprise
2.0 !
On terminera cette série d'hypothèse
d'évolution avec le concept de web OS, ultime itération des
portails personnalisables (une sorte de Netvibes 2.0). Les solutions comme
EyeOS,
Goowy,
YouOS,
DesktopTwo... sont ainsi
très intéressantes mais n'apportent somme toute pas grand chose
de neuf... peut-être une gestion du mode déconnecté...
comme le promet
Parakey... récemment
racheté par Facebook. Quoi, Encore Facebook ? Et oui, encore Facebook !
Voilà peut-être qui explique pourquoi la valorisation de ce
service est estimée à plusieurs milliards de dollars.
II. Impact sur les
modèles économiques et CRM 2.0
1. Les modèles
économiques
La relance de l'économie d'Internet que l'on voit
grandir auteur des concepts novateurs tels que le Web 2.0 s'est vu accompagner
par un nouveau lot d'investisseurs potentiels dans les services
émergents 2.0. Cela tourne bien évidemment la page noire des
années (ou plutôt des mois) de l'an 2000 et de la première
bulle Internet qui avait fini par éclater en faisant beaucoup de
dégâts.
Là justement où en 2000, il s'agissait de
profiter de l'avènement d'Internet et de créer de nouveaux
services payants ou non pour ce nouveau marché illimité; dans la
nouvelle tendance 2.0, les enjeux sont tout autres. En effet, les
modèles économiques alors viables en 2000 ont du être
complètement modifiés ou même remplacés par de
nouveaux modèles économiques basés autour de la
gratuité de service, de la publicité ciblée, de la
collaboration des internautes et de tout ce qui peut potentiellement aider les
internautes à se rencontrer, à communiquer, à
échanger, à dialoguer, à vendre/acheter, etc.
a. E-Publicité 2.0
L'un des points forts du développement de cette
nouvelle tendance a été et est toujours le système de la
publicité ciblée. Celle-ci permet la création et la
distribution de services qui n'existaient pas auparavant. Largement
dominées par le service de Google : AdSense, les
régies publicitaires ciblées permettent de monétiser des
sites Internet en fonction de plusieurs critères comme le nombre de
pages affichées, le nombre de visiteurs qui cliquent sur des
bannières de publicité ou encore la quantité de visiteurs
qui s'inscrivent ou qui achètent sur un site proposé sur une
annonce.
Même si le principe en lui même n'est pas
nouveau, la libéralisation de ce procédé via la
possibilité pour n'importe quel site de mettre de la publicité
correspondant exactement avec le contenu du site a considérablement
changé les choses. En effet qu'un site soit important ou touchant
à de nombreux sujets ou qu'il soit tout petit, nouveau ou ne traitant
que de domaines précis ou pointus, chaque webmaster peut
monétiser facilement son site.
A une échelle professionnelle il en résulte la
possibilité pour de jeunes entreprises présentes sur le web de
faire leur chiffre d'affaires uniquement en se basant sur cette forme de
monétisation. Le contenu du site Internet devient dès lors
gratuit pour chaque visiteur ; le but n'étant plus de faire payer un
service mais de créer une importante quantité de visites sur le
site via des services novateurs ou du contenu intéressant. Un des
exemples que l'on peut citer est peut être celui des hébergeurs de
fichiers ou photos. Jusqu'à lors ils faisaient payer
l'hébergement ou limiter la quantité de fichiers
téléchargeables gratuitement. Désormais bon nombre de
sites comme Mediafiree.com ou Loocalhotr.com permettent tout cela de
manière illimité et gratuite. Le coût des infrastructures
et de fonctionnement étant amorti par la publicité
présente sur le site.
b. Libre-service et de participation de
l'utilisateur
Certains sites ont poussés plus loin encore le
modèle de la monétisation 100% publicité ciblée en
incitant les utilisateurs à créer ou à participer
eux-mêmes à leurs sites Internet. Ils réalisent ainsi d'une
pierre deux coups : les visiteurs créent le contenu du site mais
deviennent aussi dépendant à ce site et créer ainsi un
fort trafic sur le site générant de la publicité. On
retrouve ce principe dans de nombreuses illustrations du Web2.0.
Le Web 1.0 reposait sur l'idée selon laquelle
l'éditeur est l'acteur en bout de chaine (du serveur) et le client, le
consommateur d'informations. Ainsi, Le Monde met ses informations sur
LeMonde.fr et le consommateur se rend sur ce site pour cliquer sur les articles
qui l'intéressent. Ce qui est important avec le Web 2.0, c'est que ce
modèle n'est plus toujours d'actualité et c'est justement cette
nouvelle mentalité, beaucoup plus que n'importe quelle nouvelle
technologie ou « web-application », qui a des conséquences sur
l'activité d'édition. Les blogs sont devenus un moyen beaucoup
plus répandu d'obtenir des informations sur les centres
d'intérêt. Les Podcasts ont fait baisser les coûts et
supprimé les barrières technologiques de la diffusion audio en
créant un monde complètement nouveau de « micro-broadcasts
» diffusés via Internet. Les gens qui avaient l'habitude
d'être des consommateurs d'informations deviennent maintenant des
éditeurs de plein droit et la plupart des « web-applications »
associée au Web 2.0 sont faites pour les aider à organiser et
publier leurs propres contenus. On pourra citer par exemple le principe des
Wiki où les internautes sont les contributeurs du site en lui-même
à l'image de Wikipedia.
En outre, la tendance2.0 pousse encore plus loin
l'implication des visiteurs en leur demandant de voter pour l'information qu'il
leur plaît (système de votes inventé par Digg.com et tous
ses successeurs Digg-like comme le français Scoopeo.com). Là, le
visiteur devient plus que collaborateur d'Internet, il en devient
l'organisateur avec la capacité de donner un avis sur tel ou tel
actualité ce qui instaure un classement des différente
actualités sur ces sites. En parallèle de ce système de
vote, de plus en plus de site recueillent également les avis des
visiteurs afin là encore de laisser la possibilité à
chaque utilisateur d'être au coeur du site Internet mais aussi d'en avoir
un certain contrôle.
L'organisation en elle-même d'un site Internet2.0 va
là aussi être directement influencée par ses visiteurs via
le système de « tags » ou « folksonomy ». Il s'agit
pour chaque billet, information, vidéo, photo ou tout autre contenu de
lui attribuer des « tags » ou mots-clés représentatifs
du contenu pour ensuite pouvoir les classer et les organiser par
catégorie. On trouve ce système sur les blogs, sur les diffuseurs
de vidéo comme YouTube ou Google Vidéo mais aussi sur la
plateforme de photos Flickr.com qui a été un des
précurseurs en termes de « folksoonomy ».
c. L'ouverture des services :
disponibilité d'API et création de MashUp
Autre facteur que l'on voit de développer ses quelques
derniers mois : la disponibilité d'API (Application Programming
Interface). Ces API sont en fait de véritables interfaces de
programmation libre d'accès permettant à quiconque de
développer sur son site Internet ou pour le site Internet proposant
l'API de nouveaux modules directement basé sur le modèle du site
en question. Un exemple concret est la plateforme Netvibes.com (interface web
personnalisable par chacun à l'aide de modules divers comme des lecteurs
RSS, des infos météo, trafic et autres...). Avec l'API de
Netvibes, beaucoup de développeurs se sont mis à
développer eux-mêmes des modules pour ce concept et ainsi, d'une
part, grossir le catalogue de modules disponibles mais aussi, d'autres part,
fédérer ces utilisateurs en les faisant devenir de
véritables acteurs du concept.
La diversification des API disponibles et cet esprit
communautaire grandissant favorisent les réalisations faites grâce
à ces API et généralement cela se concrétise par la
réalisation de MashUp se basent sur la programmation
événementielle. Ces applications composites (ou MashUp) peuvent
être sous la forme d'un site Web combinant du contenu provenant de
plusieurs sites Web. Le principe est donc d'agréger du contenu provenant
d'autres sites, afin de créer un site nouveau. Techniquement, cela est
rendu possible par l'emploi de fonctionnalités incluses dans AJAX ainsi
qu'avec les API fournies par certains sites. Un exemple pourrait être de
créer un service qui mélange les annonces d'eBay et Google Maps
pour visualiser l'emplacement du vendeur. Là encore
l'intérêt est d'inciter les développeurs à
répandre et à diffuser le contenu d'autres sites à une
échelle plus importante.
d. Les limites
Le problème qui se pose aux grands
sites 2.0 comme MySpace et Youtube est de réussir à transformer
leur énorme popularité en bénéfices nets.
Leur rachat par de grands groupes médias, stratégie dite de
« service en marque blanche », qui ont enrichi leurs fondateurs va
même dans le sens d'une bulle de spéculation qui a
toutes les chances d'éclater. Les deux exemples des ces plates
formes novatrices rachetée respectivement pour 650 millions de dollars
et 1.65 milliard est particulièrement édifiant, en effet ils
correspondent à environ 1000 fois le total de leurs pertes mensuelles.
De plus MySpace a un revenu annuel d'environ 200 millions de dollars pour un
milliard de pages vues par jours. Ce qui correspond au vingtième
du chiffre d'affaire de Yahoo, avec un nombre équivalent de pages
visitées, d'après le New York Times19.
Néanmoins certaines différences avec l'éclatement de
la bulle 1.0 peuvent laisser espérer que 2007 ne verra pas
encore l'e-économie s'effondrer.
19
http://www.nytimes.com/2006/04/23/business/yourmoney/23myspace.html?_r=1&ex=1303444800&en=68144371c
En effet à l'époque les entreprises
réelles ne rachetaient pas des virtuelles, mais on observait le
contraire : AOL rachetant Warner, etc.
On observe aujourd'hui plutôt une diversification et une
injection de capitaux dans le web par des groupes déjà
riches et solidement installées. Le rachat de Youtube par Google
permet ainsi à une gigantesque régie publicitaire
d'accéder à une audience mondiale. La deuxième
différence est le cout de développement. Comme
évoqué précédemment, celui-ci a
énormément baissé, la faillite d'une startup 2.0
est donc beaucoup moins grave pour son PDG qui peut presque en
démarrer une autre tout de suite.
Ainsi, l'éclatement d'une bulle 2.0 ne
semblerait pas venir d'un parallèle avec l'effondrement de la
net-économie des années 90, qui à force de
spéculation s'est retrouvée totalement en faillite. Mais il
existe d'autres facteurs qui peuvent rendre inquiets les
spécialistes, comme par exemple la difficulté d'attirer des
annonceurs sur un portail contenant des informations et des contenus
totalement hétérogènes car mis en ligne par les
internautes. Ainsi le Cout Pour Mille (CPM : le cout de la
visualisation de 1000 bannières de publicités) est
très inférieur sur les espaces web 2.0 que sur les
grands portails médias où le contenu est à l'avance connu
des annonceurs. L'arrivée du micro-marketing, c'est-à-dire le
marketing à portée des très petites entreprises,
grâce notamment aux Adsense et Adwords Google, a permis aux
pourvoyeurs de ces services de recueillir d'énormes
bénéfices. Mais les grands groupes, dont le budget
publicité ne s'est pas vraiment orienté sur le web, n'ont
pas suivi le mouvement, entrainant une baisse de la croissance de ce
secteur. Ainsi l'augmentation du nombre d'annonceurs et l'illusion de
l'expansion du marché pourrait conduire à une recette globale en
baisse. En effet le marché de la publicité est tiré vers
le haut par de grands comptes qui dépensent énormément
dans leur moyens de communication vers l'utilisateur, Internet y
compris. Que se passe-t-il si au lieu d'utiliser les moyens
traditionnels du web, ceux-ci préfèrent prendre en compte les
solutions beaucoup moins chères offertes par l'e-pub 2.0 ?
Or le web 2.0, encore jeune, va évoluer.
D'abord caractérisé par un mouvement gratuit collaboratif
entre internautes, il s'est vu ajouter une dimension produit, business et enfin
devra trouver un moyen de stabiliser son activité afin de réussir
dans la durée et bien sûr de monétiser et de dégager
une valeur ajoutée à son activité.
2. L'évolution du
e-Commerce et du e-Commerce
D'un point de vue marketing l'essor de l'Internet
collaboratif peut être très intéressant pour les agences
et les marketers chargés de vendre ou de communiquer sur un produit ou
un service. Le placement produit dans les interfaces
générées par les utilisateurs est un concept
très intéressant pour les commerciaux. L'e-Commerce
collaboratif, et le pinko-marketing vont également en ce sens. Enfin la
relation client est également en pleine évolution grâce
au web 2.0. Le CRM (Customer Relationship Management) est aujourd'hui
à la veille de devenir un CRM 2.0, en utilisant les techniques
de crowdsourcing. C'est sont ces aspects marketing plus qu'économiques
qui vont maintenant nous intéresser.
a. Le e-commerce 2.0
Les évolutions du e-commerce et l'influence du
marketing collaboratif s'expliquent par l'importance grandissante de l'effet
Long Tail (Longue Traîne en français).
La longue traine (ou longue queue) est un concept bien connu
des statisticiens. Il s'agit en fait d'une expression utilisée pour la
première fois en 2004 par Chris Anderson dans le magazine Wired afin
de décrire le modèles économiques des grandes
boutiques en ligne comme audible, Amazon ou eBay. En effet il s'est
attaché à observer et démontrer que les ventes des
articles les plus demandés par les internautes, étaient
globalement moins élevées que le total des ventes des articles
les moins demandés, qui sont beaucoup plus nombreux. De cette
idée découle plusieurs effets. Le facteur clé
déterminant l'existence ou non d'une longue traine est le cout
de stockage. En effet, si les couts sont faibles il devient plus
intéressant de diversifier son offre mais quand ceux-ci augmentent, il
vaut mieux se concentrer sur les produits les plus vendus.
L'arrivée d'Internet, permettant de faire baisser
énormément les cours de stockage à donc vu se
développer un grand nombre de boutique en lignes basées sur la
longue traine. Dans ces conditions, afin de diversifier encore plus
l'offre, la création d'objets personnalisés est devenue
plus rentable que la standardisation. De plus le marché de
niches devient de plus en plus important. En effet, il devient plus
intéressant de satisfaire beaucoup de petites fractions du
marché, plutôt qu'un seul énorme. En effet, sur les
secteurs très concurrentiels, le marché est saturé,
surtout sur Internet. En revanche les niches, après avoir
été très peu considérées, permettent un
profit élevé. En effet la facilité de communication
sur Internet permet de toucher un plus grand nombre de personne,
rendant une niche sur Internet plus intéressante que jamais.
Parallèlement à ce rejet de la
standardisation, la publicité classique, dirigée de
l'annonceur vers le spectateur perd du terrain. Celui-ci est de plus
en plus habitué et enclin à éviter le message
publicitaire. Cette situation peut être un désavantage mais
peut être également bénéfique pour l'entreprise
si elle agit sur le « bouche à oreille positif »19.
C'est à dire en déguisant de la publicité comme un message
informatif diffusé entre utilisateurs eux-mêmes, ce qui est
une utilisation des aspects communautaire du web 2.0. Selon Frank Jacob
et Martin Oetting, tous deux professeurs en Marketing à
l'Université de Berlin, les marques doivent apprendre à
interagir avec leurs clients, a dialoguer via les espaces publics
présent, que ce soient les blogs ou les plateformes de partage
communautaires. Ainsi Opel a mis à la disposition de 8 bloggeurs
indépendants une Corsa afin qu'ils l'évaluent et en fasse
des commentaires sur le blog créé pour l'occasion par la
marque.
E-commerce collaboratif
La mode est aujourd'hui la personnalisation,
la contribution de l'internaute est de plus en plus utilisée par les
boutiques en lignes.
Pinko Marketing
Le pinko marketing est une nouvelle vision du marketing,
tourné vers Internet. Encore balbutiant, c'est une idée
développée par Tara Hunt 20.
b. Blog de marque
Le blog corporate
Le blog, figure emblématique du
web 2.0 est de plus en plus utilisé par les marques dans
leurs stratégies corporate. Complétant les informations du
site institutionnel il permet d'établir une connivence avec le
public, et ainsi peut être à l'écoute de sa
communauté. Les avantages d'une solution blog sont nombreux s'il
est utilisé en complément du site web, qui est la réelle
vitrine de l'entreprise. Il permet par exemple une ligne éditoriale
plus souple et plus proche d'un segment de la population, ainsi
qu'une plus grande interactivité que sur le web traditionnel,
habituellement plus figé. D'un point de vue technique, il permet
également d'avoir un trafic qualifié et
intéressé par la marque, redirigé depuis le site
web, ainsi qu'un meilleur référencement que la vitrine. Du
point de vue financier, la mise en place d'un blog est rapide et
peu couteuse, elle peut donc être considérée comme la
partie dynamique et actuelle d'un site web qui peut être statique dans le
temps et mis à jour beaucoup moins souvent.
Les blogs d'entreprise se divisent en deux types.
Tout d'abord les blogs officiels, où la marque apparaît
clairement et utilise ses outils marketing visiblement et les blogs officieux
qui essayent de cacher leur affiliation afin de bénéficier de la
crédibilité attribuée aux bloggeurs. Ces blogs officieux
restent néanmoins facilement identifiables.
La communication sur Internet d'une
entreprise se trouve grandement facilitée par l'usage des blogs.
Tant du point de vue du rédacteur, pour qui la mise en place
et l'administration est très simple que de celui de
l'utilisateur, maintenant familiarisé avec ces nouvelles formes de
contenus. Cette actualisation est peu intrusive, à la différence
de la newsletter, l'internaute qui a accès à l'information
est donc uniquement celui qui est intéressée par
celle-ci. Cette information peut également être
distillée aux journalistes qui y trouveront matière
à des articles beaucoup plus facilement et donc seront plus
enclins a parler de l'entreprise ce qui augmentera sa visibilité.
20
http://www.arkantos-consulting.com/articles-marketing-internet/webmarketing-mix/20071221-le-pinko-marketing.php
En parallèle de cette
communication de l'entreprise vers ses clients, le blog de marque
officiel permet également un retour sur les produits ou
services vendus par l'entreprise.
Le référencement, souvent
problématique et difficile à appréhender, se trouve
grandement facilité par l'utilisation des blogs. En effet les
contenus sont facilement analysables par les robots, comportent un
grand nombre de liens entrants et sortants ainsi que de liens internes,
qui sont autant de critères de calcul de l'algorithme du Page Rank du
leader actuel, Google.
Il existe des blogs de marques officiels
émanant véritablement du pôle communication de
l'entreprise, mais également des blogs officiels
rédigés par des amateurs car ils sont passionnés
par l'esprit de la marque, souvent dans le secteur automobile. Par
exemple, NetFlix, un loueur de DVD en ligne possède un blog non officiel
mais qui revendique totalement sa filiation.
Le blog est également un outil à
privilégier pour les très petites entreprises, qu'elles
possèdent ou non un site web institutionnel, et ce pour
plusieurs raisons. La nature même des TPE rend caduque
l'utilisation d'un webmaster à plein temps, par manque de main
d'oeuvre principalement. Avec l'utilisation des blogs la
visibilité sur Internet peut être facilitée et
accessible à n'importe quel membre de l'équipe. En effet,
pour ces entreprises, le blog professionnel dispose d'un très
bon rapport effort fourni / retour constaté. Souvent sous
licence open source les blogs et hébergements sont quasiment
gratuits, et surtout esthétiquement de bonne qualité, ce
qui n'est majoritairement pas le cas des sites web
réalisés en interne par un des membres de l'équipe
qui possède quelques notions de programmation. De même que
les problématiques graphiques et d'hébergement, le
référencement est généralement assuré par la
plate forme. Le blog peut donc être un outil
particulièrement utile pour les professionnels.
Le blog officieux
Les blogs officieux, qui cachent leur enseigne
d'affiliation, sont un dérivé des techniques de marketing
viral souvent utilisés sur Internet. On peut citer par exemple les
campagnes Vichy (pourmapeau.fr) ou Celio (nousleshommes.fr). Le
problème de ces campagnes est que leur outil se retourne souvent
contre eux. En effet, il est souvent très facile de reconnaître
à quelle marques ils se rapportent, justement parce qu'ils en
font l'apologie. L'internaute est alors rebuté par cette tentative,
d'autant plus que les marques essaient souvent de se camoufler sous une
apparence journalistique. Un bon exemple de ce ratage est la campagne Super
Radin, réalisée pour Cetelem par l'agence Pékin. Ce site
cherchait à prouver aux futurs demandeurs de crédits que
le crédit à la consommation pouvait servir à
financer des biens de consommation courante et pas seulement des
appartements ou des voitures. De ce coté, l'objectif didactique
était rempli mais c'est la tentative de buzz par le blog qui est
avortée. La tentative de communication virale est peu
adaptée à ce type de blog, en effet les internautes se partagent
volontiers des textes ou des liens vers des contenus multimédias,
mais plus difficilement des sites sur la facilité d'obtenir un
crédit, surtout un site appelé `super radin'. A fortiori cette
campagne qui cède à un effet de mode mais ne résulte pas
d'une réelle stratégie comporte plusieurs écueils dans sa
réalisation.
Ainsi, le choix d'une campagne virale ne doit pas
être automatique, et c'est malheureusement souvent le cas dans
les campagnes de blogs officieux. Plus que ces derniers, les marketers
se devraient de rejoindre la voie du journalisme de publicité,
le publi-rédactionnel.
3. Stratégie
marketing et CRM
a. Crowdsourcing et
pronétariat
Le crowdsourcing (littéralement `approvisionnement
par la foule') est un néologisme décrivant un modèle
économique inventé par Jeff Howe et Mark robinson en Juin 2006
dans un article du magazine Wired. Il s'agit d'un système
dérivé de l'outsourcing (`sous traitance') qui ne fait pas
travailler des prestataires étrangers moins chers, mais des internautes,
amateurs et prêt à être peu
rémunérés. Il diffère du pinko marketing qui est
plus une stratégie de promotion, par ses implications plus
axée sur l'économie.
Concrètement, pour faire du crowdsourcing,
l'entreprise doit déléguer un poste qui est dévolu
à un employé unique à un large groupe d'internaute qui
répondra à un appel sur Internet. Ceux-ci seront
micropayés si leur travail est validé, mais travailleront
gratuitement dans le cas contraire. Ses implications directes en font
donc un modèle économique parfaitement représentatif du
web 2.0. Ainsi la doctrine du crowdsourcing se résume par le postulat
selon lequel un grand nombre d'enthousiastes peut être plus
performant qu'un petit groupe de professionnels
expérimentés. Ici encore, la longue traine joue un
rôle important, en effet chaque acteur a un rôle insignifiant
mais le total des compétences de la communauté est gigantesque.
Le crowdsourcing peut à terme devenir une menace pour
les professionnels c'est du moins ce que craignent certains photographes. Comme
avec le débat autour de Flickr et l'utilisation de photos d'amateurs. Un
des exemples les plus intéressants de crowdsourcing a été
réalisé par Amazon. Sur son interface Amazon Mechanical
Turk, La célèbre boutique en ligne propose aux internautes
de réaliser des taches très répétitives mais
impossible à réaliser par un ordinateur. Impossible ou
plus chères, la machine devenant plus couteuse que l'être
humain. Les taches se composent essentiellement de tris de photos,
rémunérés quelques centimes. En France, la plate-forme
Wilogo propose à ses adhérents de réaliser des logos pour
des entreprises. Généralement, le nombre de propositions
pour un client s'élève à 80 propositions. Le cout
d'un tel appel d'offre est faramineux, mais ici il est quasiment
gratuit. Le graphiste choisi reçoit un chèque d'environ
300 euros, une somme suffisamment importante pour attirer un amateur
mais qui est d'une part ridicule par rapport aux prix du marché,
mais est également soumise à une commission de la part de la
plate-forme. Ce n'est pas le contributeur qui est gagnant mais bien
l'entreprise. En faisant miroiter un travail de chez soi, simple, les
crowdsourceurs s'assurent des pronétaires une main d'oeuvre docile et
totalement sous payée. Dans le cas de Wilogo, ils s'appuient même
sur la fierté du graphiste amateur de voir son travail choisi
par une entreprise. Les auteurs ont même poussé le
système à son paroxysme en proposant de retravailler toute la
charte graphique du site, ce qui coute plusieurs milliers d'euros, en
proposant comme récompense, un baladeur MP3. Pourtant, selon
Fred Cavazza « ce genre d'initiative réellement remarquable et
surtout révélatrice du réel potentiel du web 2.0 : des
modèles participatifs avec redistribution des revenus
»21. Il avoue lui même pécher
souvent par optimisme, néanmoins dans l'esprit ce type
d'initiative peut être intéressant par exemple avec Cambrian
House. Cette start-up se décrit comme une incubatrice de
logiciels. Ils font appel à l'imagination des internautes pour avoir des
idées de concepts de logiciels. Des développeurs
crowdsourcés développent les idées les mieux notées
par la communauté. Cambrian House se charge de la
commercialiser et redistribue les revenus à tous les maillons de
la chaine. On a ainsi une entreprise qui peut être dotée
d'une grande force, mais n'employant aucun salariés.
Pronétariat
Le pronétariat est un
néologisme qui découle de l'idée de crowdsourcing.
Il s'agit d'une contraction du prolétariat, qui désigne
les ouvriers volontaires de l'Internet. Joël de Rosnay
définit les pronétaires comme « une nouvelle classe
d'usagers des réseaux numériques capables de produire,
diffuser, vendre des contenus numériques non propriétaires,
en s'appuyant sur les principes de la ''nouvelle nouvelle économie''.
»22 Ils se rapprochent ainsi des « pro-ams
», les professionnels amateurs, qui utilisent les outils professionnels
accessibles facilement sur Internet.
21
http://www.fredcavazza.net/2006/07/19/start-up-crowdsourcing-cambrian-house/
22
http://www.contacttv.net/i_dossier_recherche_contenu.php?id_rubrique=384&id_article=2257
b. CRM 2.0
Le CRM, (Customer Relationship Management, gestion de
la relation client) composante très importante du marketing
relationnel, est en passe d'évoluer radicalement grâce aux
nouveaux outils du web 2.0. La création de communauté en ligne
permet de recueillir des informations sur les prospects très
facilement. Cette gestion de la relation cliente est facilitée par de
nombreux logiciels aidant à fidéliser les clients. Ces logiciels
utilisent de plus en plus les technologies du web 2.0, en termes de
convivialité et de puissance d'une part, mais également du
point de vue participatif en mettant les clients au coeur de la
stratégie CRM de l'entreprise. Ainsi, l'ancien outil maitre du
CRM sur Internet, la newsletter est totalement repensée grâce
à l'ajout de flux RSS au site de l'entreprise. Ceux-ci permettent de
faire vivre le site et d'informer instantanément les clients sur
la vie de la marque et les nouveaux produits disponibles.
De même, la CRM sur Internet a également
comme mission de suivre l'évolution du compte d'un client, par exemple
lors d'une commande sur une boutique en ligne. La encore les flux RSS
permettent de s'affranchir des alertes mails.
LA VRM : Vendor Relationship Management
Le VRM est un nouveau cap de la
relation client qui inverse la relation client-vendeur. Il permettra
à l'avenir (il s'agit encore d'un concept en
développement) au client de disposer des même armes que le
vendeur en lui permettant de choisir son propre vendeur, et non plus
d'être choisi par lui.
Des ébauches de VRM existent cependant
déjà dans l'e-tourisme avec des services comme
l'éco-comparateur mis en place par voyages-sncf.com. Ce service
compare les offres des différentes agences de voyages qu'elles
soient aérienne ou ferroviaires et propose le meilleur prix au
client. Néanmoins il est encore sommaire et ne prend pas en compte les
différentes cartes de fidélités, habitudes de voyage, etc.
Ainsi le VRM contournerait les intermédiaires,
mais la principale difficulté à sa mise en place sont les
politiques commerciales des différents acteurs concurrentiels qu'il
mettrait en compétition.
FeedBack 2.0
FeedBack 2.0 est logiciel de CRM en ligne
utilisant pleinement les apports du web 2.0. En effet il propose de
créer des communautés permettant à tout membre de
l'entreprise de s'informer sur les suggestions et les innovations
proposée par ses clients.
Ainsi les prospects, ou par extension
toute personne intéressée par la vie de l'entreprise peut
laisser des commentaires, des suggestions d'amélioration, qui
seront évaluées et notées par la communauté
dans son ensemble et pas uniquement par une instance centrale. Il
s'agit d'une application facilitant le dialogue et permettant dans un
premier temps de l'initier. L'utilisation des technologies AJAX, RSS,
ainsi que des tags pour la navigation en fait une application Rich
Media résolument moderne. L`avantage par rapport au blog est que la
communauté s'anime d'elle même et ne nécessite pas du
webmaster d'ajouter du contenu pour en faire discuter les clients.
Feedback possède évidement
des outils permettant de motiver les clients à être
actifs, comme des systèmes de notation récompensant les membres
qui donnent le plus de commentaires, etc.
4. Les enjeux juridiques du
Web 2.0
a. Le problème des
droits d'auteurs dans les sites de partages
Le web 2.0, vu comme un formidable moyen de partager des
créations originales ou des informations, se heurte de plus en plus au
problème du droit d'auteur. En effet il est possible sur Dailymotion
par exemple d'accéder à des contenus sous copyright comme
des épisodes de grandes séries à succès.
Dans ces conditions, quelles sont les solutions qui peuvent être
apportée afin de satisfaire d'un coté les auteurs, et de l'autre
de ne pas faire fuir les utilisateurs, l'audience restant le seul
moyen d'attirer les annonceurs et donc de faire survivre le site ? Youtube a
ainsi été récemment assigné en justice par la
chaîne américaine NBC, qui exigeait le retrait de certains
extraits de ses émissions à succès. La solution
pourrait constituer en des partenariats avec ces grands groupes
médias, autorisant Youtube à utiliser sa force de frappe
pour diffuser des émissions entières mais entrecoupées
de publicité. Ce faisant, on opérera par contre un réel
retour en arrière dans le concept même de web 2.0. Le pourvoyeur
d'informations ne sera plus libre mais surveillé, et les contenus mis en
avant car plus lucratifs seront ceux payés par des annonceurs pour
être affichés. Le web 2.0 est il condamné à
disparaître, au même titre que Napster par exemple ? Napster
qui a d'ailleurs également essayé de se transformer en
système légal lorsqu'il s'est vu interdire son offre de
téléchargements gratuits. Voici quelques éléments
de réponses basées sur des réflexions communautaires du
web 2.0 à travers ces quelques interrogations.
- Quel est le statut du responsable d'un site Web 2.0
(loi LCEN) ?
La loi pour la confiance dans l'économie
numérique du 21 juin 2004 (LCEN) a édicté un régime
de responsabilité spécifique et allégé pour les
prestataires techniques qui assurent le stockage de contenus fournis par le
destinataire du service. Le web 2.0 conduit les juges à s'interroger sur
la qualité de l'opérateur du site Web 2.0 dont la
responsabilité est recherchée : est-il hébergeur au sens
de la LCEN ou éditeur ? En d'autres termes, est-il responsable du
contenu qu'il publie ?
- Comment diffuser des données personnelles
(loi Informatique et Libertés) ?
Les données personnelles ne peuvent être
diffusées qu'après avoir obtenu l'accord préalable des
personnes et les avoir informées de leurs droits et modalités
d'exercice. Les politiques de confidentialité des sites doivent traduire
les principes de la loi Informatique et Libertés. La CNIL ainsi que ses
homologues européens s'interrogent sur le respect de ces principes par
les sites de réseaux sociaux du type Facebook, Myspace...
- Comment gérer les RSS, blogs, forums,
agrégateurs ?
Les contrats d'hébergement ou les conditions
générales d'utilisation des sites permettent de fixer les
obligations et la responsabilité de l'utilisateur en matière de
contenus ainsi que les mesures de sanction pouvant être prises par le
site.
- Modération et filtrage : quels sont les
risques juridiques ?
En modérant ou filtrant le contenu, l'opérateur
de site pourrait être considéré comme modifiant le contenu
et dès lors assumer une responsabilité d'éditeur. Pourtant
ces moyens doivent être utilisés pour répondre à des
exigences spécifiques mises à la charge des sites par la loi LCEN
(contribution à la lutte contre certaines activités illicites) ou
par les tribunaux (obligation particulière de surveillance).
- Comment interpréter les récentes
décisions contre le Web 2.0 (LesPipoles, Fuzz, DicoDuNet, Wikio...)
?
Ces décisions qualifient les opérateurs des
sites d'éditeur. Ils sont donc responsables des contenus illicites
auxquels les flux RSS renvoient automatiquement ou directement mis en ligne par
des internautes.
La portée de ces décisions rendues en
référé et contraires à d'autres décisions
judiciaires qualifiant les opérateurs de sites Web 2.0
d'hébergeur doit être relativisée. Toutefois, elles
créent une insécurité juridique qui poussera
peut-être le législateur à créer un régime de
responsabilité spécifique aux sites...
- Comment peut-on mesurer les risques juridiques
encourus par un site web ?
La meilleure façon est certainement de se renseigner
dans un premier temps sur les enjeux juridiques réels liés aux
nouvelles formes de publication des sites web, qu'ils fassent intervenir des
internautes (blogs, forums, wikis, etc.) ou qu'ils agrègent des contenus
tiers (flux RSS, affiliations, marque blanche, etc.). Ensuite, à chacun
de voir si un accompagnement par un professionnel du droit s'impose, afin de
prévenir en amont...
Conclusion
Le web 2.0 et tout son apanage technique et
technologie apparaît logiquement comme novateur dans sa
modification fondamentale de la communication sur Internet. Le serment du Web
2.0 est donc d'ouvrir une ère nouvelle où les utilisateurs sont
à la fois les contributeurs et les bénéficiaires.
Dès lors la perception de l'intelligence collective prend tout son sens.
Un point de départ où une multitude de nouveaux usages et de
nouvelles applications sont encore à trouver.
Il n'en demeure pas moins que cette notion
conceptuelle qu'est le Web 2.0 reste floue à définir mais aussi
à cerner... Pour le moins paradoxal en soit puisque tout le monde en
parle mais pourtant personne en saurait en donnait une définition exacte
sur laquelle tout le monde s'accorderait. Il s'agit surtout d'un ensemble
d'enjeux économiques, de nouveaux services définis pour mais
aussi autour de l'internaute.
Beaucoup de services estampillés 2.0 ont vu le jour
durant ces derniers mois et années, beaucoup sur un même
marché d'autres ont su créer la différence et inventer un
service apprécié des utilisateurs mais jusqu'à lors
inexistant. Cependant, si l'on prend le modèle du web 1.0,
première bulle, mais aussi en s'appuyant sur les modèles
économiques 2.0 basés en majeure partie sur la publicité
ou sur la valeur d'une potentielle entreprise, on peut s'attendre à voir
disparaitre beaucoup de ces jeunes « start-up » dans un futur
relativement proche tant le marché est en pleine évolution
devient hautement concurrentiel.
Ainsi en termes d'evolution du Web2.0, on peut imaginer
plusieurs choses. Premièrement, l'avènement du concept de Web
sémantique va révolutionner la manière de faire ses
recherches sur Internet. Deuxièmement, on peut concevoir une
évolution de la syndication des données en combinant
données et services afin de permettre de développer encore plus
le concept de plateforme client/serveur où n'importe quelle application
devient accessible via Internet. Enfin, si le terme de Web 3.0 doit exister un
jour, cela ne pourra être qu'en tant qu'une évolution du Web2.0
avec des services encore plus poussés, plus intuitifs et surement le
principe des MashUps exploités au maximum avec des sites concentrant un
ensemble de services.
BIBLIOGRAPHIE
Webographie
Internet mobile, état des lieux : le futur du web
est-il mobile ?
http://www.presse-citron.net/internet-mobile-etat-des-lieux-le-futur-du-web-est-il-mobile
Twitter entre dans la cour des grands du Web
2.0
http://www.lesechos.fr/info/comm/300356861-twitter-entre-dans-la-cour-des-grands-du-web-2-0.htm
Archives pour Marketing 2.0
http://www.michelleblanc.com/category/marketing-20/
Déployer des services Web 2.0 : état des
lieux, opportunités, exemples à suivre
http://www.benchmark.fr/catalogue/publication/69/etude-deployer-des-services-web-2-0-etat-des-lieux-opportunites-exemples-a-suivre.shtml
What is Web 2.0 by Tim O'Reilly
http://www.eutech-ssii.com/ressources/1
Le WIKI de l'Université de Paris
http://wiki.univ-paris5.fr/wiki/Fil_RSS
Le développement web avec AJAX
http://www.ak-project.com/spip.php?article82
Le nouveau Yahoo Mail
http://www.arobase.org/blog/2009/09/le-nouveau-yahoo-mail-est-allege-et-enrichi-et-alors/
Adobe AIR
http://www.linformaticien.com/Actualités/tabid/58/newsid496/2267/Default.aspx
XML
http://www.futura-sciences.com/fr/definition/t/internet-2/d/xml_3997/
Ruby on Rails : dossier complet pour tout comprendre sur
cette techno phare du web2.0
http://blog.aysoon.com/66-ruby-on-rails-dossier-complet-pour-tout-comprendre-sur-cette-techno-pahre-du-web20
Présentation de XML
http://www.commentcamarche.net/contents/xml/xmlintro.php3
Les Mashups, applications Web composites très Web
2.0
http://www.journaldunet.com/solutions/0606/060628-qr-mashup-hybride.shtml
Web 2.0 Etat de l'art
http://www.ymca.int/uploads/media/Web2.0_Etat_de_art.pdf
Le Web 2.0 va révolutionner le CRM
http://www.journaldunet.com/expert/6309/le-web-2-0-va-revolutionner-le-crm.shtml
Hypothèses d'évolution pour le web
2.0
http://www.fredcavazza.net/2007/08/30/hypotheses-devolution-pour-le-web-20/
What Is Web 2.0
http://oreilly.com/web2/archive/what-is-web-20.html
REST
http://www.clever-age.com/veille/clever-link/soap-vs.-rest-choisir-la-bonne-architecture-web-
services.html#titre4
Les enjeux juridiques du Web 2.0 : quelques
réflexions...
http://www.webrankinfo.com/actualites/200804-enjeux-juridiques-du-web-2.htm
ANNEXES
Annexe 1 : Traduction
française de l'article fondateur du web 2.0 de Tim O'Reilly
Qu'est ce que le web 2.0 : modèles de conception
et d'affaires pour la prochaine génération de
logiciels.
L'explosion de la bulle internet en 2001 a
définitivement marqué un tournant dans l'histoire du web.
Beaucoup de gens ont à ce moment considéré que le web
était une technologie surévaluée alors qu'au contraire, le
fait qu'une bulle se forme puis éclate est un trait commun à
toutes les révolutions industrielles. Ces soubresauts sont même
caractéristiques du moment où une technologie ascendante est
prête à entrer dans une nouvelle phase. C'est en effet le moment
où les simples prétendants arrivent à bout de souffle
tandis que les points forts des premiers gagnants apparaissent : et c'est
seulement à cet instant que l'on commence à comprendre ce qui
distingue les premiers des seconds.
Le concept de web 2.0 est apparu avec une conférence
« brainstorming » entre O'Reilly et Medialive International. Dale
Dougherty, pionner du web et membre d'O'Reilly notait alors que bien loin de
s'être effondré, le web n'avait jamais été aussi
important et que nombre de nouveaux sites et applications à
caractère innovant apparaissaient avec une régularité
déconcertante. De plus, les quelques sociétés qui avaient
survécu à l'hécatombe semblaient avoir quelque chose de
commun. Se pouvait-il que le crack des « dot com » eût
révélé une nouvelle ère pour le web au point que
l'expression « web 2.0 » ait un sens ? Nous sommes alors
tombés d'accord sur le fait que cela en avait un : la conférence
web 2.0 était née.
En un an et demi (ndt : l'article est daté du
30/09/2005), le terme « web 2.0 » s'est franchement popularisé
avec plus de 9,5 millions de citations dans Google. Mais il reste encore de
multiples points de désaccord sur sa signification exacte, un certain
nombre de personnes décriant ce qui ne leur semble être qu'un
buzzword bien marketé, d'autres y voyant une nouveau modèle de
pensée.
Cet article est donc une tentative de clarification du sens
du terme « web 2.0 ». Dans notre brainstorming initial, nous avons
exprimé notre ressenti du web 2.0 par l'exemple :
Web 1.0 // Web 2.0
DoubleClick --> Google AdSense
Ofoto --> Flickr
Akamai --> BitTorrent
mp3.com --> Napster
Britannica Online --> Wikipedia
sites perso --> blogs
evite --> upcoming.org et EVDB spéculation sur les
noms de domaines --> optimisation pour moteurs de recherche pages vues
--> coût au clic
« screen scraping » --> services web publication
--> participation système de gestion de contenu --> wikis
arborescence (taxonomie) --> tags ("folksonomy") rigidité du contenu
--> syndication de contenu
Et la liste pourrait encore s'allonger... Mais cela ne nous
dit toujours ce qui fait qu'une application ou un concept est web 1.0 et un
autre web 2.0. (La question est particulièrement pressante dans la
mesure où le terme « web 2.0 » s'est à ce point
répandu que des entreprises se l'approprient bien souvent sans
réelle compréhension de sa signification. C'est d'autant plus
délicat que la plupart de ces start-ups friandes de termes à la
mode ne sont en rien web 2.0 et que parallèlement à cela des
applications que nous avons identifiées comme étant web 2.0,
comme Napster ou BitTorrent ne sont même pas des applications web
à proprement parler !). Nous avons donc commencé à tirer
de ces exemples les principes qui sont d'une manière ou d'une autre
à la base des succès du web 1.0 mais aussi des applications
récentes les plus remarquables.
Le web en tant que plate-forme
Comme de nombreux concepts majeurs, le web 2.0 n'a pas de
frontière claire mais plutôt un centre de
gravité. Vous pouvez voir le web 2.0 comme un ensemble de
principes et de pratiques qui, à la manière d'un système
planétaire, verrait des sites exposant tout ou partie de ses
préceptes graviter à des distances variables du centre en
question.
Ce
schéma montre une cartographie du web 2.0 telle qu'elle a
été développée lors d'une session brainstorming
pendant le FOO Camp, une conférence O'Reilly Media. C'est encore
à l'état de brouillon mais cela montre la plupart des
idées émanant du noyau du web 2.0.
Lors de
la première conférence web 2.0 en octobre 2004, John Battelle et
moi-même avons établi une liste préliminaire de principes
pour notre discours d'ouverture. Le premier de ces principes était
« le web en tant que plate-forme ». Or il se trouve que
c'était déjà la devise d'un enfant chéri du web
1.0, Netscape, qui avait malgré cela succombé à sa fameuse
bataille contre Microsoft.
De
plus, deux de nos exemples web 1.0 de départ, DoubleClick et Akamai,
étaient des pionniers qui avaient eux aussi abordé le web comme
une plate-forme. Les gens n'y pensent pas souvent en tant que « services
web » mais en réalité, les serveurs de publicité
furent probablement les premiers « mashup » (ndt : dans le
sens ou ce sont des contenus diffusés directement au sein de sites
clients) largement déployés sur la toile.
Chaque
bannière publicitaire est en effet une forme de coopération entre
2 sites web dans un seul but : délivrer une page intégrée
à un lecteur sur ordinateur de plus. De son côté, Akamai
traite aussi le réseau en tant que plate-forme quand il élabore
un cache ainsi qu'un système de distribution de contenu soulageant la
bande-passante d'un réseau souvent congestionné.
Cependant
ces pionniers apportent des contrastes intéressants avec des acteurs du
web plus récents dans la mesure où ces derniers ont repris
à leurs aînés des solutions aux mêmes
problématiques tout en les poussant plus loin, et qu'ils expliquent
ainsi de manière plus profonde la véritable nature de cette
nouvelle plate-forme. DoubleClick et Akamai furent donc des pionniers du web
2.0, mais nous constatons déjà qu'il est possible d'exploiter
plus efficacement ce nouveau concept à l'aide d'autres «
design patterns » du web 2.0.
Je vous
propose d'examiner plus précisément les trois cas qui suivent et
qui nous permettront d'extraire les fameux traits différenciant le web
1.0 du web 2.0.
Netscape
vs. Google
Si
Netscape est emblématique du web 1.0, Google est de manière
encore plus certaine son équivalent web 2.0, ne serait-ce du fait de
leurs entrées sur les marchés boursiers qui marquèrent
chacune l'aube d'une nouvelle ère du web. Commençons donc la
comparaison de ces deux sociétés et de leur
positionnement.
Netscape
énonçait « le web en tant que plate-forme » dans les
termes du paradigme du logiciel d'autrefois : leur produit-phare était
le navigateur web, une application cliente, et leur stratégie
était d'utiliser leur domination sur le marché du navigateur pour
créer un marché à destination des serveurs haut de gamme.
Le contrôle des standards d'affichage de contenu et des applications
utilisant un navigateur aurait du en théorie donner à Netscape le
même genre de pouvoir sur ce marché que celui que possède
Microsoft sur celui des Pcs. Un peu à la manière de l'expression
"horseless carriage" (ndt : « la charrette sans cheval
») qui popularisa l'automobile, Netscape promut l'expression
« webtop » pour supplanter le desktop et prévit de remplir ce
webtop d'informations et d'applications grâce à des apporteurs de
contenus qui utiliseraient des serveurs Netscape.
Finalement,
serveurs et navigateurs web devinrent de simples outils et la plus grande part
de la valeur ajoutée du web se concentra dans les services
diffusés par les plates-formes web.
Google
au contraire, commença son existence en tant qu'application web native,
jamais vendue ou packagée mais délivrée en tant que
service, avec des clients payant, directement ou indirectement, pour utiliser
ce service. Aucun des pièges de la vieille industrie logicielle ne
pouvait s'appliquer à son modèle. Aucun planning de sortie de
différentes versions, juste une amélioration continue. Aucun
système de vente ou de licence, simplement des utilisateurs. Aucun
problème de portage sur différentes plate-forme de sorte que les
clients puissent faire marcher le logiciel sur leur machine, uniquement une
quantité massive de Pcs utilisant un système d'exploitation open
source ainsi que quelques applications maison (que quiconque d'extérieur
à l'entreprise n'a jamais pu voir...).
A la
base, Google nécessitait une compétence dont Netscape n'avait
jamais eu besoin : la gestion de base de données. Google n'est pas une
simple suite d'outils logiciels, c'est une base de données
spécialisée. Sans données, les outils ne servent à
rien ; sans logiciel, les données sont ingérables. La gestion des
licences et le contrôle des API - points cruciaux de l'ère
précédente - n'avaient plus lieu d'être dans la mesure
où les logiciels n'avaient plus besoin d'être distribués
mais seulement utilisés et où sans la capacité de
collecter et de gérer des données, le logiciel n'est que de peu
d'utilité. En fait, la valeur d'un logiciel est proportionnelle
à l'échelle et au dynamisme des données qu'il permet de
gérer.
Le
service offert par Google n'est ni un serveur - bien qu'il soit
délivré par une quantité massive de serveurs web - ni un
navigateur - bien que pour l'utiliser, un navigateur soit nécessaire.
Leur service de recherche bien connu n'héberge même pas le contenu
qu'ils permettent à leurs utilisateurs de trouver. A la façon
d'un coup de téléphone où la valeur n'est pas dans les
téléphones mais le réseau les mettant en relation, Google
place sa valeur dans l'espace situé entre le navigateur et le serveur de
contenu, comme un opérateur entre l'utilisateur et son usage du web.
Même
si Netscape et Google peuvent être décrites comme des
sociétés de logiciels, il est clair que Netscape appartient
à la même catégorie que les Lotus, Microsoft, Oracle, SAP,
et autres qui ont pris leur envol au début de la révolution
logicielle du début des années 80 alors que les comparses de
Google sont d'autres applications web telles que eBay, Amazon, Napster, et bien
entendu, DoubleClick et Akamai.
DoubleClick
vs. Overture et AdSense
Comme
Google, DoubleClick est un pur produit de l'ère internet. Il
décline le modèle du logiciel en tant que service, a un coeur de
métier dans la manipulation des données et, comme nous l'avons vu
plus haut, a été un pionnier du service web bien avant même
que le terme « web service » ait été
créé. Cependant, DoubleClick fut finalement limité par son
modèle économique. La société paria en effet sur la
croyance très « 90's » que le web était fait de
publications et non de participations. ; que les annonceurs, et non les
consommateurs, devaient être les acteurs moteur ; que la taille
importait, et qu'Internet serait peu à peu dominé par les
quelques sites webs du haut des classements de MediaMetrix et ses
semblables.
Dans
cette logique, DoubleClick annonce fièrement sur son site « plus de
2000 implémentations réussies » de sa solution. Pendant ce
temps, Yahoo! Search Marketing (auparavant Overture) et Google
AdSense possèdent déjà des centaines de milliers
d'annonceurs...
Le
succès de Google et d'Overture provint de leur compréhension de
ce que Chris Anderson nomme « la longue traîne » (ndt :
traduction de l'expression « the long tail » déjà
popularisée dans la communauté francophone) : la force
collective des petits sites représente l'essentiel du contenu du web.
L'offre de DoubleClick demande un contrat de vente très formel, limitant
leur marché aux quelques milliers de sites les plus importants. Overture
et Google ont montré comment il était possible d'ajouter
virtuellement de la publicité sur n'importe quelle page existante. De
plus, ils ont remplacé les publicités tape-à-l'oeil et
agaçantes telles que les bannières et les « pop-up »
par des messages peu intrusifs, sensibles au contexte de la page à
laquelle ils s'intègrent et finalement plus appréciés des
consommateurs.
Leçon
du web 2.0 : mettre au point un service simple d'accès et une
gestion algorithmique des données pour toucher
l'intégralité du web, jusque dans sa périphérie,
pas seulement son centre, jusqu'au bout de sa longue traîne, pas
seulement en son coeur.
De
manière peu surprenante, les autres « success stories » du web
2.0 démontrent le caractère gagnant de ce modèle. Ebay
permet les transactions occasionnelles de quelques dollars entre individus en
tant qu'intermédiaire. Napster (bien que fermé pour des raisons
légales) ne s'est pas construit grâce à un immense
catalogue de chansons mais à travers la mise au point d'un
système faisant de chaque client un serveur renforçant
lui-même le réseau.
Akamai
vs. BitTorrent
Tout
comme DoubleClick, Akamai est optimisé pour faire des affaires avec un
coeur de cible pas avec la périphérie du marché. Bien que
ses services bénéficient à tous en facilitant
l'accès aux sites à fortes audience, ses revenus ne proviennent
que d'un certain nombre de grands comptes du web.
BitTorrent,
comme les autres pionniers du mouvement peer-to-peer, utilise une approche
radicalement différente de la décongestion des flux. Chaque
client est aussi un serveur, les fichiers sont découpés en
fragments légers pouvant être téléchargés de
plusieurs lieux à la fois, permettant ainsi à chacun des membres
du réseau d'apporter un peu de bande passante et de données
à chacun des autres utilisateurs : plus un fichier est populaire, plus
rapide est son téléchargement.
BitTorrent
illustre là un principe clé du web 2.0 : le service
s'améliore automatiquement quand le nombre de ses utilisateurs
croit. Alors qu'Akamai doit ajouter des serveurs pour améliorer son
service, chaque utilisateur de BitTorrent apporte un peu de ses ressources
à l'ensemble de la communauté. C'est implicitement une «
architecture de participation », une nouvelle éthique de la
coopération dans laquelle le service agit comme un intermédiaire
intelligent, connectant chaque parcelle de la gigantesque banlieue du web
à une autre et donnant le pouvoir aux utilisateurs
eux-mêmes.
Tirer
parti de l'intelligence collective
Le
principe central du succès des géants nés du web 1.0 qui
ont survécu pour maintenant mener l'ère du web 2.0, semble
être qu'ils ont su exploiter de manière efficace la force de
l'intelligence collective que recèle potentiellement le web :
Les
liens hypertextes sont le fondement du web. Au fur et à mesure que les
utilisateurs ajoutent des contenus, celui-ci est intégré à
la structure du web par d'autres utilisateurs qui les découvrent et
placent des liens vers ceux-ci. Telles des synapses formant un cerveau
où les associations se renforcent à force de
répétitions et d'intensité, les connections au sein du web
se multiplient organiquement à la mesure que leur dicte
l'activité de l'ensemble des utilisateurs.
Yahoo
!, la première grande success story, est né d'un catalogue de
liens, une agrégation du meilleur de milliers puis de millions
d'internautes. Même si Yahoo! a depuis quelque peu changé de
modèle d'affaire, son rôle en tant que portail vers l'oeuvre
collective des utilisateurs du web reste sa principale valeur.
La
percée de Google dans la recherche, qui en a fait rapidement et
indiscutablement le maître du marché, était basée
sur le PageRank(ndt : littéralement classement de page), une
méthode basée sur la structure hypertexte du web plutôt que
sur l'analyse des contenus.
Le
produit d'eBay est l'activité collective de l'ensemble de ses
utilisateurs ; comme le web lui-même, eBay grossit organiquement en
réponse à l'activité de ses clients, le rôle de la
société consistant simplement à fournir le contexte dans
lequel cette activité peut se dérouler. De plus, les avantages
comparatifs d'eBay viennent entièrement de la masse critique d'acheteurs
et de vendeurs disponibles, tout nouveau concurrent étant
inévitablement pénalisé de ce point de vue.
Amazon
vend les mêmes produits que des concurrents tels que Barnesandnoble.com,
ils reçoivent les mêmes descriptions de produits, images de
couverture et contenus de la part des éditeurs. Mais Amazon a fait une
science de l'implication du consommateur. Ils sont un cran au dessus des autres
en ce qui concerne les commentaires des acheteurs, les invitations à
participer (de plusieurs manières et sur quasiment toutes les pages) -
et plus important encore, ils se servent de l'activité des utilisateurs
pour affiner les résultats de leurs recherches. Alors que les recherches
de Barnesandnoble.com poussent les utilisateurs vers ses propres produits ou
vers des résultats sponsorisés, Amazon renvoie toujours vers
« les plus populaires », une notion calculée en temps
réel non pas à partir des ventes mais à partir de ce que
les gens d'Amazon appellent le « flow » (ndt : le bruit, le
mouvement, le flux) autour des produits. Il n'y a donc rien
d'étonnant à voir la croissance des ventes d'Amazon
dépasser celles de ses concurrents.
Ces
temps derniers, plusieurs sites ont marqué le web de leur empreinte avec
de tels principes et les poussent même peut-être un peu plus loin
:
-
Wikipedia, une encyclopédie en ligne basée sur le principe peu
commun qu'une entrée puisse être ajoutée par n'importe quel
utilisateur du web et modifiée par un autre est une
expérimentation radicale du dicton de Eric Raymond (qui se
référait à la base au développement open-source)
qu' « avec suffisamment d'yeux, tous les bugs disparaissent » dans le
domaine de la création de contenu.
- Les
sites tels que del.icio.us et Flickr, 2 sociétés ayant
bénéficié dernièrement d'une grande attention, ont
été pionnières dans le concept que certains
appellent « folksonomy » (ndt : qu'on pourrait traduire par
« classement par les gens » pour contraster avec « taxonomy
», « classement standard »), une sorte de catégorisation
collaborative des sites utilisant des mots clés librement choisis, qu'on
appelle en général « tag » (ndt : trace, marque). Le
« tagging » permet un phénomène d'associations
multiples et redondantes semblables à celles que le cerveau utilise
lui-même plutôt que des catégories rigides. Exemple typique
: une photo de Flickr d'un chiot peut être taguée par les termes
« chiot » et « mignon » - permettant donc de retrouver la
photo suivant un cheminement naturel grâce, une fois de plus, à
l'activité des utilisateurs.
- Les
systèmes anti-spam collaboratifs tels que Cloudmark agrègent les
décisions individuelles des utilisateurs d'e-mail sur ce qui est et
n'est pas du spam, et obtiennent de bien meilleurs résultats que les
systèmes s'appuyant sur l'analyse des messages eux-mêmes.
-
C'est enfoncer une porte ouverte que de dire que les plus grands succès
du web ne font pas de publicité sur leurs produits. Leur adoption est
guidée par le « marketing viral », les recommandations se
propageant d'utilisateur unique à utilisateur unique. Vous pouvez parier
sur le fait que si un site ou un produit se repose sur la publicité pour
faire parler de lui, il n'est pas web 2.0.
- Une
grande partie de l'infrastructure du web elle-même - Linux, Apache, MySQL
et du code Perl, PHP ou Python sont utilisés sur la plupart des serveurs
web - repose sur les méthodes de « production individuelle
» (ndt : par opposition à la production de masse de firmes
privées) de l'open-source qui sont, elles aussi, une émanation de
l'intelligence collective.
- Il
existe plus de 100.000 projets open-source listés
sur SourceForge.net. N'importe qui peut y ajouter un projet,
télécharger et utiliser le code, et les nouveaux projets migrent
de la périphérie vers le centre à mesure que les
utilisateurs les font vivre, contribuent, téléchargent... le tout
reposant évidemment sur le marketing viral.
La leçon
à retenir : Dans l'univers web 2.0, l'implication des utilisateurs dans
le réseau est le facteur-clé pour la suprématie du
marché
Les
blogs et la sagesse des foules
Un des
traits les plus remarquables de l'ère Web 2,0 est la montée du
phénomène « blog ». Les pages personnelles
étaient là depuis les débuts du web, les journaux intimes
et le courrier des lecteurs depuis longtemps encore... de quoi s'agit-il alors
?
On
pourrait dire très simplement que le blog est une page personnelle dans
un format journal intime. Mais comme le souligne Rich Skrenta,
l'organisation chronologique d'un blog « semble être une
différence anodine, alors que cela conduit à un processus de
création, à un système de signalement et à une
chaine de valeur radicalement transformés ».
Une des
choses qui ont fait la différence est une technologie
appelée RSS. RSS est l'avancée la plus significative dans
l'architecture du web depuis que les premiers bricoleurs d'internet ont
réalisé que les CGI pouvaient être utilisés pour
créer des sites reposant sur des bases de données. RSS permet
à quelqu'un de ne pas seulement attacher une page, mais de s'y abonner,
avec un avertissement à chaque fois que le contenu de la page change.
Skrenta appelle cela « le web incrémenté ». D'autres
l'appellent « live web » (ndt : « le web en temps
réel »).
Evidemment,
« les sites web dynamiques » (c'est à dire
générant dynamiquement un contenu à partir de base de
données) ont désormais remplacé les pages web statiques
depuis près de 10 ans. Mais ce qui est dynamique dans le « live web
», ce ne sont pas seulement les contenus, ce sont les liens
eux-mêmes. Un lien vers un blog pointe vers une page changeant
périodiquement, avec des « permaliens » pour des
entrées spécifiques, et un avertissement pour chaque changement.
Un lien RSS est donc bien plus puissant que le favori ou le simple lien vers
une autre page web.
RSS
signifie aussi que les navigateurs web ne servent plus seulement à voir
des pages. Certains agrégateurs de contenu, tels que Bloglines, sont
basés sur le web, mais d'autres sont des applications résidentes
et d'autres encore permettent à leurs utilisateurs de s'abonner à
des flux RSS sur des dispositifs portables.
RSS
n'est désormais plus seulement utilisé pour afficher les
actualités des blogs, mais aussi pour toute sorte de données
régulièrement mises à jour : cours de la bourse,
météo, disponibilité de photos. Cette utilisation revient
à l'une des origines du phénomène : RSS est né en
1997 de la rencontre de la « Really Simple Syndication
» (ndt : la syndication vraiment simple) de Dave Winer,
utilisée pour signaler les mises à jour de blogs, et de la «
Rich Site Summary » (ndt : sommaire de site riche) de
Netscape qui permettait à ses utilisateurs de créer des pages
personnelles avec des flux de données régulièrement mis
à jour. Netscape perdit de son intérêt pour cette
technologie qui fut reprise par le pionnier du blog Userland, la
société de Winer. Nous percevons cependant encore dans la
dernière version de RSS l'héritage de ces deux parents.
Mais
RSS est seulement une partie de ce qui rend le blog si différent d'une
page web ordinaire. Citons la remarque de Tom Coates sur la signification
des permaliens : « Cela peut sembler n'être aujourd'hui
qu'un élément anodin, mais c'était en
réalité ce qui a fait que les weblogs, jusqu'alors un simple
moyen de publier facilement du contenu, sont devenus cette extraordinaire
fatras de communautés entremêlées. Pour la première
fois, il est devenu assez simple de pointer vers un article très
spécifique et d'en débattre. Des discussions se sont
créées. Des sessions de chat se sont déroulées. Et,
naturellement, les amitiés se sont nouées et renforcées.
Le permalien fut la première - et la plus réussie - des
tentatives de bâtir des ponts entre les blogs. »
De bien
des manières, la combinaison de RSS et des permaliens ajouta à
HTTP, le protocole du web, des caractéristiques de NNTP, le protocole de
Usenet. La blogobulle peut être vue comme une nouvelle voie de
communication de particulier à particulier équivalente à
celle qu'offre Usenet depuis les débuts d'internet. Les blogueurs ne se
contentent pas d'échanger des liens, ils peuvent aussi via les
mécanismes des trackbacks (suivi des traces) voir qui les a liés
à leur page et répondre soit par un lien réciproque soit
par des commentaires.
Il est
très intéressant de noter que les liens à double-sens
furent un des buts des premiers systèmes hypertextes comme Xanadu. Les
puristes de l'hypertexte ont salué l'arrivée des trackbacks comme
une étape décisive sur le chemin de l'hyperlien à
double-sens. Mais il faut noter que ces trackbacks ne sont pas à
proprement parler à deux sens, ils s'avèrent plutôt
être (potentiellement) des liens unidirectionnels symétriques
créant un effet bidirectionnel. La différence paraît
subtile mais en pratique, elle est considérable. Les réseaux
sociaux tels que Friendster, Orkut ou encore LinkedIn, qui requièrent un
accord de la personne sollicitée pour établir une connexion n'ont
pas la souplesse du web. Comme le note Caterina Fake, cofondatrice du
système de partage de photos Flickr, l'attention n'est réciproque
que de manière accidentelle (Flickr permet donc de visualiser des
listes, n'importe qui pouvant s'abonner au flux RSS de photos d'un autre
utilisateur. L'accès est notifié mais n'a pas à être
approuvé).
Si pour
une part essentielle, le web 2.0 est une affaire d'intelligence collective
(faire du web une sorte de cerveau global), la blogobulle est
l'équivalente du dialogue mental permanent qui réside dans nos
pensées superficielles, la voix que nous entendons tous en nous. Cela
n'est certes pas nécessairement le reflet de la structure profonde de
notre esprit qui est en grande partie faite d'inconscient, mais plutôt
celui de notre pensée consciente. Et en tant que reflet de la
pensée et de l'attention, la blogosphère a commencé
à produire un effet des plus puissants...
Premièrement,
parce que les moteurs de recherche utilisent les liens pour proposer des pages
pertinentes et que les blogueurs, la population la plus prolifique en liens,
ont désormais un rôle presque disproportionné dans les
résultats des recherches. Deuxièmement, parce que la
communauté des blogueurs se réfère souvent à
elle-même, les blogs renvoyant vers d'autres blogs et renforçant
ainsi leur visibilité. La « caisse de résonance » du
web tant décriée est donc aussi un amplificateur.
Si ils
n'étaient qu'un amplificateur, les blogs seraient toutefois assez
inintéressants. Mais à la manière de Wikipédia, ils
exploitent eux aussi l'intelligence collective pour mieux filtrer le contenu.
C'est là que ce que James Suriowecki appelle la « sagesse des
foules » entre en jeu : tout comme le PageRank de Google produit des
résultats meilleurs qu'une analyse individuelle des documents,
l'attention collective de la blogosphère sait retenir des informations
plus pertinentes que n'importe quel autre filtre.
Alors
que les grands medias se contentent de voir chaque blog comme un concurrent,
ils tardent à faire l'amer constat que la compétition se
déroule pour eux contre la blogobulle dans son ensemble. Il ne s'agit
pas juste d'une guerre entre des sites mais entre des modèles
économiques. Le monde du web 2.0 est aussi le monde de que Dan
Gillmor désigne par l'expression « nous, les
médias », un monde dans lequel ceux qui n'étaient jusque
là qu'auditeurs reprennent à quelques personnes réunies
dans une arrière-salle le pouvoir de choisir ce qui est important ou
non.
La
puissance est dans les données
Toutes
les applications web d'importance sont liées à une base de
données spécialisée : la base d'exploration Google,
l'index de Yahoo, la base de produits Amazon, la base d'utilisateurs d'eBay, la
base de cartes de MapQuest, la base de chansons disponibles de Napster. Comme
me le signalait Hal Varian l'année dernière, « le SQL est le
nouveau HTML ». La gestion de base de données est le coeur de
métier des sociétés du web 2,0, à tel point qu'on
donne parfois à leurs applications le nom d'
« infoware » plutôt que software (ndt :
« infogiciel » plutôt que logiciel).
Ces
faits m'amènent à ce qui est pour moi la question centrale : qui
possède les données ?
Dans
l'univers d'internet, on a déjà voir pu un certain nombre de cas
dans lesquels le contrôle des données amène dans un premier
temps la domination du marché puis le profit. Le monopole sur
l'enregistrement des noms de domaine qu'un décret
gouvernemental (ndt : il s'agit bien sûr du gouvernement des
Etats-Unis) avait offert à Network Solutions (plus tard repris
par Verisign) fut par exemple l'une des premières sources de revenus de
l'Internet. Puisque nous avons vu que l'avantage stratégique du
contrôle des API n'avait plus vraiment de sens sur le web, cela signifie
que l'élément de domination des marchés se trouve dans les
données. C'est d'autant plus vrai lorsqu'elles sont difficiles à
créer et susceptibles d'être entretenues par un réseau
d'utilisateurs.
Regardez
les licences d'utilisation de la base de données sur chaque carte servie
par MapQuest, , maps.yahoo.com, maps.msn.com, ou maps.google.com, et vous
verrez "Maps copyright NavTeq, TeleAtlas," ou avec le nouveau satellite
d'imagerie, "Images copyright Digital Globe." . Ces sociétés ont
fait des investissements considérables dans leurs données (NavTeq
dit investir chaque année 750 millions de dollars dans leur base
d'adresses et de directions. Digital Globe a dépensé 500 millions
de dollars pour lancer son propre satellite et améliorer l'imagerie
basée sur les satellites gouvernementaux). NavTeq est allé si
loin pour imiter Intel que cela se retrouve jusque dans leur logo : les
voitures embarquant des systèmes de navigations portent en effet
l'inscription « NavTeq Onboard » (ndt : à comparer
avec le fameux « Intel Inside »). Les données sont bel et
bien le nouvel « Intel Inside », le composant essentiel de
systèmes dont l'infrastructure est largement open source ou tout du
moins collaborative.
La
situation d'Amazon est cependant plus contrastée. Tout comme ses
concurrents (BarnesandNoble.com par exemple), sa base de données
d'origine provient du fournisseur de registre ISBN RR Bowker. Mais à la
différence de MapQuest, Amazon améliore sans cesse ses
données, en ajoutant du contenu provenant des éditeurs par
exemple. Plus important encore, ils encouragent les utilisateurs à
évaluer les données, de telle sorte qu'après 10 ans, c'est
Amazon et non plus Bowker, qui est devenu la référence en
matière ressources bibliographiques pour les universitaires et les
libraires. Amazon a aussi introduit son propre système d'identifiant, le
«
ASIN »,
qui correspond à l'ISBN lorsqu'il est présent et crée un
code équivalent lorsqu'il n'existe pas. En un mot, Amazon s'est
véritablement doté d'une politique de gestion des données
mais aussi des fournisseurs de celles-ci.
Imaginez que MapQuest ait fait la même chose : amener
les utilisateurs à évaluer les cartes, ajouter d'autres niveaux
d'informations. Il aurait certainement beaucoup plus difficile pour ses
adversaires d'entrer sur le marché simplement en achetant une licence
à un fournisseur de données.
L'arrivée récente de Google Maps fait de ce
marché un véritable laboratoire de la compétition entre la
vente d'applications et la vente de données. Le modèle de service
léger de Google conduit à la création de nombreux services
sous la forme de « mashups » reliant Google Maps avec d'autres
services de la toile. Housingmaps.com de Paul Rademacher, qui combine
Google Maps avec les données de Craiglist pour créer un
outil de recherche de logement interactif est un excellent exemple de ces
possibilités.
Evidemment, ces mashups ne sont pour le moment que des
expérimentations mais les premiers projets professionnels devraient
bientôt suivre. Malgré tout, on peut déjà dire que
pour une partie des développeurs, Google a pris la place de Navteq en
tant que fournisseur de données en se plaçant en tant
qu'intermédiaire privilégié. On peut s'attendre à
voir les premières batailles entre fournisseurs de données et
fournisseurs de logiciels éclater dans les années qui viennent,
quand tous auront compris l'importance des données dans l'univers web
2.0.
La course pour la possession de données
stratégiques a déjà commencé : positionnement,
identités, calendriers d'événements, identifiants de
produits... Dans bien des cas, là où il y a un coût pour
construire une base de données, il y a l'opportunité de
créer un support pour des services à valeur ajoutée avec
une source unique de données. Souvent, le gagnant sera la
société qui atteindra la première une masse critique de
données par agrégation des utilisateurs et convertira cet
avantage en services.
Dans le domaine de l'identité par exemple, Paypal,
1-click d'Amazon et les millions d'utilisateurs des systèmes de
communication peuvent tous sembler légitimes pour construire une base de
données d'identités à l'échelle du réseau
(dans cette optique, la récente tentative de Google d'utiliser les
numéros de téléphones en tant qu'identifiants dans les
comptes Gmail est peut-être une étape vers l'intégration
des téléphones). Pendant ce temps, des start-up
comme Sxip explorent le potentiel d'identités
fédérés, dans la quête d'une sorte de « 1-click
distribué » qu'apporterait un sous-système du web 2.0
dédié à l'identité. Dans le domaine des
calendriers, EVDB est une tentative de construire le plus grand calendrier
partagé du monde à partir d'un système de participation de
type wiki. Bien que le juge de paix reste le succès d'une approche ou
d'une start-up particulière dans le domaine, il est clair que les
standards et les solutions dans ces domaines qui sauront transformer des
données brutes en des sous-systèmes de confiance du «
système d'exploitation internet » rendront possibles une nouvelle
génération d'applications.
Un autre point d'importance doit être
précisé au sujet des données : les aspects de
confidentialité et de droit des utilisateurs sur leurs données.
Dans la plupart des premières applications web, le copyright
n'était appliqué que de manière très approximative.
Amazon, par exemple, dit respecter les droits de auteurs des critiques faites
sur son site mais en l'absence d'application concrète, n'importe qui
peut recopier une critique et la reposter ailleurs. Cependant les
sociétés ayant pris conscience que le contrôle des
données est un avantage stratégique décisif, on peut
s'attendre de leur part à une réaction sur le sujet.
Comme la montée du logiciel propriétaire a
conduit au mouvement du logiciel libre, il est envisageable de voir le
mouvement « des données libres » s'opposer peu à peu
à l'univers des données propriétaires. On peut en voir les
premiers signes dans des projets ouverts comme Wikipedia, la licence Creative
Commons ou encore dans des projets tels que GreaseMonkey qui permet
à l'utilisateur de s'approprier un peu plus les données
envoyées par les pages web en en contrôlant l'affichage.
La fin des cycles de release
Comme cela a été dit dans la discussion opposant
Netscape à Google, une caractéristique définissant
l'ère internet du logiciel est que celui-ci est proposé en tant
que service et non en tant que produit. Ce fait amène nombre de
changements fondamentaux dans le modèle d'affaire des
sociétés de logiciels :
1- les traitements deviennent le coeur de métier. A
l'expertise de Google ou de Yahoo ! Dans le développement dans leurs
produits, doit correspondre une expertise dans les opérations du
quotidien. Le passage d'un logiciel-produit à un logiciel-service est
à ce point fondamental que le logiciel ne peut plus fonctionner s'il
n'est pas maintenu à une échelle quotidienne. Google doit
continuellement parcourir le web et mettre à jour ses indices, filtrer
le « spam link » et autres tentatives d'influencer ses
résultats, continuellement et dynamiquement répondre à des
centaines de millions de requêtes asynchrones d'utilisateurs, tout en
leur faisant correspondre des publicités adaptés à leur
contexte.
Ce n'est donc pas par hasard que le système
d'administration de Google, ses techniques de mise en réseau,
d'équilibrage des charges sont des secrets peut-être mieux
gardés encore que ses algorithmes. La réussite de Google dans
l'automatisation de ces processus est probablement un facteur décisif
dans leur avantage sur leurs concurrents en matière de
coûts.
Ce n'est pas non plus par hasard que des langages de
script tels que Perl, Python, PHP et maintenant Ruby jouent un rôle aussi
important dans les entreprises du web 2.0. Perl fut décrit de
manière célèbre par Hassan Schroeder, le premier webmaster
de Sun, comme le « robinet du web ». Les langages dynamiques (souvent
appelés langages de script et méprisés par les
ingénieurs de l'ère logiciel-produit) sont un outil de choix
aussi bien pour les administrateurs réseaux et systèmes que pour
les développeurs d'application élaborant des systèmes
dynamiques en perpétuel changement.
2- Les utilisateurs doivent être traités comme
des co-développeurs, en référence aux pratiques de
l'open-source (même si le logiciel dont il est question ne doit pas
forcément être open source). Le dicton de l'open-source «
livrer tôt et livrer souvent » se transforme en une position encore
plus radicale, « la bêta perpétuelle », dans laquelle le
produit est développé avec de nouvelles fonctionnalités
apparaissant de manière mensuelle, hébdomadaire voire
quotidienne. Il n'y a donc rien d'étonnant à voir des services
tels que Gmail, Google Maps, Flickr, del.icio.us, et autres porter un logo
« bêta » depuis déjà un bon moment.
L'observation en temps réel du comportement de
l'utilisateur dans le but de voir quelles sont les nouvelles
fonctionnalités utilisées, devient donc un nouvelle
compétence centrale. Un développeur web d'un grand service en
ligne dit à ce sujet : « Nous mettons deux ou trois nouvelles
fonctionnalités quelque part sur le site chaque jour, si elles ne sont
pas utilisées, nous les retirons. Si elles sont
appréciées, nous les implémentons partout ailleurs sur le
site. »
Cal Henderson, le principal développeur de
Flickr, a révélé récemment qu'il
déployait une nouvelle version (ndt : plus exactement un
nouveau « build ») de son application toute les
demis-heures. C'est là un modèle de développement
radicalement différent ! Même si toutes les applications web ne
vont pas aussi loin que Flickr, la plupart a un cycle de développement
tout à fait différent de l'ère du PC et du client-serveur.
C'est pour cette raison qu'un récent éditorial de Zdnet concluait
que Microsoft ne parviendrait pas à l'emporter face à
Google : « Le business model de Microsoft dépend de la
remise à niveau que chacun fait sur son PC tous les deux ou trois ans.
Celui de Google ne dépend que de la capacité des utilisateurs
à se servir des nouvelles fonctionnalités qui leur sont
proposées. »
Alors que Microsoft a démontré une
capacité incroyable à apprendre de et finalement surpasser la
concurrence, il n'est plus ici question de temps. La concurrence demandera
cette fois à Microsoft (et par extension à toutes les
sociétés de logiciel existantes) de devenir une
société complètement différente. Les
sociétés web 2.0 natives bénéficient d'un avantage
naturel, celui de ne pas avoir de vieux schémas (avec les modèles
d'affaires et les revenus correspondants) derrière lesquels
s'abriter.
Des modèles de programmation
légers
Après que le principe des services web se fut
popularisé, de grandes compagnies se sont lancées dans l'aventure
en proposant des ensembles complexes de services conçus pour
créer de véritables environnements de développement pour
applications distribuées.
Mais tout comme le web avait réussi en passant outre
une grande partie de la théorie de l'hypertexte, préférant
le pragmatisme à une conception idéale, RSS devint
peut-être le service web le plus déployé du fait de sa
simplicité, alors que la complexité des web services des grandes
sociétés condamna ceux-ci à un déploiement
limité.
De la même manière, les services web d'Amazon
furent fournis sous 2 formes : la première adhérant au formalisme
de SOAP (Simple Object Access Protocol), la seconde se contentant de fournir un
flux de données XML via HTTP, un modèle plus simple
désormais connu sous le terme de REST (Representational State Transfer).
Alors que les connexions B2B (comme celles reliant Amazon et ToysRUs par
exemple) utilise SOAP, Amazon rapporte que 95% des usages de ses web services
se font via REST.
C'est la même quête de simplicité qui peut
être vue dans d'autres services web « organiques ». La
récente sortie de Google Maps en constitue un bon exemple. L'interface
de Google Maps bâtie sur les principes d'AJAX a rapidement
été décryptée par quelques hackers, qui ont alors
utilisé ces données pour bâtir de nouveaux services.
Les données relatives à la cartographie
était déjà disponibles via quelques fournisseurs tels
qu'ESRI, MapQuest ou encore Microsoft MapPoint. Mais Google Maps a
bouleversé cet univers du fait de sa simplicité. Alors que les
expérimentations d'utilisation de web services demandaient jusque
là un contrat entre les intéressés, le fait de laisser les
données aisément accessibles a permis à quelques
bidouilleurs de réutiliser ces données de manière
créative.
Il y a là plusieurs enseignements à en tirer
:
1- Mettre en place des modèles de progammation
légers permettant la création de systèmes faiblement
couplés. La complexité des services web « corporate
» est faite pour des systèmes fortement couplés. A
contrario, la plupart des applications web les plus intéressantes
demeure faiblement couplé, voire fragile. La façon de penser web
2.0 est très différente des visions classiques des
systèmes d'informations !
2- Pensez syndication, pas coordination. Les
services web simples tels que RSS ou ceux basés sur l'architecture REST
cherchent avant tout à laisser des données à disposition,
pas à contrôler ce qui se passe à l'autre bout de la
connexion. Cette idée est fondamentale vis-à-vis du paradigme
même d'Internet dans la mesure où c'est une transposition
du principe du « end-to-end » (ndt : principe
fondamental de l'Internet Protocol stipulant que l'interprétation des
données a lieu à chaque extrémité de la
chaîne d'informations).
3- Une conception faite pour être «
bidouillable » et « remaniable ». Les systèmes tels
que le web, RSS et AJAX ont un point commun : les barrières pour les
réutiliser sont très faibles. La plupart des logiciels utiles
sont open source, et même quand ils ne le sont pas, ils sont assez peu
protégés du point de vue de la propriété
intellectuelle. L'option « voir la source » des navigateurs a rendu
possible à n'importe qui la possibilité de copier la page de
quelqu'un d'autre ; RSS a été conçu pour renforcer les
possibilités de l'utilisateur de voir le contenu qu'il désire
quand il le désire et non selon le bon vouloir d'un fournisseur
d'informations ; les services web les plus puissants sont ceux qui permettent
le plus facilement de les utiliser dans des buts pour lesquels ils n'ont pas
été conçus. La phrase « certains droits
réservés » qui a été popularisé par la
licence Creative Commons pour s'opposer à la célèbre
« tous droits réservés » est assez
représentative de cet esprit.
L'innovation est dans l'assemblage
Les modèles d'affaires « légers » ont
une affinité naturelle avec les modèles de programmation et de
connections légers. L'état d'esprit web 2.0 n'hésite pas
à réutiliser l'existant : un nouveau service tel que
housingmaps.com a été élaboré simplement en reliant
2 services existants. Housingmaps.com n'a pas (encore) de modèle
d'affaires, mais plusieurs services à petite échelle, Google
AdSense (ou peut-être Amazon ou même les deux) lui apporte
l'équivalent d'un modèle de rémunération.
Ces exemples donnent un aperçu d'un autre principe du
web 2.0, que nous appelons « innovation par l'assemblage ». Quand les
composants de base deviennent abondants, il est possible de créer de la
valeur en les assemblant de manière nouvelle ou plus efficace. Tout
comme la révolution du PC a apporté de nombreuses
opportunités d'innovation dans l'assemblage du hardware et a permis
à des sociétés comme Dell faisant une science de cet
assemblage de vaincre des sociétés dont le modèle
d'affaires reposait sur l'innovation dans la production de composants, nous
pensons que le Web 2.0 apportera des opportunités pour des
sociétés d'entrer dans la compétition simplement en
intégrant et en assemblant des services fournis par d'autres.
Le logiciel se libère du PC
Une autre des caractéristiques du web 2.0 qui
mérite d'être mentionnée est le fait de ne plus être
limité à la plate-forme PC. Le dernier conseil que le
développeur Dave Stutz donna à Microsoft fut : « Les
logiciels utiles qui se libéreront d'une plate-forme
spécifique seront des vecteurs de fortes marges pour un bon moment
».
Bien entendu, n'importe quelle application web peut être
vue comme un logiciel indépendant d'une plate-forme spécifique.
Après tout, même la plus simple des applications web implique au
moins deux ordinateurs : l'un hébergeant le serveur web, l'autre le
navigateur. Or comme nous l'avons déjà expliqué, le
développement du web en tant que plate-forme pousse cette idée
jusqu'à des applications synthétisant des services
apportés par de nombreux ordinateurs.
Là encore, comme de nombreuses parties du web 2.0,
l'aspect « 2.0 » n'est pas dans la nouveauté, mais
plutôt dans la pleine réalisation du véritable potentiel de
la plate-forme web, celle-ci devant nous guider pour comprendre comment
concevoir applications et services.
A ce jour, iTunes est le meilleur exemple de ce principe.
Cette application va sans cesse d'un appareil portable à un
système web massif, le PC servant uniquement de mémoire locale et
de station de contrôle. Il y avait déjà eu plusieurs
tentatives de mettre du contenu venu du web dans des dispositifs portables,
mais le couple iPod/iTunes est la première conçue pour être
véritablement multi-plate-forme. TiVo est un autre bon exemple de ce
phénomène.
Itunes et TiVo offrent également la
démonstration de quelques autres principes du web 2.0. Elles ne sont pas
des applications web en elles-mêmes, mais elle tire parti de la puissance
de la plate-forme web, en faisant une partie permanente et pratiquement
invisible de leurs infrastructures. La gestion de données est
très clairement le coeur de leur offre. Ce sont des services, pas des
applications packagées (bien que dans le cas d'iTunes, cela puisse
être utilisé en tant qu'application packagée pour manipuler
des données locales). De plus, TiVo et iTunes montrent une utilisation
naissante de l'intelligence collective, même si dans chacun des cas,
leurs expérimentations sont entrées en guerre avec les lobbies de
la propriété intellectuelle. La seule limite se trouve dans
l'architecture de participation d'iTunes, bien que la récente apparition
du podcasting change quelque peu la donne de ce point de vue.
Il s'agit de la partie du web 2.0 dont nous attendons les
changements les plus importants, dans la mesure où de plus en plus
d'appareils pourront être connectés à la nouvelle
plate-forme que constitue le web. Quelles applications deviendront possibles
quand nos téléphones et nos voitures ne se contenteront plus
d'utiliser des données mais en émettront ? Le suivi du trafic
routier en temps réel, le « flash mobs » (ndt : un
groupe de personnes qui ne se connaissent pas, se réunit pendant
quelques minutes -grâce à un message SMS ou email- pour accomplir
au même moment une action dénuée de sens, puis se
disperse) et le journalisme citoyen ne sont que quelques uns des
signes précurseurs des possibilités du web de demain.
Enrichir les interfaces utilisateur
Dès le navigateur « Viola » de Pei
Wei en 1992, le web a été utilisé pour délivrer des
« applets » et d'autres types de « contenus actifs »
à l'intérieur du navigateur. L'introduction de Java en 1995
était aussi motivée par cet objectif. JavaScript puis le DHTML
permirent d'apporter de manière plus légère intelligence
côté client et richesse d'interface. Il y a de cela plusieurs
années, Macromedia lança le terme « Rich Internet
Applications » (qui a été repris par le projet Open Source
Lazlo) pour mettre en lumière les possibilités de Flash vis
à vis des applications (et plus seulement des contenus
multimédias).
Cependant le potentiel de richesse d'interface du web ne fut
jamais exploité par les grandes applications, jusqu'à ce que
Google lance Gmail, rapidement suivi par Google Maps : des applications web
possédant un niveau d'interactivité équivalent à un
logiciel PC classique. La technologie utilisée par Google pour cela
fut baptisée AJAX dans un article de Jesse James Garrett de
l'entreprise de design web Adaptive Path. Il écrivait alors :
« Ajax n'est pas une technologie, il s'agit de plusieurs
technologies, se développant chacune de leur côté,
combinées ensemble pour donner des résultats aussi nouveaux que
puissants. Ajax comporte :
- une présentation basée sur les
standards XHTML et CSS
- un affichage dynamique et interactif grâce
à DOM (Document Object Model)
- un système d'échange et de manipulation de
données utilisant XML et XSLT
- un mécanisme de récupération de
données asynchrone utilisant XMLHttpRequest JavaScript pour lier le
tout »
Ajax est aussi un élément clé des
applications web 2.0 tels que Flickr (qui appartient désormais à
Yahoo!), les applications de 37signal basecamp et backpack et bien entendu les
applications de Google comme Gmail ou Orkut. Nous entrons dans une
période sans précédent d'innovation dans l'interface
à mesure que les développeurs deviennent capables de
réaliser des applications web aussi riches que les applications locales
classiques.
Il est intéressant de noter que bien des
possibilités explorés aujourd'hui existaient depuis maintenant
quelques années. A la fin des années 90, Microsoft et Netscape
avaient une vision des possibilités qui sont désormais
exploitées mais leur bataille au sujet des standards rendit difficile la
création d'applications multi-navigateurs. C'est seulement lorsque
Microsoft eut gagné cette guerre que le seul navigateur restant devint
de facto le standard et que ces applications devinrent possibles. Heureusement,
lorsque Firefox relança la concurrence sur le marché des
navigateurs, les blocages au sujet des standards ne se reproduisirent pas dans
les mêmes proportions.
Nous nous attendons à voir apparaître de
nombreuses applications web au cours des prochaines années, certaines
seront entièrement nouvelles, d'autres seront des ré
implémentations d'applications PC existantes. C'est d'autant plus
inévitable que chaque changement de plate-forme crée aussi
l'opportunité d'un changement de leadership pour les acteurs d'un
marché logiciel donné.
Gmail a déjà apporté plusieurs
innovations intéressantes dans les applications e-mail en combinant
les forces du web (accessible de n'importe où, capacités de
recherches avancées) avec une approche ergonomique proche des interfaces
PC habituelles. Les applications clientes essaient donc de grignoter des parts
de marché en ajoutant de nouvelles fonctionnalités telles que la
messagerie instantanée. Sommes-nous encore loin du client de
communication complètement intégré incluant le meilleur de
l'e-mail, de la messagerie instantanée et du téléphone
portable tout en utilisant la voix sur IP pour ajouter encore plus de
richesse à l'interface du nouveau client web ? En tout cas, le compte
à rebours est lancé.
Il est assez facile d'imaginer comment le web 2.0 ré
implémentera le carnet d'adresses. Un carnet d'adresses web 2.0 pourra
d'une part traiter un ensemble de contacts mémorisés comme le
fait par exemple un téléphone. Parallèlement à
cela, un agent de synchronisation web, dans le style de Gmail, se souviendra de
chaque message envoyé ou reçu, de chaque adresse e-mail ou
numéro de téléphone utilisé et s'appuiera sur des
heuristiques de réseaux sociaux pour décider quelles alternatives
offrir en cas de recherches infructueuses. Si il ne trouve pas de
réponse, le système élargira alors le
périmètre du réseau social dans le lequel il effectue sa
requête.
Le traitement de texte du web 2.0 permettra l'édition
de données collaborative de type wiki et plus seulement celle de
documents indépendants. Mais il pourra aussi offrir l'édition de
document riche comme Microsoft Word ou OpenOffice savent le
faire. Writely est un excellent exemple d'une telle application, bien
que sa portée soit encore assez limitée.
Mais la révolution web 2.0 ne s'arrêtera pas
là. Salesforce.com a montré comment le web pouvait être
utilisé pour délivrer le logiciel comme un service, à
l'échelle d'applications d'entreprises telles que la CRM.
L'opportunité pour de nouveaux arrivants d'exploiter
pleinement le potentiel du web 2.0 entrainera la création d'applications
qui apprennent de leurs utilisateurs en s'appuyant sur une architecture de
participation et qui se démarqueront non seulement par leur interface
mais aussi par la richesse des données partagées qu'elles
offriront.
Le coeur de métier des sociétés du
web 2.0
A travers les 7 principes évoqués plus haut,
nous avons souligné quelques uns des principaux traits du web 2.0.
Chaque exemple abordé démontre un ou plusieurs principes
clé, mais laisse en général les autres de
côté. Terminons donc en résumant ce que nous pensons
être le coeur de métier des sociétés du web 2.0 :
- des services, pas un package logiciel, avec des
possibilités d'économie d'échelle
- un contrôle sur des sources de données uniques,
difficiles à recréer, et dont la richesse s'accroit à
mesure que les gens les utilisent
- considérer les utilisateurs comme des
co-développeurs
- tirer partie de l'intelligence collective
- toucher le marché jusque dans sa
périphérie à travers la mise en place de services «
prêts à consommer »
- libérer le logiciel du seul PC
- offrir de la souplesse dans les interfaces utilisateurs, les
modèles de développements ET les modèles d'affaires
La prochaine fois qu'une société clame «
ceci est web 2.0 », confrontez-la à la liste ci-dessus. Plus elle
marque de points, plus elle est digne de cette appellation. Rappelez-vous
néanmoins que l'excellence dans un domaine vaut mieux quelques paroles
pour chacun des sept.
Source :
http://www.eutech-ssii.com/ressources/1
Annexe 2 : exemples de
services revendiquant l'approche Web 2.0
http://fr.wikipedia.org/wiki/Accueil
(Wikipédia) : production collaborative de contenu
(encyclopédique)
http://web2logo.com/ Liste visuelle
de sites web 2.0
http://www.web2list.com/ Liste
textuelle de sites web 2.0
http://fr.chainki.org/index.php?title=Web_2.0
Le wikipedia du lien
http://www.myspace.com/
Réseau social / Espaces privés
Google Docs : suite bureautique en ligne
http://www.facebook.com/
Réseau social / Espaces privés
http://www.hi5.com/ Réseau
social / Espaces privés
http://www.twitter.com/
Réseau social / Espaces privés
http://www.flickr.com/ Partage
d'images
http://www.youtube.com/ Partage
de vidéos
http://www.dailymotion.com/
Partage de vidéos
http://www.wat.tv/ Portail
multimédia pour partager vidéos, photos et favoris
http://earth.google.com/
Cartographie
http://maps.google.fr/ (Google
maps) : géolocalisation
http://del.icio.us/ Gestion et
partage de favoris
http://blogmarks.net/ Gestion et
partage de favoris
http://www.nowpublic.com/
Journalisme citoyen
http://www.agoravox.fr/ AgoraVox
Le média citoyen
http://www.wikio.fr/ Création
de pages d'actualités personnelles pour suivre l'information (des sites
de presse et des blogs) qui vous intéresse.
http://www.jobmeeters.com/
Site de recrutement par cooptation
http://www.meebo.com/ Messagerie
instantanée
http://www.Netvibes.com
Agrégateur personnel de flux RSS
http://www.linkedfeed.com
Agrégateur personnel de flux RSS
http://ziki.com/ Visibilité sur
le net
http://www.rememberthemilk.com/
Pense-bête. Gérer ses tâches.
http://ajax.parish.ath.cx/translator/
Traducteur intelligent
http://script.aculo.us/
Programmes Ajax
http://www.sproutliner.com/
Gestion de tâches
http://blockrocker.com/ Annonces
géolocalisées
http://www.findmycover.com/
Recherche de visuels de pochettes de CD, DVD...
http://baebo.francisshanahan.com/
Moteur de recherche
http://www.formassembly.com/time-tracker/
Gestion de tâches
http://www.tagworld.com/
Logiciel social
http://www.webezz.net/
Création de site Web
http://www.squarespace.com/
Création de site Web
Google page creator : service gratuit de création de pages
web (Google)
Second Life : univers virtuel dans lequel on peut créer
son avatar.
Annexe 3 : exemple de
fichier CSS
body {
background:#FFCCFF;
color:#03F;
font-size:10px;
font-family:Verdana;
}
a:link {
color:#FF6666;
text-decoration:none;
font-weight:normal;
}
a:hover {
color:#FFFFFF;
text-decoration:underline;
font-weight:bold;
}
a:visited {
color:#9900CC;
text-decoration:underline;
font-weight:normal;
}
a:active {
color:#CC6699;
text-decoration:none;
font-style:italic;
}
h1 {
font-family:Verdana;
font-size:14px;
color:#3333CC;
text-decoration:underline;
font-weight:bold;
}
h2 {
font-family:Verdana;
font-size:12px;
color:#009933;
text-decoration:underline;
font-style:italic;
}
Annexe 3 : exemple de
contenu XML
<?xml version='1.0' encoding='ISO-8859-1' ?>
<!-- extrait de Tartuffe de Molière -->
<dialogue>
<situation>acte I, Scene 1 : madame pernelle et flipote sa
servante,elmire, mariane, dorine, damis, cléante.</situation>
<replique>
<personnage>madame pernelle</personnage>
<texte>Allons, Flipote, allons, que d'eux je me
délivre.</texte>
</replique>
<replique>
<personnage>elmire</personnage>
<texte>Vous marchez d'un tel pas qu'on a peine à
vous suivre.</texte> </replique>
<replique>
</dialogue>
|