Les apports du web 2.0 sur les futurs sites web, les enjeux dans la relation client et les impacts sur les modeles economiques( Télécharger le fichier original )par Dany Stéphane ZIE FOMEKONG Université de Picardie Jules Verne - Master 2 Systèmes d'Information et Informatique Nomade (SIIN) 2009 |
What Is Web 2.0http://oreilly.com/web2/archive/what-is-web-20.html REST http://www.clever-age.com/veille/clever-link/soap-vs.-rest-choisir-la-bonne-architecture-web- services.html#titre4 Les enjeux juridiques du Web 2.0 : quelques réflexions... http://www.webrankinfo.com/actualites/200804-enjeux-juridiques-du-web-2.htm ANNEXESAnnexe 1 : Traduction française de l'article fondateur du web 2.0 de Tim O'ReillyQu'est ce que le web 2.0 : modèles de conception et d'affaires pour la prochaine génération de logiciels. L'explosion de la bulle internet en 2001 a définitivement marqué un tournant dans l'histoire du web. Beaucoup de gens ont à ce moment considéré que le web était une technologie surévaluée alors qu'au contraire, le fait qu'une bulle se forme puis éclate est un trait commun à toutes les révolutions industrielles. Ces soubresauts sont même caractéristiques du moment où une technologie ascendante est prête à entrer dans une nouvelle phase. C'est en effet le moment où les simples prétendants arrivent à bout de souffle tandis que les points forts des premiers gagnants apparaissent : et c'est seulement à cet instant que l'on commence à comprendre ce qui distingue les premiers des seconds. Le concept de web 2.0 est apparu avec une conférence « brainstorming » entre O'Reilly et Medialive International. Dale Dougherty, pionner du web et membre d'O'Reilly notait alors que bien loin de s'être effondré, le web n'avait jamais été aussi important et que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l'hécatombe semblaient avoir quelque chose de commun. Se pouvait-il que le crack des « dot com » eût révélé une nouvelle ère pour le web au point que l'expression « web 2.0 » ait un sens ? Nous sommes alors tombés d'accord sur le fait que cela en avait un : la conférence web 2.0 était née. En un an et demi (ndt : l'article est daté du 30/09/2005), le terme « web 2.0 » s'est franchement popularisé avec plus de 9,5 millions de citations dans Google. Mais il reste encore de multiples points de désaccord sur sa signification exacte, un certain nombre de personnes décriant ce qui ne leur semble être qu'un buzzword bien marketé, d'autres y voyant une nouveau modèle de pensée. Cet article est donc une tentative de clarification du sens du terme « web 2.0 ». Dans notre brainstorming initial, nous avons exprimé notre ressenti du web 2.0 par l'exemple : Web 1.0 // Web 2.0 DoubleClick --> Google AdSense Ofoto --> Flickr Akamai --> BitTorrent mp3.com --> Napster Britannica Online --> Wikipedia sites perso --> blogs evite --> upcoming.org et EVDB spéculation sur les noms de domaines --> optimisation pour moteurs de recherche pages vues --> coût au clic « screen scraping » --> services web publication --> participation système de gestion de contenu --> wikis arborescence (taxonomie) --> tags ("folksonomy") rigidité du contenu --> syndication de contenu Et la liste pourrait encore s'allonger... Mais cela ne nous dit toujours ce qui fait qu'une application ou un concept est web 1.0 et un autre web 2.0. (La question est particulièrement pressante dans la mesure où le terme « web 2.0 » s'est à ce point répandu que des entreprises se l'approprient bien souvent sans réelle compréhension de sa signification. C'est d'autant plus délicat que la plupart de ces start-ups friandes de termes à la mode ne sont en rien web 2.0 et que parallèlement à cela des applications que nous avons identifiées comme étant web 2.0, comme Napster ou BitTorrent ne sont même pas des applications web à proprement parler !). Nous avons donc commencé à tirer de ces exemples les principes qui sont d'une manière ou d'une autre à la base des succès du web 1.0 mais aussi des applications récentes les plus remarquables. Le web en tant que plate-forme Comme de nombreux concepts majeurs, le web 2.0 n'a pas de frontière claire mais plutôt un centre de gravité. Vous pouvez voir le web 2.0 comme un ensemble de principes et de pratiques qui, à la manière d'un système planétaire, verrait des sites exposant tout ou partie de ses préceptes graviter à des distances variables du centre en question.
Tirer parti de l'intelligence collective Les blogs et la sagesse des foules La puissance est dans les données Ces faits m'amènent à ce qui est pour moi la question centrale : qui possède les données ? La situation d'Amazon est cependant plus contrastée. Tout comme ses concurrents (BarnesandNoble.com par exemple), sa base de données d'origine provient du fournisseur de registre ISBN RR Bowker. Mais à la différence de MapQuest, Amazon améliore sans cesse ses données, en ajoutant du contenu provenant des éditeurs par exemple. Plus important encore, ils encouragent les utilisateurs à évaluer les données, de telle sorte qu'après 10 ans, c'est Amazon et non plus Bowker, qui est devenu la référence en matière ressources bibliographiques pour les universitaires et les libraires. Amazon a aussi introduit son propre système d'identifiant, le « ASIN », qui correspond à l'ISBN lorsqu'il est présent et crée un code équivalent lorsqu'il n'existe pas. En un mot, Amazon s'est véritablement doté d'une politique de gestion des données mais aussi des fournisseurs de celles-ci. Imaginez que MapQuest ait fait la même chose : amener les utilisateurs à évaluer les cartes, ajouter d'autres niveaux d'informations. Il aurait certainement beaucoup plus difficile pour ses adversaires d'entrer sur le marché simplement en achetant une licence à un fournisseur de données. L'arrivée récente de Google Maps fait de ce marché un véritable laboratoire de la compétition entre la vente d'applications et la vente de données. Le modèle de service léger de Google conduit à la création de nombreux services sous la forme de « mashups » reliant Google Maps avec d'autres services de la toile. Housingmaps.com de Paul Rademacher, qui combine Google Maps avec les données de Craiglist pour créer un outil de recherche de logement interactif est un excellent exemple de ces possibilités. Evidemment, ces mashups ne sont pour le moment que des expérimentations mais les premiers projets professionnels devraient bientôt suivre. Malgré tout, on peut déjà dire que pour une partie des développeurs, Google a pris la place de Navteq en tant que fournisseur de données en se plaçant en tant qu'intermédiaire privilégié. On peut s'attendre à voir les premières batailles entre fournisseurs de données et fournisseurs de logiciels éclater dans les années qui viennent, quand tous auront compris l'importance des données dans l'univers web 2.0. La course pour la possession de données stratégiques a déjà commencé : positionnement, identités, calendriers d'événements, identifiants de produits... Dans bien des cas, là où il y a un coût pour construire une base de données, il y a l'opportunité de créer un support pour des services à valeur ajoutée avec une source unique de données. Souvent, le gagnant sera la société qui atteindra la première une masse critique de données par agrégation des utilisateurs et convertira cet avantage en services. Dans le domaine de l'identité par exemple, Paypal, 1-click d'Amazon et les millions d'utilisateurs des systèmes de communication peuvent tous sembler légitimes pour construire une base de données d'identités à l'échelle du réseau (dans cette optique, la récente tentative de Google d'utiliser les numéros de téléphones en tant qu'identifiants dans les comptes Gmail est peut-être une étape vers l'intégration des téléphones). Pendant ce temps, des start-up comme Sxip explorent le potentiel d'identités fédérés, dans la quête d'une sorte de « 1-click distribué » qu'apporterait un sous-système du web 2.0 dédié à l'identité. Dans le domaine des calendriers, EVDB est une tentative de construire le plus grand calendrier partagé du monde à partir d'un système de participation de type wiki. Bien que le juge de paix reste le succès d'une approche ou d'une start-up particulière dans le domaine, il est clair que les standards et les solutions dans ces domaines qui sauront transformer des données brutes en des sous-systèmes de confiance du « système d'exploitation internet » rendront possibles une nouvelle génération d'applications. Un autre point d'importance doit être précisé au sujet des données : les aspects de confidentialité et de droit des utilisateurs sur leurs données. Dans la plupart des premières applications web, le copyright n'était appliqué que de manière très approximative. Amazon, par exemple, dit respecter les droits de auteurs des critiques faites sur son site mais en l'absence d'application concrète, n'importe qui peut recopier une critique et la reposter ailleurs. Cependant les sociétés ayant pris conscience que le contrôle des données est un avantage stratégique décisif, on peut s'attendre de leur part à une réaction sur le sujet. Comme la montée du logiciel propriétaire a conduit au mouvement du logiciel libre, il est envisageable de voir le mouvement « des données libres » s'opposer peu à peu à l'univers des données propriétaires. On peut en voir les premiers signes dans des projets ouverts comme Wikipedia, la licence Creative Commons ou encore dans des projets tels que GreaseMonkey qui permet à l'utilisateur de s'approprier un peu plus les données envoyées par les pages web en en contrôlant l'affichage. La fin des cycles de release Comme cela a été dit dans la discussion opposant Netscape à Google, une caractéristique définissant l'ère internet du logiciel est que celui-ci est proposé en tant que service et non en tant que produit. Ce fait amène nombre de changements fondamentaux dans le modèle d'affaire des sociétés de logiciels : 1- les traitements deviennent le coeur de métier. A l'expertise de Google ou de Yahoo ! Dans le développement dans leurs produits, doit correspondre une expertise dans les opérations du quotidien. Le passage d'un logiciel-produit à un logiciel-service est à ce point fondamental que le logiciel ne peut plus fonctionner s'il n'est pas maintenu à une échelle quotidienne. Google doit continuellement parcourir le web et mettre à jour ses indices, filtrer le « spam link » et autres tentatives d'influencer ses résultats, continuellement et dynamiquement répondre à des centaines de millions de requêtes asynchrones d'utilisateurs, tout en leur faisant correspondre des publicités adaptés à leur contexte. Ce n'est donc pas par hasard que le système
d'administration de Google, ses techniques de mise en réseau,
d'équilibrage des charges sont des secrets peut-être mieux
gardés encore que ses algorithmes. La réussite de Google dans
l'automatisation de ces processus est probablement un facteur décisif
dans leur avantage sur leurs concurrents en matière de
coûts. 2- Les utilisateurs doivent être traités comme des co-développeurs, en référence aux pratiques de l'open-source (même si le logiciel dont il est question ne doit pas forcément être open source). Le dicton de l'open-source « livrer tôt et livrer souvent » se transforme en une position encore plus radicale, « la bêta perpétuelle », dans laquelle le produit est développé avec de nouvelles fonctionnalités apparaissant de manière mensuelle, hébdomadaire voire quotidienne. Il n'y a donc rien d'étonnant à voir des services tels que Gmail, Google Maps, Flickr, del.icio.us, et autres porter un logo « bêta » depuis déjà un bon moment. L'observation en temps réel du comportement de l'utilisateur dans le but de voir quelles sont les nouvelles fonctionnalités utilisées, devient donc un nouvelle compétence centrale. Un développeur web d'un grand service en ligne dit à ce sujet : « Nous mettons deux ou trois nouvelles fonctionnalités quelque part sur le site chaque jour, si elles ne sont pas utilisées, nous les retirons. Si elles sont appréciées, nous les implémentons partout ailleurs sur le site. » Cal Henderson, le principal développeur de
Flickr, a révélé récemment qu'il
déployait une nouvelle version (ndt : plus exactement un
nouveau « build ») de son application toute les
demis-heures. C'est là un modèle de développement
radicalement différent ! Même si toutes les applications web ne
vont pas aussi loin que Flickr, la plupart a un cycle de développement
tout à fait différent de l'ère du PC et du client-serveur.
C'est pour cette raison qu'un récent éditorial de Zdnet concluait
que Microsoft ne parviendrait pas à l'emporter face à
Google : Alors que Microsoft a démontré une capacité incroyable à apprendre de et finalement surpasser la concurrence, il n'est plus ici question de temps. La concurrence demandera cette fois à Microsoft (et par extension à toutes les sociétés de logiciel existantes) de devenir une société complètement différente. Les sociétés web 2.0 natives bénéficient d'un avantage naturel, celui de ne pas avoir de vieux schémas (avec les modèles d'affaires et les revenus correspondants) derrière lesquels s'abriter. Des modèles de programmation légers Après que le principe des services web se fut popularisé, de grandes compagnies se sont lancées dans l'aventure en proposant des ensembles complexes de services conçus pour créer de véritables environnements de développement pour applications distribuées. Mais tout comme le web avait réussi en passant outre une grande partie de la théorie de l'hypertexte, préférant le pragmatisme à une conception idéale, RSS devint peut-être le service web le plus déployé du fait de sa simplicité, alors que la complexité des web services des grandes sociétés condamna ceux-ci à un déploiement limité. De la même manière, les services web d'Amazon furent fournis sous 2 formes : la première adhérant au formalisme de SOAP (Simple Object Access Protocol), la seconde se contentant de fournir un flux de données XML via HTTP, un modèle plus simple désormais connu sous le terme de REST (Representational State Transfer). Alors que les connexions B2B (comme celles reliant Amazon et ToysRUs par exemple) utilise SOAP, Amazon rapporte que 95% des usages de ses web services se font via REST. C'est la même quête de simplicité qui peut être vue dans d'autres services web « organiques ». La récente sortie de Google Maps en constitue un bon exemple. L'interface de Google Maps bâtie sur les principes d'AJAX a rapidement été décryptée par quelques hackers, qui ont alors utilisé ces données pour bâtir de nouveaux services. Les données relatives à la cartographie était déjà disponibles via quelques fournisseurs tels qu'ESRI, MapQuest ou encore Microsoft MapPoint. Mais Google Maps a bouleversé cet univers du fait de sa simplicité. Alors que les expérimentations d'utilisation de web services demandaient jusque là un contrat entre les intéressés, le fait de laisser les données aisément accessibles a permis à quelques bidouilleurs de réutiliser ces données de manière créative. Il y a là plusieurs enseignements à en tirer : 1- Mettre en place des modèles de progammation légers permettant la création de systèmes faiblement couplés. La complexité des services web « corporate » est faite pour des systèmes fortement couplés. A contrario, la plupart des applications web les plus intéressantes demeure faiblement couplé, voire fragile. La façon de penser web 2.0 est très différente des visions classiques des systèmes d'informations ! 2- Pensez syndication, pas coordination. Les services web simples tels que RSS ou ceux basés sur l'architecture REST cherchent avant tout à laisser des données à disposition, pas à contrôler ce qui se passe à l'autre bout de la connexion. Cette idée est fondamentale vis-à-vis du paradigme même d'Internet dans la mesure où c'est une transposition du principe du « end-to-end » (ndt : principe fondamental de l'Internet Protocol stipulant que l'interprétation des données a lieu à chaque extrémité de la chaîne d'informations). 3- Une conception faite pour être « bidouillable » et « remaniable ». Les systèmes tels que le web, RSS et AJAX ont un point commun : les barrières pour les réutiliser sont très faibles. La plupart des logiciels utiles sont open source, et même quand ils ne le sont pas, ils sont assez peu protégés du point de vue de la propriété intellectuelle. L'option « voir la source » des navigateurs a rendu possible à n'importe qui la possibilité de copier la page de quelqu'un d'autre ; RSS a été conçu pour renforcer les possibilités de l'utilisateur de voir le contenu qu'il désire quand il le désire et non selon le bon vouloir d'un fournisseur d'informations ; les services web les plus puissants sont ceux qui permettent le plus facilement de les utiliser dans des buts pour lesquels ils n'ont pas été conçus. La phrase « certains droits réservés » qui a été popularisé par la licence Creative Commons pour s'opposer à la célèbre « tous droits réservés » est assez représentative de cet esprit.
Les modèles d'affaires « légers » ont une affinité naturelle avec les modèles de programmation et de connections légers. L'état d'esprit web 2.0 n'hésite pas à réutiliser l'existant : un nouveau service tel que housingmaps.com a été élaboré simplement en reliant 2 services existants. Housingmaps.com n'a pas (encore) de modèle d'affaires, mais plusieurs services à petite échelle, Google AdSense (ou peut-être Amazon ou même les deux) lui apporte l'équivalent d'un modèle de rémunération. Ces exemples donnent un aperçu d'un autre principe du web 2.0, que nous appelons « innovation par l'assemblage ». Quand les composants de base deviennent abondants, il est possible de créer de la valeur en les assemblant de manière nouvelle ou plus efficace. Tout comme la révolution du PC a apporté de nombreuses opportunités d'innovation dans l'assemblage du hardware et a permis à des sociétés comme Dell faisant une science de cet assemblage de vaincre des sociétés dont le modèle d'affaires reposait sur l'innovation dans la production de composants, nous pensons que le Web 2.0 apportera des opportunités pour des sociétés d'entrer dans la compétition simplement en intégrant et en assemblant des services fournis par d'autres. Le logiciel se libère du PC Une autre des caractéristiques du web 2.0 qui mérite d'être mentionnée est le fait de ne plus être limité à la plate-forme PC. Le dernier conseil que le développeur Dave Stutz donna à Microsoft fut : « Les logiciels utiles qui se libéreront d'une plate-forme spécifique seront des vecteurs de fortes marges pour un bon moment ». Bien entendu, n'importe quelle application web peut être vue comme un logiciel indépendant d'une plate-forme spécifique. Après tout, même la plus simple des applications web implique au moins deux ordinateurs : l'un hébergeant le serveur web, l'autre le navigateur. Or comme nous l'avons déjà expliqué, le développement du web en tant que plate-forme pousse cette idée jusqu'à des applications synthétisant des services apportés par de nombreux ordinateurs. Là encore, comme de nombreuses parties du web 2.0, l'aspect « 2.0 » n'est pas dans la nouveauté, mais plutôt dans la pleine réalisation du véritable potentiel de la plate-forme web, celle-ci devant nous guider pour comprendre comment concevoir applications et services. A ce jour, iTunes est le meilleur exemple de ce principe. Cette application va sans cesse d'un appareil portable à un système web massif, le PC servant uniquement de mémoire locale et de station de contrôle. Il y avait déjà eu plusieurs tentatives de mettre du contenu venu du web dans des dispositifs portables, mais le couple iPod/iTunes est la première conçue pour être véritablement multi-plate-forme. TiVo est un autre bon exemple de ce phénomène. Itunes et TiVo offrent également la démonstration de quelques autres principes du web 2.0. Elles ne sont pas des applications web en elles-mêmes, mais elle tire parti de la puissance de la plate-forme web, en faisant une partie permanente et pratiquement invisible de leurs infrastructures. La gestion de données est très clairement le coeur de leur offre. Ce sont des services, pas des applications packagées (bien que dans le cas d'iTunes, cela puisse être utilisé en tant qu'application packagée pour manipuler des données locales). De plus, TiVo et iTunes montrent une utilisation naissante de l'intelligence collective, même si dans chacun des cas, leurs expérimentations sont entrées en guerre avec les lobbies de la propriété intellectuelle. La seule limite se trouve dans l'architecture de participation d'iTunes, bien que la récente apparition du podcasting change quelque peu la donne de ce point de vue. Il s'agit de la partie du web 2.0 dont nous attendons les changements les plus importants, dans la mesure où de plus en plus d'appareils pourront être connectés à la nouvelle plate-forme que constitue le web. Quelles applications deviendront possibles quand nos téléphones et nos voitures ne se contenteront plus d'utiliser des données mais en émettront ? Le suivi du trafic routier en temps réel, le « flash mobs » (ndt : un groupe de personnes qui ne se connaissent pas, se réunit pendant quelques minutes -grâce à un message SMS ou email- pour accomplir au même moment une action dénuée de sens, puis se disperse) et le journalisme citoyen ne sont que quelques uns des signes précurseurs des possibilités du web de demain. Enrichir les interfaces utilisateur Dès le navigateur « Viola » de Pei Wei en 1992, le web a été utilisé pour délivrer des « applets » et d'autres types de « contenus actifs » à l'intérieur du navigateur. L'introduction de Java en 1995 était aussi motivée par cet objectif. JavaScript puis le DHTML permirent d'apporter de manière plus légère intelligence côté client et richesse d'interface. Il y a de cela plusieurs années, Macromedia lança le terme « Rich Internet Applications » (qui a été repris par le projet Open Source Lazlo) pour mettre en lumière les possibilités de Flash vis à vis des applications (et plus seulement des contenus multimédias). Cependant le potentiel de richesse d'interface du web ne fut jamais exploité par les grandes applications, jusqu'à ce que Google lance Gmail, rapidement suivi par Google Maps : des applications web possédant un niveau d'interactivité équivalent à un logiciel PC classique. La technologie utilisée par Google pour cela fut baptisée AJAX dans un article de Jesse James Garrett de l'entreprise de design web Adaptive Path. Il écrivait alors : « Ajax n'est pas une technologie, il s'agit de plusieurs technologies, se développant chacune de leur côté, combinées ensemble pour donner des résultats aussi nouveaux que puissants. Ajax comporte : - une présentation basée sur les standards XHTML et CSS - un affichage dynamique et interactif grâce à DOM (Document Object Model) - un système d'échange et de manipulation de données utilisant XML et XSLT - un mécanisme de récupération de données asynchrone utilisant XMLHttpRequest JavaScript pour lier le tout » Ajax est aussi un élément clé des applications web 2.0 tels que Flickr (qui appartient désormais à Yahoo!), les applications de 37signal basecamp et backpack et bien entendu les applications de Google comme Gmail ou Orkut. Nous entrons dans une période sans précédent d'innovation dans l'interface à mesure que les développeurs deviennent capables de réaliser des applications web aussi riches que les applications locales classiques. Il est intéressant de noter que bien des possibilités explorés aujourd'hui existaient depuis maintenant quelques années. A la fin des années 90, Microsoft et Netscape avaient une vision des possibilités qui sont désormais exploitées mais leur bataille au sujet des standards rendit difficile la création d'applications multi-navigateurs. C'est seulement lorsque Microsoft eut gagné cette guerre que le seul navigateur restant devint de facto le standard et que ces applications devinrent possibles. Heureusement, lorsque Firefox relança la concurrence sur le marché des navigateurs, les blocages au sujet des standards ne se reproduisirent pas dans les mêmes proportions. Nous nous attendons à voir apparaître de nombreuses applications web au cours des prochaines années, certaines seront entièrement nouvelles, d'autres seront des ré implémentations d'applications PC existantes. C'est d'autant plus inévitable que chaque changement de plate-forme crée aussi l'opportunité d'un changement de leadership pour les acteurs d'un marché logiciel donné. Gmail a déjà apporté plusieurs innovations intéressantes dans les applications e-mail en combinant les forces du web (accessible de n'importe où, capacités de recherches avancées) avec une approche ergonomique proche des interfaces PC habituelles. Les applications clientes essaient donc de grignoter des parts de marché en ajoutant de nouvelles fonctionnalités telles que la messagerie instantanée. Sommes-nous encore loin du client de communication complètement intégré incluant le meilleur de l'e-mail, de la messagerie instantanée et du téléphone portable tout en utilisant la voix sur IP pour ajouter encore plus de richesse à l'interface du nouveau client web ? En tout cas, le compte à rebours est lancé. Il est assez facile d'imaginer comment le web 2.0 ré implémentera le carnet d'adresses. Un carnet d'adresses web 2.0 pourra d'une part traiter un ensemble de contacts mémorisés comme le fait par exemple un téléphone. Parallèlement à cela, un agent de synchronisation web, dans le style de Gmail, se souviendra de chaque message envoyé ou reçu, de chaque adresse e-mail ou numéro de téléphone utilisé et s'appuiera sur des heuristiques de réseaux sociaux pour décider quelles alternatives offrir en cas de recherches infructueuses. Si il ne trouve pas de réponse, le système élargira alors le périmètre du réseau social dans le lequel il effectue sa requête. Le traitement de texte du web 2.0 permettra l'édition de données collaborative de type wiki et plus seulement celle de documents indépendants. Mais il pourra aussi offrir l'édition de document riche comme Microsoft Word ou OpenOffice savent le faire. Writely est un excellent exemple d'une telle application, bien que sa portée soit encore assez limitée. Mais la révolution web 2.0 ne s'arrêtera pas là. Salesforce.com a montré comment le web pouvait être utilisé pour délivrer le logiciel comme un service, à l'échelle d'applications d'entreprises telles que la CRM. L'opportunité pour de nouveaux arrivants d'exploiter pleinement le potentiel du web 2.0 entrainera la création d'applications qui apprennent de leurs utilisateurs en s'appuyant sur une architecture de participation et qui se démarqueront non seulement par leur interface mais aussi par la richesse des données partagées qu'elles offriront. Le coeur de métier des sociétés du web 2.0 A travers les 7 principes évoqués plus haut, nous avons souligné quelques uns des principaux traits du web 2.0. Chaque exemple abordé démontre un ou plusieurs principes clé, mais laisse en général les autres de côté. Terminons donc en résumant ce que nous pensons être le coeur de métier des sociétés du web 2.0 : - des services, pas un package logiciel, avec des possibilités d'économie d'échelle - un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s'accroit à mesure que les gens les utilisent - considérer les utilisateurs comme des co-développeurs - tirer partie de l'intelligence collective - toucher le marché jusque dans sa périphérie à travers la mise en place de services « prêts à consommer » - libérer le logiciel du seul PC - offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements ET les modèles d'affaires La prochaine fois qu'une société clame « ceci est web 2.0 », confrontez-la à la liste ci-dessus. Plus elle marque de points, plus elle est digne de cette appellation. Rappelez-vous néanmoins que l'excellence dans un domaine vaut mieux quelques paroles pour chacun des sept. Source : http://www.eutech-ssii.com/ressources/1 |
|