mardi, janvier 31

Fuzz : entrez dans l'ère du "we, the media"

Fuzz.fr est le site incontournable du moment pour la blogobulle webdeuzérophile francophone. L'idée reprend un concept clé évoqué par Tim O'Reilly : le web 2.0 nous fait entrer dans l'ère du "we, the media".

Pour faire simple : les gens proposent des news (très courtes, l'essentiel du contenu étant donné par un lien) et votent pour celles qui leur semblent le plus digne d'intérêt. Plus une news a de vote, plus est en évidence dans la liste de news de fuzz. Autrement dit, on tire parti de l'intelligence collective pour déterminer ce qui fait sens dans l'actualité.

Malgré l'absence de véritable promo, le site semble déjà très visité. La présentation astucieusement Ajaxisée est agréable et les news deviennent de plus en plus pertinentes. Malgré la concurrence d'autres français (Il y a aussi www.scoopeo.com , www.tapemoi.com, www.wikio.fr) et les limites de notre petite communauté de langues, espérons que fuzz (ou un de ses clones) devienne un jour l'équivalent du digg.com anglophone : une référence absolue.

La prise du pouvoir des médias par la communauté se fait proche... A quand une édition "papier" de fuzz ? A quand une fuzz WebTV ? Ah... rêvons un peu avant le krach 2.0 !

mardi, janvier 24

La guerre de la sémantique aura-t-elle lieu ?

Bien qu'O'Reilly ne le cite pas en tant que tel dans "what is web 2.0", la sémantique est à n'en pas douter un trait du web 2.0.

Faire de la sémantique, c'est donner du sens aux contenus. Concrètement, ça donne des moteurs de recherche qui ne se basent pas sur des mots mais sur le sens général d'un texte, des applications capables de détecter des sujets connexes à un domaine donné, des fonctionnalités de résumés de textes, des systèmes de traduction avancés... bref, faire en sorte qu'un programme ait une approche plus "humaine" d'un contenu !

Le web 2.0 et ses folksonomies (del.icio.us, par exemple) semblent donc tendre vers cet idéal : les utilisateurs taguent le contenu, lui donnant ainsi leur approche "humaine" de celui-ci. Les microformats tendent aussi vers cela et si quelqu'un trouve un jour une approche simplifiée de RDF, un pas de plus sera franchi dans la démocratisation du web sémantique.

Derrière tout cela restent des moteurs à améliorer (ou à concevoir) pour mettre en place et appliquer des ontologies à nos immenses bases de contenus et faire de nos PC les bibliothéquaires du 21ème siècle.

jeudi, janvier 19

La crédibilité à l'ère du blog

Un petit débat sur le blog de Fred Cavazza m'a donné envie de poster ce billet. Je résume en deux mots : le web 2.0 contribue-t-il à la crédibilité de l'information ?

Quand il suffit d'être un peu malin pour rendre visible rapidement des informations (vraies ou fausses), il peut sembler que non. Il peut donc sembler nécessaire d'attendre certains outils pour parvenir à l'ère de l'information crédible. Parmi ceux-ci, sont parfois cités : un système de réputation façon e-bay, la création de "tags" de confiance, des moteurs de recherche blacklistant certains contenus abusifs... D'après moi ces éléments, ne sont pas inutiles, mais existent déjà en creux à travers les outils actuels.


Il ne faut en effet pas prendre le problème de la crédibilité des sources, source par source, mais de manière globale :
1- la multiplicité des sources oblige le lecteur à repérer des acteurs de confiance. Cette attribution de confiance est soumise à un phénomène communautaire : les recommandations se propageant d'un lecteur/acteur à un autre.

2- notre expérience des blogs nous montrent bien au quotidien que "la sagesse des foules" fonctionne : le buzz créé par la blogobulle sur un sujet amène à le populariser mais aussi et à le creuser, le débattre, l'approfondir (les buzz web 2.0 ou ajax en sont d'excellents exemples).

3- les moteurs de recherche se font l'echo du filtre créé par la blogobulle dans un second temps : la sagesse engrangée sur un sujet par la communauté est donc directement pérennisée et indexée.

Le filtre de crédibilisation de l'information existe donc déjà : c'est la blogobulle, c'est le buzz, c'est nous ou pour reprendre une expression célèbre "we, the media".

jeudi, janvier 12

Windows Live : Microsoft attrapera-t-il le train du web 2.0 ?

Même si il s'en défend, Bill Gates est bel et bien agacé par le leader du mouvement web 2.0 (Google). Cet agacement est probablement un peu à l'origine de plusieurs décisions à caractère stratégique :
- la volonté de faire de la publicité une part plus conséquente du CA de Microsoft
- Windows Live : une refonte des services MSN façon Google
- Office Live : un ensemble de services pour les TPE

Tim O'Reilly nous dit à mots couverts dans son article que Microsoft n'a pas, et n'aura peut-être jamais la culture web 2.0 du fait des revenus de son business model "old school". Mon opinion est quant à moi loin d'être faite sur le sujet pour les raisons suivantes :
- les interviews récentes de Gates et Ballmer montrent à l'évidence qu'ils ne pensent pas web 2.0 mais leur porte-feuille d'applications est si large qu'on peut les comprendre.
- Microsoft a toujours su réagir après coup aux innovations de ses concurrents : la dernière illustration en date est probablement .Net (en réaction à Java) qui est une indéniable réussite.
- contrairement à O'Reilly, je ne suis pas persuadé qu'il faille penser web 2.0 pour réussir dans le web 2.0 : si Microsoft copie bien ses jeunes concurrents, cela pourrait largement suffire !

vendredi, janvier 6

What is Web 2.0 par Tim O'Reilly (version française)

[Edit : une version plus complète de cet article se trouve désormais ici]

Qu'est ce que le web 2.0 : modèles de conception et d'affaires pour la prochaine génération de logiciels.


L'explosion de la bulle internet en 2001 a définitivement marqué un tournant dans l'histoire du web. Beaucoup de gens ont à ce moment considéré que le web était une technologie surévaluée alors qu'au contraire, le fait qu'une bulle se forme puis éclate est un trait commun à toutes les révolutions industrielles. Ces soubresauts sont même caractéristiques du moment où une technologie ascendante est prête à entrer dans une nouvelle phase. C'est en effet le moment où les simples prétendants arrivent à bout de souffle tandis que les points forts des premiers gagnants apparaissent : et c'est seulement à cet instant que l'on commence à comprendre ce qui distingue les premiers des seconds.

Le concept de web 2.0 est apparu avec une conférence « brainstorming » entre O'Reilly et Medialive International. Dale Dougherty, pionner du web et membre d'O'Reilly notait alors que bien loin de s'être effondré, le web n'avait jamais été aussi important et que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l'hécatombe semblaient avoir quelque chose de commun. Se pouvait-il que le crack des « dot com » eût révélé une nouvelle ère pour le web au point que l'expression « web 2.0 » ait un sens ? Nous tombèrent d'accord sur le fait que cela en avait un : la conférence web 2.0 était née.

En un an et demi (ndt : l'article est daté du 30/09/2005), le terme « web 2.0 » s'est franchement popularisé avec plus de 9,5 millions de citations dans Google. Mais il reste encore de multiples points de désaccord sur sa signification exacte, un certain nombre de personnes décriant ce qui ne leur semble être qu'un buzzword bien marketé, d'autres y voyant une nouveau modèle de pensée.

Cet article est donc une tentative de clarification du sens du terme « web 2.0 ». Dans notre brainstorming initial, nous avons exprimé notre ressenti du web 2.0 par l'exemple :

Web 1.0 // Web 2.0

DoubleClick --> Google AdSense
Ofoto --> Flickr
Akamai --> BitTorrent
mp3.com --> Napster
Britannica Online --> Wikipedia
sites perso --> blogs
evite --> upcoming.org et EVDB
spéculation sur les noms de domaines --> optimisation pour moteurs de recherche
pages vues --> coût au clic
« screen scraping » --> services web
publication --> participation
système de gestion de contenu --> wikis
arborescence (taxonomie) --> tags ("folksonomy")
rigidité du contenu --> syndication de contenu

Et la liste pourrait encore s'allonger... Mais cela ne nous dit toujours ce qui fait qu'une application ou un concept est web 1.0 et un autre web 2.0. (La question est particulièrement pressante dans la mesure où le terme « web 2.0 » s'est à ce point répandu que des entreprises se l'approprient bien souvent sans réelle compréhension de sa signification. C'est d'autant plus délicat que la plupart de ces start-ups friandes de termes à la mode ne sont en rien web 2.0 et que parallèlement à cela des applications que nous avons identifiées comme étant web 2.0, comme Napster ou BitTorrent ne sont même pas des applications web à proprement parler !). Nous avons donc commencé à tirer de ces exemples les principes qui sont d'une manière ou d'une autre à la base des succès du web 1.0 mais aussi des applications récentes les plus remarquables.

1- Le web en tant que plate-forme

2- Tirer parti de l'intelligence collective

3- La puissance est dans les données

4- La fin des cycles de release

5- Des modèles de programmation légers

6- Le logiciel se libère du PC

7- Enrichir les interfaces utilisateur


Traduction de "What is web 2.0", première release !

Le post précédent constitue la dernière partie de la traduction de what is web 2.0 de Tim O'Reilly, texte dont on ne rappellera jamais assez combien il est fondateur.

Cette traduction est pour le moment assez mauvaise du point de vue du style et et j'y ai répertorié de nombreuses coquilles... je m'attache donc à partir de maintenant à rendre le tout un peu plus présentable avant de le poster en seul bloc (comme cela me l'a déjà été demandé, à juste titre d'ailleurs).

Merci de votre patience et de votre indulgence !

jeudi, janvier 5

Enrichir les interfaces utilisateur

Dès le navigateur « Viola » de Pei Wei en 1992, le web a été utilisé pour délivrer des « applets » et d'autres types de « contenus actifs » à l'intérieur du navigateur. L'introduction de Java en 1995 était aussi motivée par cet objectif. JavaScript puis le DHTML permirent d'apporter de manière plus légère intelligence côté client et richesse d'interface. Il y a de cela plusieurs années, Macromedia lança le terme « Rich Internet Applications » (qui a été repris par le projet Open Source Lazlo) pour mettre en lumière les possibilités de Flash vis à vis des applications (et plus seulement des contenus multimédias).

Cependant le potentiel de richesse d'interface du web ne fut jamais exploité par les grandes applications, jusqu'à ce que Google lance Gmail, rapidement suivi par Google Maps : des applications web possédant un niveau d'interactivté équivalent à un logiciel PC classique. La technologie utilisée par Google pour cela fut baptisée AJAX dans un article de Jesse James Garrett de l'entreprise de design web Adaptive Path. Il écrivait alors :

« Ajax n'est pas une technologie, il s'agit de plusieurs technologies, se développant chacune de leur côté, combinées ensemble pour donner des résultats aussi nouveaux que puissants. Ajax comporte :
- une présentation basée sur les standards XHTML et CSS
- un affichage dynamique et intéractif grâce à DOM (Document Object Model)
- un système d'échange et de manipulation de données utilisant XML et XSLT
- un mécanisme de récupération de données asynchrone utilisant XMLHttpRequest
JavaScript pour lier le tout »

Ajax est aussi un élément clé des applications web 2.0 tels que Flickr (qui appartient désormais à Yahoo!), les applications de 37signal basecamp et backpack et bien entendu les applications de Google comme Gmail ou Orkut. Nous entrons dans une période sans précédent d'innovation dans l'interface à mesure que les développeurs deviennent capables de réaliser des applications web aussi riches que les applications locales classiques.

Il est intéressant de noter que bien des possibilités explorés aujourd'hui existaient depuis maintenant quelques années. A la fin des années 90, Microsoft et Netscape avaient une vision des possibilités qui sont désormais exploitées mais leur bataille au sujet des standards rendit difficile la création d'applications multi-navigateurs. C'est seulement lorsque Microsoft eut gagné cette guerre que le seul navigateur restant devint de facto le standard et que ces applications devinrent possibles. Heureusement, lorsque Firefox relança la concurrence sur le marché des navigateurs, les blocages au sujet des standards ne se reproduisirent pas dans les mêmes proportions.

Nous nous attendons à voir apparaître de nombreuses applications web au cours des prochaines années, certaines seront entièrement nouvelles, d'autres seront des réimplémentations d'applications PC existantes. C'est d'autant plus inévitable que chaque changement de plate-forme crée aussi l'opportunité d'un changement de leadership pour les acteurs d'un marché logiciel donné.

Gmail a déjà apporté plusieurs innovations intéressantes dans les applications e-mail en combinant les forces du web (accessible de n'importe où, capacités de recherches avancées) avec une approche ergonomique proche des interfaces PC habituelles. Les applications clientes essaient donc de grignoter des parts de marché en ajoutant de nouvelles fonctionnalités telles que la messagerie instantanée. Sommes nous encore loin du client de communication complètement intégré incluant le meilleur de l'e-mail, de la messagerie instantanée et du téléphone portable tout en utilisant la voix sur IP pour ajouter encore plus de richesse à l'interface du nouveau client web ? En tout cas, le compte à rebours est lancé.

Il est assez facile d'imaginer comment le web 2.0 réimplémentera le carnet d'adresses. Un carnet d'adresses web 2.0 pourra d'une part traiter un ensemble de contacts mémorisés comme le fait par exemple un téléphone. Parallèlement à cela, un agent de synchronisation web, dans le style de Gmail, se souviendra de chaque message envoyé ou reçu, de chaque adresse e-mail ou numéro de téléphone utilisé et s'appuiera sur des heuristiques de réseaux sociaux pour décider quelles alternatives offrir en cas de recherches infructueuses. Si il ne trouve pas de réponse, le système élargira alors le périmètre du réseau social dans le lequel il effectue sa requête.

Le traitement de texte du web 2.0 permettra l'édition de données collaborative de type wiki et plus seulement celle de documents indépendants. Mais il pourra aussi offrir l'édition de document riche comme Microsoft Word ou OpenOffice savent le faire. Writely est un excellent exemple d'une telle application, bien que sa portée soit encore assez limitée.

Mais la révolutions web 2.0 ne s'arrêtera pas là. Salesforce.com a montré comment le web pouvait être utilisé pour délivrer le logiciel comme un service, à l'échelle d'applications d'entreprises telles que la CRM.

L'opportunité pour de nouveaux arrivants d'exploiter pleinement le potentiel du web 2.0 entrainera la création d'applications qui apprennent de leurs utilisateurs en s'appuyant sur une architecture de participation et qui se démarqueront non seulement par leur interface mais aussi par la richesse des données partagées qu'elles offriront.

Le coeur de métier des sociétés du web 2.0

A travers les 7 principes évoqués plus haut, nous avons souligné quelques uns des principaux traits du web 2.0. Chaque exemple abordé démontre un ou plusieurs principes clé, mais laisse en général les autres de côté. Terminons donc en résumant ce que nous pensons être le coeur de métier des sociétés du web 2.0 :

- des services, pas un package logiciel, avec des possibilités d'économie d'échelle

- un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s'accroit à mesure que les gens les utilisent

- considérer les utilisateurs comme des co-développeurs

- tirer partie de l'intelligence collective

- toucher le marché jusque dans sa périphérie à travers la mise en place de service « prêt à consommer »

- libérer le logiciel du seul PC

- offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements ET les modèles d'affaires

La prochaine fois qu'une société clame « ceci est web 2.0 », confrontez-la à la liste ci-dessus. Plus elle marque de points, plus elle est digne de cette appellation. Rappelez-vous néanmoins que l'excellence dans un domaine vaut mieux quelques paroles pour chacun des sept.

mercredi, janvier 4

Le logiciel se libère du PC



Une autre des caractéristiques du web 2.0 qui mérite d'être mentionnée est le fait qu'il n'est plus limité à la plate-forme PC. Le dernier conseil que le développeur Dave Stutz donna à Microsoft fut : « Les logiciels utiles qui se libéreront d'une plate-forme spécifique seront des vecteurs de fortes marges pour un bon moment ».

Bien entendu, n'importe quelle application web peut être vue comme un logiciel indépendant d'une plate-forme spécifique. Après tout, même la plus simple des applications web implique au moins deux ordinateurs : l'un hébergeant le serveur web, l'autre le navigateur. Or comme nous l'avons déjà expliqué, le développement du web en tant que plate-forme pousse cette idée jusqu'à des applications synthétisant des services apportés par de nombreux ordinateurs.

Là enore, comme de nombreuses parties du web 2.0, l'aspect « 2.0 » n'est pas dans la nouveauté, mais plutôt dans la pleine réalisation du véritable potentiel de la plate-forme web, celle-ci devant nous guider pour comprendre comment concevoir applications et services.

A ce jour, iTunes est le meilleur exemple de ce principe. Cette application va sans cesse d'un appareil portable à un système web massif, le PC servant uniquement de mémoire locale et de station de contrôle. Il y avait déjà eu plusieurs tentatives de mettre du contenu venu du web dans des dispositifs portables, mais le couple iPod/iTunes est la première conçue pour être véritablement multi-plate-forme. TiVo est un autre bon exemple de ce phénomène.

Itunes et TiVo offrent également la démonstration de quelques autres principes du web 2.0. Elles ne sont pas des applications web en elles-mêmes, mais elle tire parti de la puissance de la plate-forme web, en faisant une partie permanente et pratiquement invisible de leurs infrastructures. La gestion de données est très clairement le coeur de leur offre. Ce sont des services, pas des applications packagées (bien que dans le cas d'iTunes, cela puisse être utilisé en tant qu'application packagée pour manipuler des données locales). De plus, TiVo et iTunes montrent une utilisation naissante de l'intelligence collective, même si dans chacun des cas, leurs expérimentations sont entrées en guerre avec les lobbies de la propriété intellectuelle. La seule limite se trouve dans l'architecture de participation d'iTunes, bien que la récente apparition du podcasting change quelque peu la donne de ce point de vue.

Il s'agit de la partie du web 2.0 dont nous attendons les changements les plus importants, dans la mesure ou de plus en plus d'appareils pourront être connectés à la nouvelle plate-forme que constitue le web. Quelles applications deviendront possibles quand nos téléphones et nos voitures ne se contenteront plus d'utiliser des données mais en émettront ? Le suivi du trafic routier en temps réel, les « flash mobs » (ndt : un groupe de personnes qui ne se connaissent pas, se réunit pendant quelques minutes -grâce à un message SMS ou email- pour accomplir au même moment une action dénuée de sens, puis se disperse) et le journalisme citoyen ne sont que quelques uns des signes précurseurs des possiblités du web de demain.

Suite...

lundi, janvier 2

Des modèles de programmation légers



Après que le principe des services web se fut popularisé, de grandes compagnies se sont lancés dans l'aventure en proposant des ensembles complexes de services conçus pour créer de véritables environnements de développement pour applications distribuées.

Mais tout comme le web avait réussi en passant outre une grande partie de la théorie de l'hypertexte, préférant le pragmatisme à une conception idéale, RSS devint peut-être le service web le plus déployé du fait de sa simplicité, alors que la complexité des web services des grandes sociétés condamna ceux-ci à un déploiement limité.

De la même manière, les services web d'Amazon furent fournis sous 2 formes : la première adhérant au formalisme de SOAP (Simple Object Access Protocol), la seconde se contentant de fournir un flux de données XML via HTTP, un modèle plus simple désormais connu sous le terme de REST (Representational State Transfer). Alors que les connexions B2B (comme celles reliant Amazon et ToysRUs par exemple) utilise SOAP, Amazon rapporte que 95% des usages de ses web services se font via REST.

C'est la même quête de simplicité qui peut être vue dans d'autres services web « organiques ». La récente sortie de Google Maps en constitue un bon exemple. L'interface de Google Maps bâtie sur les principes d'AJAX a rapidement été décryptée par quelques hackers, qui ont alors utilisé ces données pour bâtir de nouveaux services.

Les données relatives à la cartographie était déjà disponibles via quelques fournisseurs tels qu'ESRI, MapQuest ou encore Microsoft MapPoint. Mais Google Maps a bouleversé cet univers du fait de sa simplicité. Alors que les expérimentations d'utilisation de web services demandait jusque là un contrat entre les intéressés, le fait de laisser les données aisément accessibles a permis à quelques bidouilleurs de réutiliser ces données de manière créative.

Il y a là plusieurs enseignements à en tirer :

1- Mettre en place des modèles de progammation légers permettant la création de systèmes faiblement couplés. La complexité des services web « corporate » est faite pour des systèmes fortement couplés. A contrario, la plupart des applications web les plus intéressantes demeure faiblement couplé, voire fragile. La façon de penser web 2.0 est très différente des visions classiques des systèmes d'informations !

2- Pensez syndication, pas coordination. Les services web simples tels que RSS ou ceux basés sur l'architecture REST cherchent avant tout à laisser des données à disposition, pas à contrôler ce qui se passe à l'autre bout de la connexion. Cette idée est fondamentale vis-à-vis du paradigme même d'Internet dans la mesure où c'est une transposition du principe du « end-to-end » (ndt : principe fondamental de l'Internet Protocol stipulant que l'interprétation des données a lieu à chaque extrémité de la chaîne d'informations).

3- Une conception faite pour être « bidouillable » et « remaniable ». Les systèmes tels que le web, RSS et AJAX ont un point commun : les barrières pour les réutiliser sont très faibles. La plupart des logiciels utiles sont open source, et même quand ils ne le sont pas, ils sont assez peu protégés du point de vue de la propriété intellectuelle. L'option « voir la source » des navigateurs a rendu possible à n'importe qui la possibilité de copier la page de quelqu'un d'autre ; RSS a été conçu pour renforcer les possibilités de l'utilisateur de voir le contenu qu'il désire quand il le désire et non selon le bon vouloir d'un fournisseur d'informations ; les services web les plus puissants sont ceux qui permettent le plus facilement de les utiliser dans des buts pour lesquels ils n'ont pas été conçus. La phrase « certains droits réservés » qui a été popularisé par la licence Creative Commons pour s'opposer à la célèbre « tous droits réservés » est assez représentative de cet esprit.

L'innovation est dans l'assemblage

Les modèles d'affaires « légers » ont une affinité naturelle avec les modèles de programmation et de connections léger. L'état d'esprit web 2.0 n'hésite pas à réutiliser l'existant : un nouveau service tel que housingmaps.com a été élaboré simplement en reliant 2 services existants. Housingmaps.com n'a pas (encore) de modèle d'affaires, mais plusieurs services à petite échelle, Google AdSense (ou peut-être Amazon ou même les deux) lui apporte l'équivalent d'un modèle de rémunération.

Ces exemples donnent un aperçu d'un autre principe du web 2.0, que nous appelons « innovation par l'assemblage ». Quand les composants de base deviennent abondants, il est possible de créer de la valeur en les assemblant de manière nouvelle ou plus efficace. Tout comme la révolution du PC a apporté de nombreuses opportunités d'innovation dans l'assemblage du hardware et a permis à des sociétés comme Dell faisant une science de cet assemblage de vaincre des sociétés dont le modèle d'affaires reposait sur l'innovation dans la production de composants, nous pensons que le Web 2.0 apportera des opportunités pour des sociétés d'entrer dans la compétition simplement en intégrant et en assemblant des services fournis par d'autres.

Suite...