jeudi, août 31

Une documentation efficace pour prototype.js

J'ai déjà dit tout le bien que je pensais de la fameuse librairie prototype dans un projet web 2.0. Pour exploiter au mieux cette librairie, je ne saurais trop que vous conseiller la lecture de la documentation non-officielle de prototype 1.4.0 ici (en anglais) et en français (pour la version 1.3.1).

Encore une fois, passer 2 heures à lire cette documentation est un investissement très rentable si vous utilisez cette librairie ou envisagez de le faire.

jeudi, août 24

Pourquoi vous ne trouverez pas de définition du web 2.0

Bien des gens de passage ici (et ailleurs) sont à la recherche d'une définition du web 2.0... de préférence précise. Alors, soyons clairs : cette définition n'existe pas.

Le web 2.0 n'a pas de contour nets : il s'agit d'une étiquette collée à une époque marquée par un certain renouveau sur le web. De même que vous ne trouverez pas de définition précise du nouveau roman, de la nouvelle vague ou des années folles, vous pourrez au mieux sentir les concepts dominants de l'ère et de la culture web 2.0.

Le web 2.0 s'apprécie donc dans le temps : c'est pourquoi Tim O'Reilly commence "What is web 2.0" par ce qui a changé sur le web ces dernières années. C'est aussi pourquoi il faut les 16 pages de son article pour commencer à comprendre tout ce que cela recouvre : économiquement, culturellement, techniquement mais aussi et surtout dans les usages.

La seule définition que l'histoire devrait retenir serait ainsi :
"Web 2.0, période marquant le retour de l'innovation et d'une forte croissance dans les technologies liées au web, après la crise connue par le secteur de 2001 à 2004."

mercredi, août 23

Petit test de AllPeers

AllPeers est un plug-in pour Firefox vous permettant de faire des échanges de fichier de clients à clients. C'est outil actuellement en bêta fermé que j'ai pu tester grâce à une invitation via Techcrunch.

Premiers constats...
- l'outil est pratique : intégré au navigateur, ergonomie bien pensée (barres de navigation, menus contextuels, possibilité de partager des fichier par glisser-déposer depuis le desktop)

- il répond à un vrai besoin : partager des fichiers volumineux entre amis (c'est le protocole de Bittorrent qui est utilisé, c'est donc vraiment similaire au P2P classique pour les habitués), et à l'heure de la bulle 2.0, c'est une grande qualité.

Quelques réserves cependant...
- le principe du logiciel, c'est le partage entre amis : vous êtes donc limités à votre petite bande de potes qui utilisent Firefox avec ce plug-in et qui se trouvent sur le réseau... ce qui ne fait pas grand-monde ! J'ai envoyé des invitations à quelques amis, un seul l'a installé et désinstallé quelques jours plus tard. Pour être vraiment intéressant, il faudra donc que le logiciel atteigne un seuil critique en terme d'adoption.
Il est vraiment dommage de ne pas avoir laissé la possibilité de chercher/partager des fichiers avec des gens ne faisant pas partie de votre réseau personnel : cela aurait considérablement augmenté les possibilités d'utilisation.

- techniquement, les développeurs d'AllPeers ont certainement dû faire face à pas mal de difficultés et ils ont parfois été obligés de recourir à des solutions "bricolées". Par exemple, pour ne pas interrompre les téléchargements en cours, lorsque vous fermez Firefox, AllPeers maintient le processus en fonctionnement, ce que j'ai trouvé personnellement gênant.

- l'ensemble ne s'est pas révélé stable sur ma machine (j'ai donc du le désinstaller)... attention toutefois, c'est encore une bêta fermée et j'ai une utilisation de Firefox assez particulière du fait de mes activités de développement.

Finalement...
- AllPeers est incontestablement une bonne idée mais, idéalement, il faudrait qu'il soit intégré directement à Firefox (plutôt qu'en extension) : cela permettrait certainement de bâtir un ensemble plus stable et accroîtrait considérablement le nombre de clients disponibles (difficile mais la fondation Mozilla est ouverte aux partenariats). Dans le même ordre d'idée, prévoir des plug-ins pour d'autres navigateurs permettrait de communiquer avec plus que les seuls 15% d'utilisateurs Firefox.

- Autre point (déjà évoqué) : permettre des échanges "publics" pour partager des fichiers avec des personnes inconnues façon P2P classique est un manque incontestable.

- Vous pourrez essayer AllPeers à sa sortie publique : si vous avez une petite communauté d'utilisateurs potentiels et que vous ne rencontrez pas les problèmes de stablilité que j'ai connus, vous y trouverez un intérêt certain.

vendredi, août 18

Du côté de chez Sun...

Jonathan Schwarz est non seulement le président de Sun mais aussi un des businessmen dont le blog est le plus lu outre-Atlantique. Alors quand M. Schwarz annonce "we're the dot in the web 2.0" (nous sommes le point du "web deux point zéro"), faut-il le croire ?

Regardons un peu la stratégie de Sun :
- côté matériel : une stratégie serveur web très intéressante avec les machines exploitant l'ingénieux processeur Niagara => moins de puissance, (beaucoup) plus de threads.

- côté OS : Solaris X semble connaître un certain succès aux dires de Schwarz... que vaut-il face à un linux ou un BSD (Windows Server étant un monde un peu à part pour le web) ? J'avoue ne pas le savoir, mon expérience en la matière s'étant limitée à une installation à l'arrache qui n'a pas tenu une semaine. Mais Sun peut compter sur quelques partenariats, le succès de ses Ultra-Sparc et sa license open-source pour lui assurer un destin honorable.

- côté Java : certes, JSP se fait grignoter par .NET dans le domaine des applications web, mais Java n'a toujours pas d'équivalent dans le domaines des devices portables. Java est désormais intégré dans de nombreux appareils (téléphones, accessoires automobiles, assistants personnels...) ce qui est un avantage décisif à l'heure où le logiciel se libère du PC.

- côté logiciels clients : pas grand chose. Open/StarOffice ne bouge pas beaucoup, les outils de développement (où Eclipse semble s'être imposé) basculent les uns après les autres vers l'open-source et rien de bien excitant n'est arrivé depuis longtemps sur ce plan (à moins que le bureau 3D "Looking Glass" ne soit un jour au point ?).

Ce petit tour d'horizon semble donc montrer que Sun est très fortement tourné vers le web 2.0 : des produits formatés pour permettre la poursuite de la montée en puissance des datacenters, un Java qui anticipe la fin de l'ère du PC, une culture résolument rajeunie et open-source, quelques petites innovations comme JMaki (intégration de widgets ajax par des tags dans les pages jsp)... et last but not least des liens très particuliers avec Google.

Difficile de dire ce qui unit précisément les 2 sociétés à l'heure actuelle, mais :
- Andy Bechtolsheim, un des fondateurs de Sun, est l'homme providentiel qui fit un chèque de 100000 $ à Page et Brin alors que Google n'avait même pas de compte en banque !
- Google est un membre actif du Java Community Process
- Google et Sun ont dit mener un "big deal" ensemble fin 2005 sans préciser de quoi il s'agissait vraiment.
- Sun joue la carte des serveurs économes en ressources électriques, à l'heure où Google cherche à diminuer des coûts en énergies.
- Google joue la carte Java+Ajax avec le Google Web Toolkit à l'heure où Sun annonce que le temps du PC est terminé.

Sun a donc les cartes en main pour devenir le "dot in web 2.0" mais à ce jour, rien n'est encore fait.

mercredi, août 9

La chute de la maison Microsoft (featuring web 2.0)

Pour commencer, soyons clairs, je n'ai rien en paticulier contre Microsoft. Je crois même qu'on doit beaucoup à cette société : l'informatique a prospéré comme jamais sous sa domination et je ne suis pas sûr du tout que c'eût été la même chose dans une configuration différente... je conçois qu'on puisse avoir une opinion différente mais ce n'est pas là le débat que je veux faire (re)naître ici.

Je suis loin d'être le premier à annoncer les difficultés en cours et à venir pour Microsoft. Tim O'Reilly l'annonce dans what is web 2.0 et Jean-Louis Gassée (ancien de chez Apple et à l'origine de l'aventure BeOS) avance une théorie : Microsoft mat en trois coups.

Regardons-y d'un peu plus près : toute la force de Microsoft se trouve dans sa maîtrise absolue du desktop. Il a toujours écrasé ses concurrents successifs sur le marché (IBM, Apple, Sun, Linux...) et aujourd'hui encore personne ne semble vraiment en mesure de rivaliser. Or, dans les années 80-90 (les années PC), tout se jouait sur le desktop. Qui contrôle le desktop, contrôle les API pour les applications qui s'y implantent. Qui contrôle le desktop est indispensable et peut imposer aux fabriquants de PC d'être le système préinstallé avec lequel il faut être, quoi qu'il arrive, compatible.

La théorie d'O'Reilly et de Gassée (et certainement de bien d'autres) est qu'avec un champ de bataille déplacé sur le web, c'est à dire hors du desktop, Microsoft sera du coup privé de toutes ses armes habituelles : intégration à l'OS de ses propres outils, accords avec les fabriquants, seule plate-forme compatible avec des outils critiques pour l'entreprise ou le particulier.

Le desktop se déplace-t-il donc à ce point vers le web ?
Quelques réserves sont encore là :
- malgré Ajax, Flash et Java, une application web donnée a, la plupart du temps, encore un peu de retard sur son équivalent client en terme d'ergonomie : c'est souvent plus lent et tous les contrôles intuitifs (double-click, menu contextuel, glissé-déplacé) de l'application classique (même si tous sont théoriquement possibles) ne sont généralement pas présents.
- la 3D est encore très anecodotique sur le web, et exclut de fait beaucoup d'applications de cet univers (en particulier, les jeux).
- nombre de développeurs et de décideurs n'ont pas la culture web et pensent encore trop systématiquement application cliente face à un problème donné.
- nous sommes loin d'être connectés en permanence dans de bonnes conditions au web et beaucoup sont encore tout simplement encore exclus du réseau des réseaux.

Si le déplacement vers le web a donc bien lieu, rien ne dit qu'il sera total ou même suffisant pour retirer au desktop son caractère hautement stratégique. Mais quoi qu'il arrive, nous vivons et allons encore vivre une période dans laquelle l'intégration desktop-webtop sera décisive : le webtop arrive mais le desktop n'est pas mort... ils doivent donc se parler avec des outils tels que Google desktop !

Il est donc vrai que Microsoft n'est pas dans la meilleure dynamique aujourd'hui mais le desktop étant encore là pour quelques années, le géant de Redmond et ses milliards de dollars de trésorerie ont encore largement le temps de revenir dans la course : soit en adoptant une culture web plus tournée vers le web, ou beaucoup plus probablement en donnant de nouvelles armes au desktop (avec par exemple Windows Presentation Foundation).

vendredi, août 4

Reflexions sur l'actualité en ligne (2)

Je poursuis les quelques idées que j'ai lancées dans mon précédent post. Pour bien comprendre celui-ci, je crois qu'il me faut d'abord préciser les objectifs que je fixerais, en tant que lecteur, au site d'actualités du futur.

Il me semble tout d'abord que le journalisme moderne doive éviter quelques écueils dans lesquels il tombe assez souvent.

- l'ethnocentrisme exacerbé : les informations sont triées et traitées sous le seul le prisme des références culturelles de son public. Si la culture du public est bien sûr un facteur à prendre en compte pour capter son adhésion, l'information dans sa diversité et les analyses dans leur pertinence sont affaiblies lorsque sont oubliés les points de vue culturellement extrêmement divers de notre village mondial.

- le suivisme : phénomène particulièrement bien décrit par Daniel Schneiderman dans "le cauchemar médiatique". Il est une famille de journalistes qui semblent sans cesse se marquer à la culotte : "je dois parler de ce sujet parce que ça intéresse les gens. Pourquoi ça les intéresse ? Parce que mon confrère en a parlé !". De ce fait, on assiste au double phénomène "emballement/omerta" médiatique : certains sujets sont injustement surreprésentés tandis que d'autres sont purement et simplement passés sous silence (jusqu'à ce qu'ils ressortent de façon soudaine).

- le clientèlisme : qui consiste à suivre le public plutôt qu'à le guider dans l'univers de l'information. C'est une dérive commerciale aussi dangereuse que naturelle et il faut une identité très forte pour s'en détacher.

- le monocordisme : un phénomène bien connu des JT où toutes les informations se mettent à avoir la même saveur, celle de la dépêche prémachée. Pas de reformulation, pas de prise de recul, pas de mise en perspective... et le lecteur en vient à ne plus s'intéresser qu'aux pages sport, seules à tenter d'avoir un ton différent.

- la prime à la dernière dépêche : la fraîcheur de l'information prend un poids disproportioné dans l'importance du traitement de celle-ci... mais le public n'a ni de rappel des épisodes précédents ni l'ébauche d'une analyse qui lui permettrait de comprendre l'information présentée. On aboutit à des contenus incompréhensibles : personne de mon entourage proche n'est capable de me dire ce qui se passe vraiment au Darfour... mais tous savent qu'on en parle de temps en temps !

- le trop-plein : comme on traite tout très vite, on peut traiter beaucoup, au risque de devenir indigeste. Le raisonnement menant à ce défaut étant "En évitant d'être trop sélectif, on multiplie les chances d'avoir un sujet qui capte l'attention".

Conclusion...
le vrai bon site d'actu (si le web, fut-il 2.0, voulait donner l'exemple) serait donc d'après moi :

- sélectif : il ferait de vrais choix éditoriaux pour ses lecteurs (qui pourraient malgré tout peser dans les choix en question afin de modérer le pouvoir de l'équipe éditoriale)... les robots et le moteur de recherche permettant quant à eux de répondre aux lecteurs en attente d'une information précise.

- pédagogique : il ordonnancerait et relierait les informations utiles à la compréhension d'un sujet donné (ça semble être la moindre des choses dans un système hypertexte !). On peut aussi imaginer un espace permettant de poser des questions aux journalistes afin d'établir des sortes de FAQ sur les différents points de l'actualité.

- attrayant dans sa forme : le paysage est tellement uniforme qu'un peu d'imagination dans la présentation et quelques efforts dans le style (c'est à dire mieux que la paraphrase d'agence de presse) suffiraient à sortir les lecteurs de leur torpeur.

- long-termiste : il renoncerait aux petits profits du scoop pour prendre le temps de devenir un prescripteur d'information de confiance.

- large d'esprit : afin de confronter les analyses, les opinions politiques, les approches culturelles sans a priori.


Alors, facile ?

mercredi, août 2

Google News, Wikio, Digg-like, Yahoo news : réflexions sur l'actualité en ligne

Je suis personnellement friand d'actualité et perpétuellement insatisfait de l'offre qui m'en est faite. Pourtant, le sujet est actuellement en pleine mutation : certains modèles apparaissent tandis que d'autres semblent promis à l'extinction.
C'est évidemment en ligne que les possibilités sont les plus grandes et la déferlante web 2.0 a encore un peu accéléré les choses de ce côté.

Ces modèles, quels sont-ils ?
- le modèle "Yahoo News" : les informations sont classées par Yahoo! qui opère donc un véritable travail éditorial sur le travail des agences de presse. C'est le site de news le plus populaire aux Etats-Unis. Pas d'intéraction avec les lecteurs ni de flux RSS.

- le modèle "lemonde.fr" : ici, on est dans le domaine du journalisme classique avec un travail éditorial à la fois de classement mais aussi d'analyse sur les sujets traités. Les approfondissements sont d'ailleurs en général payants. Les lecteurs peuvent réagir et débattre sur les articles.

- le modèle "Google News" : les actualités sont automatiquement agrégés à partir de 500 sources de référence. Aucun travail éditorial, juste des robots. Pas d'intéraction avec les utilisateurs non plus. La recherche s'avère très efficace.

- le modèle "Digg" : les actualités sont soumises et votées par des utilisateurs du service. Ce qui fait la pertinence d'une information, c'est sa popularité. Le débat sur le sujet soumis est présent et encouragé.

- le modèle "Wikio" : à la manière de Google News, Wikio agrège automatiquement 10000 sources, donc là non plus, pas de travail éditorial. A la manière des Digg-like, il prend en compte les votes des utilisateurs (mais pas seulement) pour décider de la pertinence d'un article. Là aussi, la recherche d'actualités sur un thème précis s'avère assez efficace.

D'après moi, aucun modèle ne se dégage pour le moment en terme de qualité. Un bon site d'actualité devrait selon moi combiner :
- une vraie ligne éditoriale, pour mettre l'information en perspective, trouver des angles, des analyses pertinentes sur l'actualité... sinon celle-ci n'est qu'un chaos de news toutes plus ou moins issues de l'AFP, AP et Reuters.
Cela passe donc par des choix dans la disposition spatiale et temporelle de l'information, la mise en valeur d'analyses équilibrées finement choisies et un classement humain de l'information.
- une certaine intéraction avec les utilisateurs : l'intelligence collective doit permettre de faire émerger des articles, des analyses hors des poids lourds habituels de l'information. Faire émerger le débat est aussi un bon point.
- un bon système de recherche ainsi qu'une syndication de contenu, éventuellement par thème, sont de bons atouts mais ne sont pas à ce jour essentiels.

Pour moi tout l'enjeu du site d'actualité moderne est de faire la synthèse entre l'approche "top-down" des sites façon Yahoo! ou lemonde.fr, l'approche "bottom-up" des Digg-like et l'approche robotisée de Google et Wikio. Cela pourrait se passer de la manière suivante :
- les robots ramènent les news et les classent de manière sémantique
- les utilisateurs taguent, annotent, votent, commentent... ajoutent de la richesse (et sont éventuellement rétribués pour ça) aux news et aux analyses qui y sont liées.
- une équipe éditoriale organise sa "une" et les analyses liées aux principaux articles en fonction de tout cela.

Bon, je suis en train de me rendre compte que tout cela coûterait assez cher ce qui serait sûrement difficile à rentabiliser sur un nouveau projet. Mais pour un acteur du marché déjà présent, ça semble jouable... non ?