Deeder.fr

Tribulations d'un geek...

Aller au contenu | Aller au menu | Aller à la recherche

13 avril 2009

Classification de l'information : doit-on ranger les torchons avec les serviettes ?

L’une des plus grandes problématiques du Web reste et restera toujours la méthodologie d’accès à l’information. Mouvante ou statique, périssable ou pérenne, concernant tel sujet ou tel autre, adressée à un public averti ou non, l’information comporte aujourd’hui plusieurs visages qui correspondent chacun à un besoin utilisateur différent. Le gros problème est donc de déterminer le besoin exprimé au travers d’une requête utilisateur et d’y répondre au mieux et, croyez moi, ce n’est pas si simple que ça en a l’air.

Tout d’abord, traçons une rapide rétrospective des méthodes de diffusion de l’information au fil de l’expansion du Web. Alors que les pages Web ne se comptaient alors que par dizaines, voire par centaines, l’annuaire de sites s’est imposé comme une méthode efficace. Mais la masse d’informations mises en ligne devint rapidement critique; il a alors fallu trouver une méthode plus simple à la fois d’agrégation mais également de distribution concernant ces pages : dans ce créneau, le moteur de recherche est devenu roi (demandez à Google si vous ne me croyez pas).

Ce mode d’agrégation est toujours sur son trône car il permet facilement de répondre à des questions simples et à répondre à la majorité des besoins primaires. Cependant, l’information mise en ligne a évolué, principalement avec l’apparition des blogs et ainsi que des média traditionnels qui ont rapidement compris que quelque chose se passait sur le net, média du passé (grâce à l’archivage) aussi bien que de l’instantané. Un nouveau type d’information, périssable cette fois, a fait son entrée sur la toile et a été archivée de la même manière que l’information classique, elle même impérissable (l’"impérissabilité" des données sur le Web étant toute relative et s’élevant à quelques années tout au plus).

On peut aisément comprendre que ce genre de classification commune à deux types d’informations bien différentes leur est préjudiciable ou du moins nie à leur accès qui n’en est rendu que plus délicat par l’amalgame créé de la présentation de résultats correspondant à une recherche précise. Quelques initiatives ont bien tenté (sans réel succès[1]) de mettre en valeur le contenu à dit "périssable" : je pense aux Digg-like ou encore Wikio, mais le contenu reste trop diffus et assez peu exhaustif ou représentatif du contenu du Web (car très segmentants). Les flux RSS ont eux même tenté de palier à cette carence, mais les agrégateurs actuels ont eux aussi leurs limites (duplication de contenu, organisation et filtrage limités de l’information, etc.)

Aucune des solutions offertes à ce jour n’est réellement concluante pour juger de la pertinence de l’information par rapport à un besoin, de sa fraicheur et de sa viralité, car n’oublions pas que le caractère viral d’une information est représentatif de son intérêt potentiel pour une personne effectuant une requête qui lui serait associée. Tout ceci me mène à conclure qu’il y a encore beaucoup de chemin à effectuer avant d’obtenir une solution viable et efficace dans ce domaine. Séparer les torchons et les serviettes est facile mais déterminer si l’on vous demande l’un ou l’autre lorsque l’on ne fait que vous décrire les motifs qu’il comporte est bien plus compliqué. Mais avec un peu de méthode et d’idées, je pense que l’on peut faire beaucoup mieux, et ce dès aujourd’hui. ;-)

A lire également sur ce sujet : Je viens de voir ton blog… Il a pris un sacré coup de vieux !

Notes

[1] La notion de succès est toute relative, mais je parle là d’une offre grand public que la masse aurait adoptée de manière unanime ou presque, à l’instar du moteur de recherche pour l’information plus "classique".

2 septembre 2008

Google lance un pavé chromé dans la marre...

C'est désormais officiel, Google a dans ses bagages un navigateur répondant au métallique nom de Chrome. Véritable pavé dans la marre, la critique se jette sur ce sujet en cette période de rentrée tant et si bien qu'il est quasiment impossible d'ignorer l'affaire. Acclamé, rejeté, critiqué, les accueils réservés à ce nouveau logiciel sont variés et parfois même surprenants. Attachons-nous à la couverture de la sortie de ce navigateur plutôt qu'à un simple résumé de ses fonctionnalités qui sont nombreux à fleurir sur le Web.

C'est David qui fut le premier à crier au loup : le Big Brother est dans la place. Daniel Glazman le dit d'ailleurs lui même : entre vos recherches, vos mails, vos documents, et maintenant vos visites, Google sait tout ou presque sur votre vie. Mais ce dernier voit plus loin puisque selon lui, il s'agit là d'une nouvelle alternative de navigation respectueuse des standards du Web. C'est également une victoire pour le moteur de rendu WebKit dont la popularité ne peut qu'augmenter.

Tristan Nitot, de son côté, rappelle que la concurrence n'est pas néfaste et que cela ne met en aucun cas en danger les relations entre Google et Mozilla puisque leur contrat financier a été récemment reconduit pour une durée de trois ans. Ce qui pousse essentiellement Google à sortir son propre navigateur sont, selon Henri Labarre, des arguments principalement marketing : du contrôle de l'affichage de ses publicités AdSense jusqu'à l'intégration de ses nombreux services (Gmail, Google Reader, Google Docs et autres).

La mise en danger de Internet Explorer semble être la motivation majeure de Google selon le directeur de Mozilla Europe, tandis que pour Techcrunch, il s'agirait d'une porte grande ouverte vers un éventuel WebOS, grâce à l'intégration des services Google dans le logiciel. Difficile donc d'identifier les réelles causes et motivations de la sortie de Chrome parmi tout ce tapage médiatique (même les chaînes de télévision s'y mettent !).

A mon avis, Google a là une énorme carte à jouer sur ce créneau. En effet, la firme tend toujours à élargir le panel de services offerts gracieusement aux internautes et il ne leur manquait à ce jour que le contrôle du navigateur. Un partenariat avec Firefox aux parts de marché de plus en plus importante n'était pas satisfaisant pour un tel acteur, d'où la nécessité d'aller plus loin. L'innovation de la marque permet de donner de réelles raisons à l'utilisateur d'installer son navigateur tandis que le drapeau de l'Open Source qu'elle brandit, lui permet de défendre le moto "Don't be evil" qui est le sien en se soustrayant à quelques accusations monopolistiques.

Bref, un marketing bien rôdé, un produit abouti et un buzz sans précédent. De quoi faire remonter l'action de Google qui avait baissé alors même que la croissance de la société était au beau fixe.

17 avril 2008

La sécurité n'est pas le point fort de Flash

Dans la lignée de mon précédent article sur les dangers d'un Web propriétaire, un article a été publié sur le blog de Matasano à propos des failles de sécurité inhérentes à la technologie Flash présente sur la grande majorité des plate-formes. Ainsi n'importe quel ordinateur devient la cible potentielle d'une attaque tandis Adobe se voit frappée d'incapacité à combler toutes ces failles sur toutes les plate-formes couvertes par cette technologie. Je vous livre ci-dessous la traduction d'un extrait de ce billet par Tristan Nitot[1] :

Les failles (de sécurité) dans Flash sont des catastrophes. En 2008, on a de nombreux navigateurs différents. Nous avons différentes versions des systèmes d'exploitation et nous avons des utilisateurs de Mac. Mais il n'y a qu'un seul fournisseur pour Flash, et tout le monde a Flash installé sur sa machine. Pourquoi faut-il s'intéresser aux trous de sécurité dans Flash ? Parce que le monde réel, n'importe quelle attaque de ce genre permet à son auteur de prendre contrôle d'une vaste majorité d'ordinateurs.

L'ouverture du Web n'est pas qu'une simple utopie ou qu'un simple idéal vers lequel nous devons tendre; il s'agit d'un combat de tous les jours dont tous les utilisateurs sont bénéficiaires, parfois sans même en être conscients. De grandes problématiques sont soulevées par ce sujet dont l'accessibilité qui est malheureusement souvent perçue à tort comme utile à une portion marginale d'internautes. La sécurité en est une autre qui, cette fois-ci parle beaucoup plus aux internautes lambda bien souvent sensibilisés à cette question car cela fait des années que l'on leur parle d'antivirus, de pare-feu, ou que sais-je encore. S'il faut en passer par là pour faire comprendre les enjeux d'un Web ouvert et standardisé, soit, nous le ferons.

Notes

[1] Au fait Tristan, sur la nouvelle version du Standblog, il n'est fait nulle part mention de tes choix en matière de republication du contenu dont tu es l'auteur... Tu es toujours sous licence Creative Commons BY-NC-SA ?

25 décembre 2007

Le Web mobile reste encore à inventer

Oui, vous avez bien lu. Et je pense que vous serez d'accord avec ce titre si vous avez un tant soit peu tenté de naviguer sur le Web avec un périphérique mobile (téléphone, pda ou même console de poche). L'expérience utilisateur est bien souvent horrible, et à ce jour, il n'est aucun service qui soit réellement facilement accessible et utilisable via le Web mobile. Pourquoi cela ? Tentons ensemble de décrypter le phénomène mobile, ses caractéristiques, ses erreurs et ses possibles évolutions...

Utilisation nomade du Web mobile

Périphériques mobiles et particularismes

Un périphérique mobile n'est pas un ordinateur, loin de là. Il comporte des particularités que les développeurs d'applications en ligne doivent prendre en compte. Posons le décors :

  • Taille réduite et variable de l'écran (qui empêche l'affichage d'éléments disproportionnés)
  • Forfaits Data limités (obligeant à réduire le poids des fichiers à son minimum pour éviter de faire en sorte d'épuiser le quota de données transférées du visiteur en un chargement de page)
  • Dispositifs d'entrée de données variés (claviers physiques ou virtuelles, touches numériques à multiples pressions (type téléphone mobile classique), etc : toutes les configurations sont à envisager)
  • Absence d'alternatives logicielles faciles à installer (il reste difficile d'installer voir impossible un logiciel annexe sur des plateformes mobiles propriétaires)
  • Gestion simplifiée ou inexistante des éléments multimédia (Flash, vidéos embarquées, fichiers audio liés...)

Ces particularismes sont (entres autres) les principaux points à prendre en considération lors de la conception d'une application Web mobile. Malheureusement, il est rare de voir que chacun de ces points est méticuleusement analysé et solutionné.

Le Web mobile pensé (à tort) comme le Web 0.1

Le Web mobile a très peu d'ancienneté et cela saute aux yeux en observant ce qu'est un site Web "optimisé pour un usage mobile" de nos jours : une simple liste de liens au design horripilant. Des liens bleus sur fond blanc, le Web dans son plus simple appareil d'outil d'exploitation du protocole hypertexte. Cela ne vous rappelle rien ? Mais si, souvenez vous... revenez dix ans en arrière. Vous voyez ces pages blanches, ces listes de liens d'un bleu si populaire, le modem 56k qui grince pour se connecté tandis que votre ligne téléphonique sera mise KO pendant quelques heures...

Oui, le Web mobile est une régression du Web populaire, une sorte de retour en arrière qui permet de s'affranchir de nombre de caractéristiques communes aux prémices de la Toile et de son homologue mobile, à savoir les débits limités, les quotas de poids de données échangées, etc. Pour répondre à des problématiques connues, autant utiliser des techniques elles aussi bien connues. Seulement, les mobiles, bien qu'ayant ces caractéristiques communes avec la préhistoire de l'Internet, en ont bien d'autres qui ont malheureusement été plus ou moins négligées par les créateurs de services.

Ainsi, peu de téléphones mobiles peuvent à se jour se targuer d'avoir une résolution VGA comme cela a pû être le cas à l'époque de la genèse du Web dans le cas des ordinateurs. Aucune comparaison n'est également possible en ce qui concerne les tailles d'écran et les dispositifs d'entrée des données. Essayez de lire un texte entier sur un écran minuscule de téléphone, de compléter les champs de formulaires de cinq sites web d'affilée ou encore de poster un commentaires en le composant sur un clavier classique de périphérique mobile à 12 touches : cela peut vite se révéler être un formidable calvaire pour l'utilisateur.

Le Web mobile est pensé comme le Web à ses débuts par analogie de certaines problématiques rencontrées, ce qui est une grossière erreur puisque l'expérience utilisateur pour une utilisation nomade est totalement différente d'une expérience "sédentaire" (c'est à dire devant son bureau, son clavier, sa souris et son écran 17 pouces). Confondre les deux serait une grossière erreur pourtant très (trop) répandue.

De l'adaptation à l'innovation

L'adaptation du Web classique pour les périphériques mobiles ne sera jamais un bon choix puisque cela ne permettra pas de s'affranchir de contraintes nécessaires à sa mise en place et impossibles à satisfaire dans un environnement nomade. Le résultat issu d'une telle adaptation ne pourra jamais satisfaire pleinement aux besoin des consommateurs. Si aucune solution n'existe alors, il faudra en réinventer une, d'un nouveau genre, satisfaisant aux besoins nouveaux d'une population en pleine évolution et à l'apparition de nouveaux usages.

L'innovation recherchée n'est pas totale puisque la technologie de transfert et de traitement des données existe déjà et est relativement satisfaisante pour que l'on puisse s'en contenter. Par contre, la mise en place d'une nouvelle expérience utilisateur est primordiale, dans le but de populariser l'usage du Web mobile comme cela a pu être le cas pour le Web "sédentaire". Pour cela, il faut s'affranchir des contraintes actuelles qui sont :

  • La base logicielle : un navigateur calqué sur un mode de fonctionnement typique à l'ordinateur n'a plus sa place en tant que tel dans un environnement mobile;
  • La mise en page : en dépit du poids des éléments graphique, l'utilisation des CSS permettrait d'oublier totalement ou du moins partiellement la mise en page austère actuelle des sites destinés à une cible mobile qui nous fait nous remémorer des temps lointains et moyenâgeux;
  • Les formulaires : relativement pratiques lorsque l'on possède un clavier azerty, ils deviennent rapidement un calvaire lors de l'utilisation de toute autre forme de dispositif d'entrée;
  • Le scroll : épreuvé pénible bien que de mieux en mieux gérée par les dispositifs à écran tactile;
  • La disposition de l'information : le format texte est peu adapté aux petits écran, reste à jouer un maximum sur l'information visuelle (icones, images, animations, etc...) pour associer rapidité de l'accès à l'information et confort d'utilisation;
  • Et bien d'autres !

Conclusion

Si l'expérience utilisateur n'est actuellement pas satisfaisante en ce qui concerne le Web mobile, c'est parce qu'il reste encore à inventer. En effet, une pâle copie du Web classique n'apportera que des contraintes supplémentaires dont il est difficile voire impossible de s'affranchir, d'où la nécessité de s'affranchir simplement de cette vision du Web mobile elle même ! Seule l'innovation est capable de nous mener vers un outil qui pourra espérer devenir par la suite populaire et se transformer en marché économique. Seulement, il reste à trouver l'idée, celle là même qui, en alliant pragmatisme, esthétisme et pertinence, saura renverser les moeurs et apporter un nouveau souffle à la navigation nomade. Celui qui réussira à imposer sa vision du Web mobile décrochera le jackpot, je peux vous l'assurer. Créatives, créatifs : à vos calepins ! ;-)

21 août 2007

Quid du futur de la vidéo en ligne ?

Aujourd'hui, le marché de la vidéo en ligne est en pleine effervescence et se partage en de nombreux secteurs diversifiés. Pour autant, de nombreux problèmes se posent et aucun business model n'arrive à se frayer véritablement de place sur ce marché. Au delà des faibles bénéfices générés, des problèmes de copyright et même désormais des problèmes d'infrastructures, ce sont les usages qu'il reste à faire évoluer vers une forme plus mature que ce qu'elle peut être aujourd'hui. Ensemble établissons un compte rendu de la vidéo sur Internet dans son ensemble pour tenter de dessiner sa silhouette de demain.

Vidéo

De la technologie aux usages...

L'insertion d'une vidéo aujourd'hui ne s'effectue que très rarement sans Flash, technologie propriétaire de streaming qui pose la problématique de l'intéropérabilité, le plugin Flash d'Adobe étant nécessaire à la lecture d'une vidéo et posant des problèmes de compatibilité sur certaines plateformes. Sa mise en place dans une page Web ne peut se faire sans l'insertion d'une portion de code (x)HTML généralement fournie par les sites de publication de vidéos la plupart du temps peu soucieux du respect des standards du Web.

Ensuite, les capacités de nos lignes téléphoniques ainsi que de nos infrastructures réseau limitent les données transférées, parfois même de manière drastique en fonction de notre géolocalisation (je vous rappelle que tout le monde n'est pas encore passé à l'ADSL). Cela contraint la publication de vidéos à des vidéos de petite taille et de piètre qualité, la compression des données étant obligatoire pour les débits asymétriques dont nous disposons.

Ces problèmes d'infrastructures conditionnent les usages que nous faisons de la vidéo sur Internet : courtes durées, qualité décevante, il ne nous est possible de visionner que quelques minutes de programmes courts. Ainsi, dans le but de fidéliser le client, les plateformes sont obligées d'agréger de nombreux contenus potentiellement en rapport avec le contenu visionné afin de le proposer au visiteur initialement de passage. Il est impensable de regarder des programmes longs auxquels des problèmes de copyright viennent s'ajouter à ceux déjà posés par les infrastructures.

Des tentatives de réponses aux besoins naissants

L'homme aime par nature s'inventer régulièrement de nouveaux besoins et aujourd'hui ces besoins viennent directement des frustrations que lui apporte la télévision qu'il regarde depuis si longtemps déjà. La vidéo en ligne n'est pour l'instant qu'une ébauche de ce que deviendra le remplaçant de cette TV si populaire. Regardons l'évolution de la télévision : tout a commencé en noir et blanc, puis est arrivée la couleur, la diversification des chaînes, l'arrivée du cable et de la télévision par satellite (offrant un bouquet de chaînes thématiques, du contenu payant ainsi qu'une bien meilleure qualité), des VHS puis des DVD pour enfin arriver aux platines d'enregistrement ou de lecture en différé du contenu.

Maintenant, regardez ce que la vidéo par Internet offre : des contenus encore plus diversifiés classés par thématiques (le plus souvent sous la forme de "chaînes"), la possibilité de téléchargement et de stockage de l'oeuvre visionnée (ou non) et la lecture au moment voulu du contenu. A part les problématiques de durée du contenu et de qualité, tous les atouts de la télévision ont peu à peu été intégrés à la vidéo en ligne, voire même parfois plus : l'abonnement à un contenu ciblé via RSS pour ne pas louper d'émission, la possibilité de réaction/interaction avec les éditeurs du contenu, l'association de contenu par thématique après visionnage et même pendant le visionnage pour pouvoir zapper à tout moment si le contenu ne me plaît pas, etc.

La première étape d'évolution s'effectue donc au fur et à mesure de l'appropriation des techniques télévisuelles. Reste à régler le problème de la qualité du contenu, ce que Joost ou Babelgum essayent de faire via leurs plateformes respectives basées sur un système P2P (Peer to Peer). Malheureusement, malgré les différents contrats signés avec des éditeurs de contenus, les offres vidéos proposées par ces nouveaux "médias" ne sont pas assez convainquantes pour la cible visée. La qualité de la vidéo reste également très décevante et les innovations ne sont pas au rendez-vous, mis à part la présence de widgets sociaux lors de la lecture.

Pour tenter de régler ce problème de qualité de l'image, il y a bien une solution proposée, j'ai nommé Stage6, la plateforme de diffusion de contenu vidéo créée par DivX qui ont réussi à mettre au point un système de compression sans perte ou presque : la qualité est bluffante et la mise à disposition de contenu en qualité HD est très appréciable, sourtout pour un visionnage plein écran, mais là encore le problème réside dans la forme propriétaire de cette technologie d'une part, et dans les trop faibles infrastructures de raccordement au réseau dont nous disposons d'autre part.

La vidéo en ligne a-t-elle finalement un futur ?

Bien évidemment, rien n'est encore joué pour la vidéo en ligne qui n'en est qu'à ses débuts. Des logiciels comme Miro que je vous ai présenté il y a peu sont incroyables en cela qu'ils proposent une nouvelle expérience utilisateur évolutive en agrégeant le contenu vidéo désiré, en le stockant et le gérant comme jamais auparavant. Cela pose la première pierre d'une ère qui va donner tout son sens aux technologies Media Center qui fleurissent depuis quelques temps sur nos PC portables ou PC de salon en proposant du contenu disponible en local (parfois même en qualité HD) et en proposant sa diffusion/gestion sur un écran de télévision.

A côté de ça, je pense que les plateformes du type Joost n'apporteront pas grand chose au marché tant que les accords qu'ils ne signeront pas ne concerneront pas les produits chouchous des grandes chaînes de télévision telles les séries américaines ou les divertissements. Ils ne seront utiles que par l'argent qu'ils insuffleront dans le marché et par la mise en place des premiers accords de diffusion de contenu qualitatif sur le Web. Ce sera une sorte de transition après laquelle ils devront soit évoluer, soit savoir s'effacer lentement au profit d'usages différents.

Les problèmes de copyright étant réglés par les accords mentionnés ci-dessus qui existent déjà pour d'autres types de contenu vidéo actuellement disponibles en ligne, ce sera finalement la monétisation qui devra véritablement s'inventer un modèle viable. L'intrusion de publicité pré/post visualisation risque de s'imposer comme un standard pendant quelques temps, au moins le temps de trouver une solution plus adaptée à la philosophie du Web, puisqu'étant déjà utilisée massivement sur la télévision.

Finalement, le véritable frein à cette évolution restent finalement les infrastructures réseaux : le très haut débit (fibre ou cable) devrait à son tour débloquer la situation, permettant le transfert de données conséquentes à travers le réseau, le tout de manière symétrique pour permettre à la fois le téléchargement (download) et le téléversement (upload) des données vidéos pourquoi pas en HD. Restera aux ISP (Internet Service Providers ou Fournisseurs d'Accès Internet) de revoir leur business model pour s'adapter à ce nouveau type de transfert de données extrêmement coûteux en bande passante.

En attendant tous ces changements, la télévision n'est pas encore morte, loin de là et il lui reste même de beaux jours devant elle. Ces changements, tant soit peu qu'ils se fassent, ne se feront pas en un jour et la transition sera longue. D'ici là, d'autres évolutions peuvent avoir lieu, changeant totalement notre vision de la vidéo online, la première étant l'apparition de la balise <video> avec la nouvelle version du langage HTML d'ici 2010, ce qui devrait révolutionner l'insertion de la vidéo dans les pages Web en permettant de concurrencer Flash dans ce domaine.

La vidéo sur Internet de demain, vous la voyez comment vous ?

- page 1 de 3