Je viens de voir ton blog... Il a pris un sacré coup de vieux !
L'idée a surgit hier soir, et c'est finalement Bruno Bichet qui m'aura poussé à bloguer sur la question. Alors qu'un site Web peut rester intemporel s'il s'agit d'un site vitrine par exemple, il peut également être mouvant, au gré de l'actualité ou des découvertes. Généralement, pour les sites classiques, tout cela est bien statué : entre sites d'information et sites informatifs, la différence est claire et se voit du premier coup d'oeil. Cependant, alors que les blogs effectuent bien souvent le mélange des genres, les rides finissent-elles par apparaître un jour où l'autre sur notre média de prédilection ?
Le contenu d'un blog est mixte : informatif et donc parfois intemporel, il vieillit cependant plus vite lorsqu'il traite de l'actualité ou d'un secteur en constante évolution. L'archivage du contenu perd alors de son intérêt puisque l'information trouvée peut alors être totalement dépassée. De même, un point de vue exprimé à une date donnée peut facilement évoluer avec les années et la sagesse prétendument acquise au cours de celles-ci et ne plus refléter les pensées actuelles de l'auteur. Dans ce cas, oui, votre blog vieillit et il peut parfois très mal vieillir. Limiter l'accès aux archives trop anciennes seraient alors une solution.
Oui mais voilà, tout n'est pas si simple ! Parce qu'à priori si le blog est mis en page de manière à mettre en avant le contenu le plus récent, il existe certains articles qui restent pour le moins intemporels : des écrits, des photos, des explications techniques, bref, autant de contenus qui peuvent passer un, deux, cinq ans sans prendre la moindre ride. Et ceux-ci peuvent se à d'autres billet qui ont eux subit les outrages du temps. Vous imaginez déjà plus la saveur de ce cocktail détonnant...
Nous sommes donc en droit de nous demander si la méthode de référencement des données stockées sur le Web par certains moteurs de recherches, Google en tête, qui tend à valoriser le contenu récent, est réellement la bonne. Certes certains contenus anciens ne sont plus pertinents, peut-être d'ailleurs sont-ils une majorité, mais certains le restent et il serait dommage de les reléguer au second plan.
Alors faudrait-il inventer une nouvelle méthode d'archivage du contenu permettant de dissocier plus facilement le contenu périssable de l'immuable ? Faut-il garder notre tambouille intacte et garder le plaisir de découvrir certaines perles lors d'expéditions spéléologiques au fin fond de nos archives ? Ne doit-on conserver que le contenu récent, au risque de se passer d'une quantité non négligeable de sources d'information bien utiles ? La question reste entière : à toi, lecteur d'en débattre. Si la première solution reste à mes yeux la meilleure, tout ceci reste encore à inventer, alors avis aux amateurs !
Commentaires
Salut,
C'est intéressant de voir dans les directions différentes que peuvent prendre une discussion selon les sensibilités : ici, ou la discussion qui a lieu sur mon blog à propos de cet article
Je ne suis pas convaincu que les méthodes d'archives doivent nécessairement changer, car si on dit que Google privilégie la fraicheur, ce n'est pas toujours le cas, et en fonction des requêtes, Google peut mettre des pages très anciennes dans les premiers résultats.
Il m'est effectivement arrivé de tomber sur des articles obsolètes après une recherche, donc la méthode d'archivage et d'indexation des pages par les moteurs de recherche doit bien être revue.
Mais la question qui se pose est comment remédier à ça ? Comment faire la différence entre un article intemporel et un autre qui deviendra dépassé dans quelques temps ? (du point de vue d'un robot bien sûr).
Même sans les données de Google Analytics, il est possible d'avoir une idée du taux de rebond sur un site donné :
- L'internaute lance une requête
- Google propose des résultats
- L'internaute choisi (google part du principe que l'être humain sait choisir parmi la liste qu'il propose) et clique sur le résultat de son choix,
- L'internaute arrive sur la page, et retourne sur la page de résultats au bout de 20 sec.
- Google (qui enregistre l'IP en même temps que le clic sur le résultat) en conclu que cette page ne correspond pas aux besoin de *cet* internaute.
- Si de nombreux internautes, pour des requêtes, similaires choisissent cette page, mais n'y restent pas, Google peut en conclure qu'elle ne devrait pas se trouver là...
C'est juste un scénario, mais je pense que Google a les moyens de faire encore mieux et plus précis
Bruno > Les méthodes d'archivage ne sont pas infaillibles : il suffit par exemple de regarder la pertinence de certains résultats qui est loin d'être excellente. Sur les recherches les plus fréquentes, cela ne fait aucun doute, les résultats sont généralement très bons, mais pour des recherches plus exotiques, il m'est déjà arrivé de devoir parcourir plusieurs pages de recherches ainsi que plusieurs articles pour arriver à mes fins. De même, certains articles très pertinents sont très mal référencés alors même qu'ils satisferaient de nombreuses recherches tant le contenu est pertinent pour une thématique donnée. Donc à mon avis, il reste encore pas mal de boulot à faire pour améliorer les méthodes d'indexation. Et comme tu le prouves dans ton second commentaire, Google a les moyens de le faire. Même s'ils font certainement beaucoup de choses que nous ignorons, ils peuvent à mon avis encore s'améliorer dans ce domaine.
B.Moncef > Là est toute la question, celle là même qui reste à mes yeux des plus épineuses.
Fil des commentaires de ce billet