Deeder.fr

Tribulations d'un geek...

Aller au contenu | Aller au menu | Aller à la recherche

Keyword - données

Fil des billets - Fil des commentaires

23 juin 2014

Les infographies cassent-elles le web ?

C'est devenu une nouvelle mode : maintenant, tout le monde partage des infographies ou dataviz pour "data-visualisation". Plus facile à appréhender et plus sexy qu'un long texte, quelques graphiques ou une mise en forme bien pensée d'une information pertinente peut servir à faire passer un message de manière plus pertinente et plus virale qu'un article bien conçu. Il serait dommage de se priver de ce moyen de communication.

stats.jpg

Cependant, l'avalanche de données qui circulent pendant quelques jours sur nos écrans finit inévitablement par se perdre au fin fond du web. Données non commentées ou périssables, images non référençables, il serait peut être temps de redonner un peu de sens aux infographies...

Lire la suite...

6 février 2014

Légiférons sur la collecte et l'utilisation des données personnelles

Big data, internet des objets, réseaux sociaux, cloud computing : nos données sont dématérialisées et parcourent les quatre coins du globe avant d'être stockée on ne sait où par on ne sait qui et d'être réutilisées on ne sait comment. Ça commence à faire beaucoup d'inconnues pour des données que l'on génère et qui nous appartiennent... en théorie ! Je dis bien en théorie car bien souvent, nous acceptons sans même les lire des conditions d'utilisation qui nous dépossèdent totalement de ses données à notre insu. Il est temps que cela change !

locks.jpg

Lire la suite...

10 avril 2010

OpenData : L'ouverture des données publiques au service de l'innovation

Ce post a été rédigé suite aux échanges ayant eu lieu lors de l’atelier sur l’ouverture des données publiques lors de la première édition du Barcamp Bordeaux.

L’ouverture des données est une notion à la fois claire et complexe. Claire dans le sens où l’on imagine bien le potentiel d’innovation que peut donner l’ouverture des données en l’assimilant à la dynamique générée par exemple par l’ouverture du code dans le domaine du logiciel libre, et complexe dans le sens où son côté novateur et abstrait, ainsi que son immense potentiel ne nous permettent difficilement d’imaginer ce à quoi cela va ou peut nous mener.

Pour expliquer sommairement le fonctionnement de l’ouverture des données, on peut prendre l’image d’un silo où serait stocké tout un ensemble de données accessibles, exploitables et modifiables par tout un chacun. Chacun peut à son tour croiser les données, les enrichir, en créer de nouvelles à partir d’existantes ou simplement les mettre à jour et les repartager à nouveau. C’est un partage démocratique des moyens et outils nécessaire à la création de nouvelles applications.

La première des questions que vous vous posez certainement doit être "A quoi ça sert" ? Pour donner des exemples concrets, on peut citer les sites iBordeaux ou iRennes qui sont la mise en forme de données libérées qui offrent un service de proximité d’utilité indéniable. Difficile également de parler de ce sujet en éludant OpenStreetMap, carte du monde modifiable de manière participative par n’importe quel internaute. Ajouté à la collecte des positions GPS de chaque personne par triangulation, on peut également mettre en place la mise à jour en temps réel et la cartographie des flux de déplacements et ainsi permettre de nous avertir de la présence de bouchons, etc.

On peut tout aussi facilement étendre le catalogue des possibles grâce à l’avènement du web mobile et de la réalité augmentée. La création d’un Street View-like alimentée par les photos utilisateurs, la cartographie des cépages et châteaux bordelais, la comparaison en temps réel des prix du carburant dans les différentes stations essence sont tout autant de possibilités qui peuvent s’offrir à nous si l’ensemble des données sont rendues publiques.

Cependant, de nombreuses questions restent encore non résolues :comment formater les données ainsi libérées ? Ou encore : comment garantir leur intégrité ? Car si n’importe qui peut accéder et modifier et créer de l’information, il est tout aussi simple d’insérer des informations erronées, ce qui dans le cas de données de travail peut se révéler embêtant. Pour éviter cela, on peut mettre en place un historique des modification des données sur le même principe que Wikipédia. L’autorégulation par la communauté ainsi que le recoupement des données permet également de limiter ce risque.

Une autre solution consisterait à faire coexister deux modèles de données : l’un ouvert à tous et modifiable par tous sans restriction et l’autre certifié par les collectivités, principalement pour les informations sensibles. Les modifications apportées à celles-ci ne seraient alors prises en compte qu’après approbation, assurant ainsi l’exactitude de celles-ci mais nuisant fortement à l’un des principaux intérêts des données libres qui est la fraicheur des informations partagées grâce à la réactivité de la communauté.

Certes, l’enthousiasme généré par l’ensemble des possibles offerts grâce à cette technique peut effrayer quelque peu : l’impression d’être fiché rend les gens très réfractaires à certaines applications. Attention toutefois à l’amalgame qui tenterait de mélanger données publiques et nominatives. Toutes les données publiques doivent être non-nominatives et l’état doit également statuer sur les différents types d’informations dites sensibles qui ne devrait pas faire l’objet d’une ouverture. Qui souhaiterait par exemple rendre public les casiers judiciaires afin qu’ils soient accessibles par tout le monde ?

La finalité est réellement de permettre à chacun d’utiliser des données d’utilité publique de manière à innover en créant de nouveaux services et usages gratuits comme payants (qui peuvent avoir de réels modèles économiques motivés par l’ajout de valeur par rapport aux données brutes) mais conçus par et pour la communauté donc répondant à des besoins réels et spécifiques. On peut également miser sur la mise à disposition de boites à outils libres exploitant ces données et d’API permettant d’utiliser plus facilement ces données et de faciliter le développement de services autour d’une problématique donnée.

Le mouvement de collecte et de partage des données détenues par les collectivités a d’ores et déjà commencé en particulier sur les ressources environnementales pour lesquelles une directive a rendu nécessaire cette collecte de manière à rester en conformité autour de la loi étatique. L’enjeu est désormais de rassembler, de libérer et de croiser les données détenues par les collectivités, les entreprises privées et les particuliers de manière à avoir un contenu le plus large possible, voire même si possible redondant pour permettre de vérifier la véracité des informations.

Qui sait ensuite ce que que ce mouvement d’ouverture nous réserve pour demain ? L’inventivité de l’homme n’a aucune limite; reste à lui fournir les moyens de réaliser ce qu’il a en tête et l’ouverture des données lui donne les moyens de concrétiser des idées qui peuvent au départ paraitre utopiques. A partir de cette conclusion, l’univers des possibles s’étend grandement et peut donner naissance à des applications que vous n’imaginez pas encore aujourd’hui mais qui demain vous paraitront indispensables…

Pour en savoir plus je vous conseille de faire un tour sur le site web de la FING.

11 septembre 2007

Optimisation de l'environnement logiciel et Web pour un travail offline à synchronisation ponctuelle.

Désolé d'avoir choisi un titre pompeux mais je n'ai trouvé aucun équivalent simplifié, l'inspiration me faisant défaut. La prépa obligeant, je n'ai à ce jour pas de connection internet la semaine, ce qui explique d'ailleurs la rareté des billets sur ce blog. Néanmoins, je dispose à l'internat de mon ordinateur portable que j'ai été obligé d'optimiser pour un travail principalement offline. Jusqu'à présent, j'étais quasiment quotidiennement relié au net et à l'information, d'où l'idée de réaménagement du poste de travail.

Premièrement, les principales applications dont je me servais chaque jour auparavant étaient mon agrégateur de flux RSS ainsi que mon webmail. J'ai été obligé de mettre en place une nouvelle solution pour gérer chacun de ces deux types de données :

  • Premièrement, j'ai abandonné Google Reader (que je trouve malgré tout plus ergonomique que Netvibes pour une quantité importante de flux) au profit du logiciel Liferea afin de disposer de mes flux hors ligne. Il existe une solution ditribuée par Google et actuellement en beta afin de disposer de Google reader offline, j'ai nommé Google Gear, mais je ne sais pour quelle raison, elle n'est pas opérationnelle sur ma distribution Linux.
  • En ce qui concerne les mails, je suis passé pour la première fois à Thunderbird, après avoir utilisé pendant plusieurs années Evolution et avoir switché depuis quelques mois sur le webmail de Gmail. L'avantage étant de pouvoir lireet écrire ses mails en différé, indépendamment de la disponibilité d'une connexion internet.

Malheureusement, à chacune de ces méthodes son inconvénient :

  • Liferea ne me permet pas de lire les vidéos, les images, ni les flux tronqués, ce qui représente une bonne partie de mes sources d'information. Je ne peux donc ainsi me baser que sur le titre pour sélectionner quelques flux que je prendrai le temps de lire pendant le week-end.
  • Les mails contenant des URLs passent à la trappe s'ils ne sont pas lus le week end pour quelque raison que ce soit. Les réponses n'ont pas intérêt à être urgentes, le délai moyen de réponse étant d'une semaine. Les images dans les mails HTML ne sont pas chargées si elles ne sont pas jointes au message. J'en passe et des meilleures.

Pour combler à ces quelques problèmes, j'utilise en complément mon smartphone, un SPV C600, pour lire mes mails la semaine et répondre aux plus urgents ainsi que pour twitter un minimum de temps à autre histoire de ne pas être non plus coupé du monde. Malgré tout, on peut s'apercevoir qu'il existe encore un frein d'utilisation des données mises en ligne dans certaines conditions.

En effet, les flux tronqués réduisent à néan l'utilité d'un agrégateur (donc s'il vous plait, publiez vos billets en entier sur votre flux RSS !) au même titre que les images et que les vidéos. Pour ce problème, il serait je pense aisé de concevoir un agrégateur qui, en passant en mode déconnecté, permettrait le téléchargement et le stockage temporaire des fichiers insérés dans les différentes entrées.

Pour les mails, un système équivalent peut-être envisageable même si je ne vois pas ici de solution réelle à la majorité des autres inconvénients apportés par ce genre de données. Le mieux restant à mon avis la mise en place de forfaits data adaptés aux connections GPRS ou 3G fréquentes via un terminal mobile ou un ordinateur portable. Cela, n'est actuellement pas disponible au grand public puisque trop onnéreux. On risque, je pense, de voir arriver des offres plus intéresantes à ce niveau dans le but d'exploiter entièrement le potentiel des nouveaux terminaux mobiles.

D'un autre côté, les solutions de syncronisation des données disponibles sur le Web et la mise à disposition de certaines applications indépendamment de la disponinilité d'une connexion Internet ne sont pas encore au point. Malgré certaines initiatives (Google Gears ou la fonctionnalité prochainement intégrée à Firefox 3), il reste encore beaucoup de chemin avant d'espérer attirer les postes des businessmen (généralement grands voyageurs) vers l'utilisation de solutions alternatives aux solutions logicielles.

PS : Ce billet a été publié via la fonction de programmation de la publication de Dotclear 2

29 mai 2007

Etes-vous prêts à donner vos données à n'importe qui ?

La grande question du jour, poussée par l'actualité fraiche, est la suivante : devrions-nous fournir nos données à Google ? Le fait est que la question s'étend en fait à un domaine et une problématique bien plus grande que celle là : devrions-nous expatrier nos données quelles qu'elles soient sur le Net ? Une réponse qui reste encore aujourd'hui en suspend pour beaucoup de raisons que nous allons essayer de parcourir plus en détail.

Logo Google

Pourquoi s'attaquer spécialement à Google ? Il est vrai que Google, par la qualité de ses services et par leur multiplicité, concentre un nombre très important de données de tous types. Google peut avoir vos données personnelles que sont votre nom et prénom, votre adresse, votre agenda, vos contacts et vos mails, vos photos et même vos documents et feuilles de calcul. Autant dire que Google à accès à toute votre vie privée, et c'est donc ce pourquoi cette société est souvent la cible de critiques et de méfiances.

Cependant, est-ce réellement mieux de confier votre identité à un prestataire dont vous ignorez tout, même s'il s'agit de simple fragments de votre vie sans aucune importance à vos yeux ? Le problème reste identique et reste centré sur le stockage et l'utilisation de vos données sur Internet indépendamment du prestataire de services auquel vous avez affaire. Il est aujourd'hui important de savoir ce que deviennent ces données que vous fournissez un peu partout.

D'où le besoin de savoir ce qu'il advient à vos données provient-il ? En tombant dans la paranoïa, on peut facilement imaginer des scénarii surprenants mais réalistes : facile de pouvoir récupérer les informations d'un utilisateur dans le but de mieux cibler l'offre à ses habitudes de vie et à ses goûts. Facile également de filer quelqu'un, de l'espionner, surtout quand la majorité de sa vie est contenue dans ses données. Facile aussi de revendre les données à des organismes de publicité dans le pub de se faire de l'argent facilement. Savoir ce qu'il advient des données est indispensable pour des questions de sécurité.

Mais rien n'empêche une utilisation des frauduleuse des données de toute façon, même après vérification par un organisme indépendant. Rien n'empêche non plus une base de donnée de comporter une faille par laquelle on peut récupérer des données non cryptées. Dans ce cas, le principal argument est la confiance. Vous me direz que c'est facile à écrire, mais plus difficile dans les faits : comment savoir si un service est digne de confiance ? Il n'y a actuellement aucune manière de vérifier si la confiance envers un service ou un autre est réellement justifiée.

Je ne peux pourtant pas nier que l'avenir passe par la décentralisation des données sur une plateforme de stockage non physique, ou du moins indirectement physique. Aujourd'hui déjà l'évolution de l'Internet tend vers ce sens, et ce n'est pas en soi une mauvaise chose puisque cela ouvre de nouvelles opportunités technologiques et comporte de nombreux avantages. Mais pour toutes les raisons sus-citées, on peut en conclure que le stockage physique local n'est pas encore mort.

Et vous, votre vie appartient-elle à vos prestataires de services ? Leur faites-vous confiance ?