Permet de créer des visualisations d'un ensemble de sortie de courses à pied (par exemple) sur la base des fichiers .gpx
.
Analyse de la fréquence d'utilisation des champs MARC dans des collections rendues publiques.
La majorité des champs ne sont utilisés que dans moins de 1 % des enregistrement. Ces champs ne justifient peut-être pas un effort de conversion ou d'export, qui au final coûte.
Le code ne constitue pour l'instant que le frontend. Mais ce projet est intéressant. Ils exportent les données de prêts, anonymisées au mieux, et le analysent, en font des visualisations assez intéressantes. Jusqu'ici, ils ont fait des exports depuis Koha, ont également un peu travaillé avec Aleph.
Un point intéressant, c'est que pour obtenir des statistiques réalistes, ils ont utilisé FRBR pour avoir des stats par oeuvre et pas selon une édition particulière...
Mais l'intérêt, pour eux, est d'exposer les données, au sens de les rendre publique. Voudraient aussi parvenir à produire une typologie de lecteur, en fonction des prêts, des consultations numériques, etc.
Our goal is to make the invisible visible. We are quite literally aiming to put logging roads, industrial agriculture, dams, and fracking on the map.
En utilisant les données d'OpenStreetMap, Map for Environment cherche à rendre visible la destruction des ressources naturelles : routes de déforestation, agriculture industrielle, barrages, fracking...
via mapbox : https://www.mapbox.com/blog/map-for-environment/
Un liste de ressources pour le "data journalisme".
Via : http://www.quaternum.net//2016/06/24/des-ressources-et-des-outils-pour-la-data
Tous les loyers, partout en Europe, en temps réel.
Un site permettant de faire de comparaison entre villes, entre quartiers de la même ville. Il est également possible de vérifier si l'appartement que l'on loue est cher ou pas, en moyenne européenne ou de votre ville.
Très intéressant. Un vrai service public. Ou presque.
Un plugin pour PluXml permettant de visualiser sous forme de graph (svg) des données tabulaires.
Catalogue de graph réalisables avec R.
Un tuto pour faire un wordcloud avec R
Edit : le package tm a changé donc on obtient une erreur, voir http://stackoverflow.com/questions/24191728/documenttermmatrix-error-on-corpus-argument
La solution est de remplacer corpus <- tm_map(corpus, tolower) par corpus <- tm_map(corpus, content_transformer(tolower))
Un plugin à ajouter à Zotero pour visualiser le contenu de ses collections bibliographiques : wordcloud, n-grams, graphs sur la base de dbpedia, etc.
De la doc sur R, avec notamment des sections par langues.
Un service Web, que l'on peut auto-héberger, pour réaliser des visualisations de données.
via un shaarlieur
Le github : https://github.com/datawrapper/datawrapper où l'on trouve des instructions d'installation en anglais
Carte interactive des réfugiés dans le monde, depuis 1975, sur la base des statistiques de l'ONU.
Carte mondiale des interceptions potentielles par la NSA et ses filiales européennes.
Une visualisation fort bien réalisée des subventions de la Ville de Genève. En ces temps d'austérité toute idéologique, un tel outil est tout à fait pertinent.