Pour autant que la technologie peut nous distraire du journalisme grand format [long-form journalism], cependant, cela peut aussi constituer une porte d’entrée.
Cinq gars – Nate Weiner de Read It Later, Marco Arment de Instapaper, Max Linsky et Aaron Lammer de Longform.org, et Mark Armstrong de @LongReads – ont trouvé des moyens d’utiliser les outils du web pour raviver l’attention accordée au journalisme grand format, augmenter sa durée de vie et faciliter sa consommation et son partage pour les lecteurs.
Les outils qu’ils utilisent pour créer un environnement de lecture immersif, focalisé, sont les mêmes qui mettent au défi notre capacité à éviter les distractions au travail ou quand nous sortons avec des amis : applications mobiles, sites et Twitter.
Nate Weiner se décrit lui-même comme un “gars avec beaucoup de chose à lire mais pas beaucoup de temps”. Il sait ce que cela fait d’être pris dans une “énigme de connectivité” [conundrum of connectedness]: un schéma dans lequel vous êtes tellement submergé d’information que vous avez rarement le temps de faire une pause et de trouver du sens à tout cela.
Dans le passé, explique-t-il, il survolait les articles longs des magazines qu’il souhaitait lire, mais n’avait pas de bon moyen de les sauvegarder pour plus tard. Pour y remédier, il a créé Read It Later, un outil qui permet aux gens de sauvegarder les articles depuis leur ordinateur, smart phone ou iPad, et qui les rend disponibles à la lecture hors-connexion. L’outil, qui vient d’avoir trois ans, possède plus de trois millions d’utilisateurs.
Read It Later et différent des sites de social bookmarking comme Digg et Delicious, qui sont des outils qui sauvegardent, partagent et organisent les URL. Read It Later sauvegarde la page entière de l’article, ce qui le rend accessible quand vous n’êtes pas connecté et que vous avez du temps libre. Les utilisateurs qui souhaitent une expérience moins distrayante peuvent sélectionner l’option “text view”, qui permet d’afficher uniquement le texte.
Weiner indique qu’il a discuté récemment avec des journalistes et des éditeurs pour déterminer comment faciliter la sauvegarde des articles – en particulier ceux qui sont longs et prennent du temps à être produits et qui de fait peuvent facilement être perdus au milieu d’autres contenus sur un site de news.
La question la plus importante posée par les éditeurs, c’est : “pourquoi nous voudrions permettre à nos lecteurs de lire les contenus de notre site hors connexion , loin de nos publicités et des autres articles ?”
“Read It Later est essentiellement une seconde chance pour l’article. Cela augmente en fait la probabilité que l’article soit vu”, m’a expliqué Weiner par e-mail. “Si un article est là, c’est parce qu’un utilisateur l’a sélectionné. Et pour qu’un utilisateur l’ait placé là, il faut qu’il ait visité le site de l’éditeur”.
Marco Arment, qui a développé Instapaper, m’a dit, “la meilleure chose que les auteurs et les éditeurs peuvent faire est de fournir au monde de supers contenus à lire. Sans cela, toute cette technologie est sans intérêt.”
Similaire à Read It Later, Instapaper est un outil pour sauvegarder des pages web à lire plus tard, un “DVR [digital video recorder, NDT] pour des contenus web” . On peut aussi de créer un RSS customisé des articles que l’on a sauvegardé sur Instapaper et propose “Editor’s Picks” qui présente les contenus bookmarkés les plus populaires.
Arment, qui est également le développeur en chef de Tumblr, dit qu’Instapaper.com a trois millions de pages vues par mois et que le service a une petite centaine de milliers d’utilisateurs actifs en tout.
Arment collabore avec des éditeurs pour intégrer les boutons Instapaper et les liens directement vers leurs sites, comme les autres outils de partage que la plupart des sites possèdent. Et il a fait de l’accessibilité mobile aux longs articles une priorité, disant que les apps iPhone et iPad d’Instapaper “jouent un rôle critique” dans son succès.
Certains trouvent peut-être curieux qu’un mobile – une source de distraction pour la plupart d’entre nous, avec ses SMS, ses e-mail et ses alertes – puisse être favorable à la lecture de longs récits. Mais comparé à un portable, un mobile est la meilleure option.
“L’ordinateur moderne est fourni avec des distractions. Vos mains sont en permanence sur les touches de contrôle, attendant de cliquer à côté pour trouver le prochain bit d’information. Très fréquemment, quelque chose bippe ou une pop-up apparait ou un gros chiffre rouge s’affiche”, décrit Arment. “Les contenus longs requièrent une lecture attentive, et la lecture attentive requière un environnement libre de distractions. Vous avez besoin d’éloigner les gens de leurs ordinateurs.”
Après avoir découvert Instapaper, Max Linsky et Aaron Lammer ont créé Longform.org, un site qui agrège des contenus journalistiques longs qui remonte aussi loin qu’en 1899. Le but de ce site, disent-ils, c’est de donner aux gens un lieu pour ce type de contenu et leur donner une seconde chance sur le web.
“Nous voulions avoir une poignée de chouettes contenus à lire tout le temps et nous nous sommes dit que les gens aussi en avaient envie”, raconte Linsky, un journaliste freelance.
Lammer, un éditeur qui ne prenait jamais le temps pour lire des contenus magazines longs, dit qu’Instapaper et son travail sur Longform.org ont facilité le partage et la conservation des longs articles. Le site l’a aussi aidé à développer une communauté de gens qui aiment les longs récits, et à en devenir membre.
Les visiteurs du site, que Linsky et Lammer décrivent comme des “accrocs au journalisme grand format”, leur envoient régulièrement des suggestions d’articles à présenter.
“Nous avons un groupe de personnes en contact avec nous qui ont aussi conservé leurs propres archives”, explique Linsky, “les gens les plus connectés ont mis leurs propres archives sur Delicious et les autres dans un dossier, chez eux.”
He’s such a big believer in this that he proposed a South by Southwest Interactive panel called “The Death of the Death of Longform Journalism.”
Le nombre de gens qui se tournent vers le site pour partager des articles plutôt que les classer dans un dossier est une preuve que la technologie apporte un souffle nouveau aux contenus longs, explique Linsky. Il y croit tant qu’il a proposé un panel interactif au festival South by Southwest intitulé “La mort de la mort du journalisme grand format”
![]() Un exemple de tweets @LongReads
|
Comme Linsky et Lammer, Mark Armstrong a été inspiré par Instapaper pour démarrer sa propre collection d’articles longs. En avril 2009, il a créé un compte Twitter intitulé @LongReads et a tweeté depuis 1.200 articles.
Chaque jour, Amstrong tweete des liens vers environs 5 lectures longues récentes, certaines trouvées grâce au hashtag #longreads qu’il a créé. Le compte @LongReads possède environs 4.500 followers, -il s’est fortifié après la sortie de l’iPad-, et continue d’augmenter d’environ 15% par mois. (Longform.org a aussi un compte Twitter avec à peu près 1.700 followers.)
Armstrong, directeur des contenus chez Bundle, dit que Twitter est un bon endroit pour poster des contenus longs car les gens peuvent facilement retweeter les liens vers les articles et améliorer leur exposition. Il a expliqué le but de @LongReads dans une interview par téléphone.
“Je pense qu’au bout du compte, 1) nous voulons apporter plus de trafic au éditeurs qui proposent ce type de travail, et 2) encourager les gens pour aider à organiser le web d’une manière qui facilite la découverte de ces contenus”, a dit Armstrong, qui utilise Instapaper et encourage ses followers à en faire de même.
Tous ces outils sont connectés; en tant que lecteur, vous pouvez suivre @LongReads, sauvegarder l’article sur Instapaper ou Read It Later, et l’envoyer à Lammer et Linsky pour le poster sur Longform.org.
Armstrong dit qu’au fond il aimerait voir les sites commencer à utiliser un tag “longue lecture” pour agréger tous les contenus longs qu’ils publient. Inspiré par @LongReads, The Awl permet de faire une recherche sur le mot “long reads”.
“Ce développement m’excite plutôt, raconte Armstrong, et je pense que nous allons commencer à voir plus d’éditeurs suivre l’initiative de The Awl en organisant leurs sites afin de remonter en surface des contenus longs, avec de la substance.”
Alors que plus de gens apportent du trafic au journalisme grand format via le web, Twitter et les applications mobiles, cela donnera peut-être plus de raisons aux éditeurs de le produire.
“Nous touchons un point où, heureusement, le trafic justifiera le degré d’effort fourni pour faire des reportages et les écrire”, dit Armstrong… “Ils ne sont pas jetables.”
—
Article initialement publié (en anglais) sur Poynter.org
Illustration CC FlickR par emdurso, yellobagman
]]>Perdu (mais pas complètement) entre mon agrégateur RSS, les innombrables signalements qui circulent sur mon compte Twitter, l’archive des signets delicious … Besoin de clarification dans un monde ou tout est “flux” pour éviter qu’à terme tout ne nous semble “superflu(x)”.
» Les médias de flux : TV, Internet. Broadband. Modèle connu.
» Les “nouveaux” médias de flux, ceux du micro et du méso-net : comment s’y retrouver ?<
Des flux et des médias. Dans l’immédiat, des im-médias.
Côté flux (liste naturellement non-exhaustive). Besoin de distinguer entre :
Côté médias (liste tout aussi peu exhaustive que la précédente)
Une cybernétique observable. Cette articulation entre médias d’agrégation et fonctions de dissémination me semble essentielle. Elle illustre l’extraordinaire force centrifuge des premiers, qui mettent “sous nos yeux” un ensemble de flux, et la non moins extraordinaire force centripète des seconds qui redistribuent en permanence les mêmes flux, parfois légèrement altérés ou recombinés (méta-flux de Yahoo-pipes, Rss personnalisés et autres méta-flux générés ou attachés à des services particuliers). Bref, des usagers à la barre, une cybernétique à l’oeuvre, avec son feedback.
Voilà aujourd’hui, à mon sens, les deux grandes logiques du web contributif. Naturellement et comme dans les “anciens” systèmes médiatiques (moins “contributifs”, moins “distribués” et sans l’échelle fractale qui est un marqueur spécifique du web 2.0), les deux sont liées. C’est à dire que le média ou la fonction de dissémination sera d’autant plus efficace et amplifiée qu’elle s’appuiera ou sera supportée par un média à forte capacité d’agrégation. Inversement, on agrègera toujours davantage les items les plus “disséminés”.
Le troisième âge de la navigation. Ces phénomènes illustrent ce que je décrivais ainsi dans un ancien billet :
La souscription est et demeure une dépendance. Telle qu’organisée et disponible initialement (à l’époque des premiers agrégaterus et flux RSS), elle était également potentiellement une aliénation. La possibilité aujourd’hui offerte de recombiner et/ou d’altérer des flux diminue significativement sa force d’aliénation, mais augmente considérablement l’effet de dépendance.
Keep control. Pour que nous puissions nous y retrouver dans l’ensemble de ces médias de flux, pour que nous puissions en garder le contrôle ou tout au moins avoir l’impression que nous en gardons le contrôle, il faut – et c’est déjà le cas – que les principales fonctionalités et innovations portent sur 3 points :
la synchronisation
les périphéries reconfigurables
la gestion de l’asymétrie des relations para-sociales.
Petites explications …
Elle est la dernière étape de la dérive des continents documentaires. Nos modes de consultation sont nomades mais nos dispositifs (terminaux) d’accès au web sont encore hétérogènes. Nos temporalités d’accès sont elles aussi pour l’instant encore asynchrones (lecture des mails le matin sur l’ordinateur “de bureau”, consultation de vidéos le soir sur l’ordinateur “familial”, etc …)
La périphérie est une notion clé pour comprendre les logiques aujourd’hui à l’oeuvre dans la machinerie contributive du web (et pas seulement du web 2.0). Le meilleur ouvrage sur la question a été publié à une époque ou Serguei Brin et Larry Page n’étaient encore qu’en première année de faculté. Il s’appelle “Situated Learning : Legitimate Peripheral Participation“. C’est Jo Link-Pezet, ma directrice de thèse qui me l’avait fait découvrir à l’époque, comme tant d’autres des ouvrages, notions et concepts qui font que je ne me sens aujourd’hui pas trop démuni pour aborder l’étude et l’analyse des objets informationnels qui m’intéressent … (un jour quand j’aurai le temps, je vous raconterai pourquoi j’ai eu la chance de bosser avec LA directrice de thèse idéale …). Mais revenons au centre de nos périphéries. Les périphéries de ces communautés contributives disposent, grâce à cette ingénierie de la sérendipité, de plastiques de plus en plus souples et étendues. Périphéries à la fois théoriquement globales, et toujours possiblement ciblées. Le genre de périphéries “sociales” que les moteurs, Google en tête, commencent à intégrer au coeur de la présentation de leur résultats, en fonction de leurs vertus – supposées pour certains, avérées pour d’autres – de recommandation “sur-mesure” (sur Google Social Search puisque c’est de cela qu’il s’agit, voir égalementici et là)
C’est à dire en fait la gestion des relations para-sociales. Dans l’une de ses dernières interventions, Danah Boyd revient sur cette notion en indiquant : “But the information ecology we live in today has twisted this whole thing upside down. Just because I can follow the details of Angelina Jolie’s life doesn’t mean she knows that I exist. This is what scholars talk about as parasocial relations. With Facebook, you can turn your closest friends into celebrities, characters you gawk at and obsess over without actually gaining the benefits of social intimacy and bonding.” Ce seul et dernier critère permet d’expliciter nombre des phénomènes de viralité, de propagation, de “buzz”, mais il porte également trace de la nature profonde des dynamiques contributives et du sentiment d’appartenance à une communauté (et des phénomènes de reconnaissance liés, à l’intérieur des mêmes communautés).
A regarder aujourd’hui le déploiement, l’essor et les configurations chaque fois nouvelles et dans le même temps si peu souvent inattendues des sites emblématiques du web contributif, à regarder aujourd’hui tout cela sous l’angle des trois notions sus-citées, il me semble que l’on doit pouvoir comprendre un peu mieux à la fois les raisons de l’engouement qu’ils suscitent et le devenir dont ils sont porteurs.
L’indexation du temps réel. Naturellement, il reste encore des grands médias d’agrégation dont ce billet n’a pas traité : je pense bien sûr aux moteurs de recherche. Ces moteurs qui sont déjà capables de remonter le temps de diverses manières (ici ou là), capables également d’inférences (moteurs de divination et web implicite), et qui ont intégré progressivement (avec les news, puis les blogs) la question aujourd’hui si cruciale de l’indexation en temps réel pour en arriver finalement et plus précisément à l’ambition d’indexation du temps réel. <Parenthèse> Hallucinant vertige linguistique c’est désormais la traduction automatique qui se fait également en temps réel. </Parenthèse>
MMM. Moteurs méta-médias. Du point de vue de l’angle choisi pour ce billet, ces moteurs peuvent être décrits comme des “méta-médias d’agrégation”. Ils ne se contentent en effet pas seulement d’agréger de manière cumulative des contenus et des flux mais ils permettent également d’isoler, de choisir, de discriminer, de capter (l’attention) et de retenir (l’attention et les contenus). A ce titre ils disposent d’une triple caractérisation, à la fois :
Les petits flux font les grandes rivières. Et les grandes rivières intéressent les grands moteurs (cf l’effet de digue détaillé plus haut dans ce billet). Les moteurs, tous les moteurs regardent donc d’un oeil plein de convoitise le nouveau champion du temps réel : Twitter et sa périphérie de services. Après les rumeurs et les tentatives de rachat, les deux géants (Microsoft et Google) se contenteront finalement de l’indexation des tweets (sur le sujet, voir notamment le billet de Didier Durand et tous ceux signalés en lien ci-après)
Ne pas mélanger indexation et intégration.
Nombre de sites ont rendu-compte de ces annonces (attendues) : voir notamment ici, ici, ici, ici, et ici.
<Parenthèse> On retrouve au passage ici une problématique que je crois être absolument cruciale sur la pertinence des profils humains, et que je décrivais ici en ces termes : “De plus en plus de sites de réseaux sociaux « ouvrent » l’immense catalogue des individualités humaines qui les composent à l’indexation par les moteurs de recherche. Ce qui pose nécessairement la question de la pertinence des profils humains.“, si Nathalie Kosciusko-Morizet me lit, elle pourra toujours intégrer cela à sonatelier sur la question du droit à l’oubli numérique … </Parenthèse>
Le sens du social. Indexation et intégration de la statusphère, du micro-net, c’est encore chez Danah Boyd qu’il faut chercher des éléments de réponse aux enjeux que cela peut représenter pour l’évolution de l’ensemble des outils incriminés, et conséquemment pour l’ensemble de nos pratiques connectées.
Liens directionnels et conversations cardinales. Ce que visent ainsi les grands acteurs que sont Google, Yahoo et Microsoft (GYM) est de tenter de retrouver, dans les phénomène conversationnels qui occupent une part de plus en plus importante des contenus du web, le même type de directionnalité (adressage) qui caractérisait et caractérise encore l’instanciation de ces primo-conversations du web, à savoir les liens hypertextes.
En d’autres termes, l’indexation permet de “faire sens”, elle re-sémantise, elle donne “du” sens ; l’intégration (de ces flux conversationnels) vise à orienter, à retrouver un sens, une direction, une intention. Précisément parce que la sémantique sans intentionnalité, serait condamnée à demeurer un sémantique apauvrie (l’autre moyen de l’enrichir concerne la sémantisation des données elles-mêmes – web sémantique). C’est là une notion à laquelle j’avais consacré une grande partie de ma thèse, sous l’angle du problème de la cardinalité des liens hypertextes. Il s’agissait, dans ce cadre de “la possibilité d’établir des liens hypertextuels non plus mono-directionnels mais multi-directionnels (depuis un ou plusieurs documents, vers un ou plusieurs autres), leurs ancres faisant alors office de pivot, de point central.”
Moralité. L’indexation en temps-réel des flux conversationnels (on est ici dans le registre de la “fonction”), l’intégration dans les résultats de recherche du temps-réel de ces mêmes flux conversationnels (on est cette fois dans le registre de la “valeur”), l’indexation et l’intégration de ces flux sont l’occasion pour les moteurs d’instaurer – et donc de contrôler au sens cybernétique du terme – les nouvelles cardinalités du web contributif, cardinalités sans lesquelles il ne peut y avoir d’ordonnancement. Voilà donc très probablement les nouvelles et impérieuses commodités de la conversation du web contributif, du web … tout simplement.
—
]]>Delicious Article de présentation
J’écris cette note parce qu’il me semble que le service délivré par le site web delicious.com gagne à être plus connu.
Ce site apparaît comme complexe ou technique alors qu’il suffit d’apprivoiser un peu l’engin.
Cet article de vulgarisation tente d’y voir un peu plus clair et encourage des utilisateurs en puissance qui s’ignorent
à y regarder de plus près ou à simplement explorer des contenus souvent de qualité.
# Sauvegarde et édition
Dans les grandes lignes, delicious est un site de bookmarking social, c’est à dire qu’il sauvegarde tous les liens que vous lui postez.
Vous êtes sur une page qui vous plait, vous allez sur votre compte delicious et vous la saisissez.
Il suffit alors d’ajouter ou de rééditer son titre et une courte description de son contenu.
Enfantin mais désormais :
Votre liste de liens est mobile > ce n’est plus firefox ou internet explorer qui stocke.
Partagée > Vos liens sont visibles pas tous ( ou pas, option “garder privé”)
exemple : http://delicious.com/contribuweb>le compte de l’utilisateur contribuweb
Une des vraie valeur de ce site réside dans le “tagging” de vos liens, autrement dit le fait d’en extraire des mots-clés qui définissent et servent à s’y retrouver plus tard.
On parle alors de “collections” qui peuvent être très utiles.
exemples :http://delicious.com/contribuweb/video
Classique pour retrouver ses vidéos quelque soit le site d’origine
ou http://delicious.com/contribuweb/%23geek-border
qui sert de liste sur le theme geek-border
# Réseau
Delicious est une immense base de données partagée mais le site est,
et ça change tout, alimenté par des milliers d’utilisateurs.
Imaginons que vous aimiez la musique, vous auriez une page du type :
http://delicious.com/aurelien/musique
et bien, il y a de quoi faire :-) mais en + vous pourriez aussi retrouver ces liens à l’adresse:
http://delicious.com/tag/musique
C’est simplement la liste de TOUS les liens taggués “musique” parmi TOUS les comptes delicious
De nouveaux amis communs ?!
Delicious permet d’explorer “qui a sauvegardé ce lien ? et combien de fois ”
>On se connait pas, mais il semblerait que nous ayons des centres d’intérêt communs :p
On peut alors utiliser le service de suivi ou de ‘fan’
>exemple:
Tous les liens de tous les fans d’aurélien qui ont taggués des éléments “musique”
http://delicious.com/network/aurelien/musique
(avec un lecteur audio intégré qui va bien :-)
# Usages et conséquences
Delicious a l’aspect d’un site austère, d’une accumulation de données et parfois le vertige d’onglets qui s’ouvrent dans toutes les directions.
.. dommage parce qu’à y regarder de plus près c’est une fantastique entrée sur le web.
Liens suggérés :
http://delicious.com/tag/fr
http://delicious.com/tag/recipes
http://delicious.com/tag/techtonik …
Un peu moins sur Google ?
Dans certaines conditions, la recherche combinée sur delicious et google peut être optimisée.
>Effectuer des recherches de “liens en liens”
>C’est un exercice de qualification, d’affinages de tags et d’additions de termes :
Pour un historien par exemple :
http://delicious.com/tag/worldhistory
ou plus précisement :
http://delicious.com/tag/worldhistory+europe
etc..
Ouverture: Qui d’autre que delicious va vous suggérer de cliquer sur un mot-clé auquel vous n’aviez pas songé ? hein ?
# Flux
TOUTES les pages delicious possèdent un flux RSS..ca donne à réfléchir à ceux qui s’en servent..
Il y a une option ” pour:quelqu’un ” très pratique.
Recherche sur l’extension d’un fichier (system:filetype:jpg) , etc..
exemple : http://feeds.delicious.com/rss/tag/system:filetype:mp3+mashups
### Autres notes
Existe depuis 2003 racheté par Yahoo (2005)
Nombre d’utilisateurs en novembre 2008 : 5.3 millions
180 millions d’URLs stockées
http://fr.wikipedia.org/wiki/Delicious
http://delicious.com/tag/delicious
http://blog.delicious.com/blog/ (news et illustrations)
Firefox plugin :http://www.mozilla.fr/Details/del.icio.us_bookmarks
Site similaire http://www.diigo.com/
+
explore !
Ce document est Creative commons sans restrictions
]]>