ratures

Reader

Read the latest posts from ratures.

from weeknotes

Une autre semaine remplie de la banalité absurde de notre système social. Le Guin dit que l’important ce n’est pas de vivre de choses spectaculaires pour avoir quelque chose à raconter, mais simplement de cultiver sa vie intérieure. Ou quelque chose comme ça. Ces textes assez personnels s’inscrivent dans cette démarche de documenter notre époque depuis l’intérieur. Je vois aussi l'exercice comme une newsletter qui ne passe pas par l’email.

qu’est-ce qui s’est passé ?

  • j’ai eu le temps de mettre quelques nouvelles entrées sur jop2024.lol.
  • j’ai reçu un nouveau téléphone le jour où le constructeur a fermé ses portes.
  • la mise à jour de sécurité de mastodon m’a rapidement alarmé. J’ai fait la mise à jour qui a déclenché une série de petits problèmes résolus, et sans impact, mais qui m’a occupé plusieurs soirées.

des joies

  • Le gouvernement a lancé une campagne de communication autour des jeux olympiques et paralympiques, et leur conséquence pour les citoyens villes accueillant des épreuves ou des événements. Le nom du site web de cette communication est https://anticiperlesjeux.gouv.fr plutôt que de me lancer dans un grand projet qui ne verra jamais le jour, j’ai déterré mon vieux nom de domaine gouv.lol et mis une redirection sur le sous-domaine https://anticiperlesjeux.gouv.lol. Cela ne m’a pas empêché de cogiter tout seul sur ce que pourrait être une réponse pertinente, mais en attendant j’ai tout de même un sentiment de travail accompli parce que le résultat est déjà là sans que cela me coûte trop de temps. C’est important dans ce petit moment de guérilla où l’asymétrie de moyen est démesurée.
  • À la naissance du second enfant, j’ai acheté un téléphone Punk MP02 pour son esthétique, sa simplicité et son absence d’artefact Google malgré Android comme OS. Il y avait quelques usages qui me manquaient cependant dont ma banque qui force l’usage d’une app distribuée sur le duopole Apple App Store et Google Play Store. Signal et What’s App nécessitent également une version sur un smartphone pour activer la version desktop. J’avais tenté de simuler un terminal Android, mais je n’ai jamais réussi. J’avais donc toujours mon iPhone qui trainait quelque part et me servait par intermittence. J’ai fini par acheter un Cat S22 Flip, dont le fabricant a déposé le bilan le jour de la réception. Cela reste un téléphone Android avec du Google, mais j’ai pu facilement cacher ou supprimer ce qui ne m’allait pas. Je regarderai une autre fois pour le rendre complètement propre. En attendant, le clavier à l’ancienne me donne l’impression que j’ai un dumbphone et je vais enfin pouvoir refiler mon iPhone à quelqu’un de mon entourage qui en fera un meilleur usage. C’est la touche finale à ma sortie, personnelle, de l’écosystème et cela fait un bien fou.
  • J’avais commencé un brouillon d’article sur Taylor Swift avec une composition d’angles que je n’ai pas trouvés dans les médias dominants ou spécialisés. Le problème est qu’il y a des actualités autour de cette personnalité tous les deux jours, ce qui repousse la publication indéfiniment et transforme le brouillon en monstre de Frankenstein. Comparer mes notes, bien que privées, avec ce qui est publié me donne du baume au cœur et un feedback plutôt positif sur ma pratique informationnelle.
  • J’avais plein de projets pour soirée de samedi à domicile une fois que les enfants seraient couchés, mais je me suis endormi en berçant le plus petit. J’ai tenté sans forcer de « faire des choses », mais au final j’étais bien content d’éteindre mon exploitant intérieur et de me plonger dans la lecture douillette d’un livre.
  • Sur le chemin d’une séance de cinéma, j’en ai profité, n’étant attendu nulle part, pour marcher quelques dizaines de minutes. L’occasion de prendre des photos pour constater qu’on a les yeux bien ouverts. Cela ne donnera certainement pas de grandes réussites, mais c’est quand même un plaisir important du quotidien.

lu, vu, joué, écouté

  • écouté en boucle Plastic Love de Mariya Takeuchi et Stay With Me de Miki Matsubara ainsi que des playlists de City Pop
    • L’insouciance mélancolique des paroles qui d’une certaine me rappelle High Fidelity de Nick Hornby. C’est aussi un bon prolongement de mon voyage imaginaire au Japon de ces dernières semaines. J’ai aussi découvert qu’il y a un effet de l’algorithme de YouTube et les quelques commentaires que j’ai regardés me laissent croire qu’ils ont été écrits avec IA. J’aurai du mal à en recommander une.
  • 📕 terminé The Unreal and the Real d’Ursula Le Guin
    • J’ai beaucoup apprécié les indications à la fin pour les clubs de lecture. Curieusement, j’ai lu le second volume beaucoup plus vite que la première partie. Peut-être parce que ce sont plus des fables et je voyais mieux l’intention narrative ainsi que le cheminement de question de Le Guin. L’habillage historique du premier volume avait tendance à me distraire alors que les contours SF et fantastiques du second m’indiquent clairement qu’est-ce qui est de l’ordre du décor(atif) et de la morale. Retrouver l’univers du Hainish Cycle est un plaisir appréciable également.
  • 🎥 vu Argylle au MK2 Bibliothèque
    • L’implication de Taylor Swift dans une rumeur concernant de film m’avait intrigué et j’étais toujours dans le brouillon de mon propre article. Cela ne vaut franchement pas le détour. Il n’est diffusé que dans un seul Mk2. Je me suis endormi devant The King's Man le lendemain.
  • 📺️ regardé Blue Eye Samurai s01e07
    • On s’approche de la fin et c’est regrettable, je ne sais pas trop ce que je pourrai regarder pendant les pauses déjeuner où je suis seul à la maison en télétravail. Je n’arrive pas à lire en mangeant, mais j’apprécie aussi ne rien faire d’autre que prendre mon temps pour manger.
  • 📺️ regardé Pokémon Concierge
    • Le générique est une chanson de Mariya Takeuchi.
  • 📖 continué ma lente progression dans The Blood in the Machine de Brian Merchant
    • Maintenant que j’ai terminé le pavé de Le Guin, je vais me concentrer exclusivement sur ce livre qui reste bien trop intéressant pour perdre patience et passer à autre chose ou en le terminer en lecture rapide.

ma toile d’annotations

chez les autres

les années d'avant

 
Read more...

from weeknotes

Une semaine assez banale. Il y a toujours quelque chose à raconter et je prends du plaisir à écrire ces notes. Si vous voulez quelques nouvelles, c’est par ici.

quoi de neuf ?

  • je me suis inscrit au pass culture de la BnF pour avoir accès à europresse et pressreader.
  • je suis allé voir du côté de boom boom villette, qui remplacé Vill'Up à côté de la Cité des Sciences/Enfants,
  • et j’y ai pris quelques photos.

des joies

  • J’ai très bien avancé sur jop2024.lol dans ma lancée de la semaine dernière. Il reste encore quelques petites histoires qui sont restées en plan, mais j’ai une version que je peux maintenir au fil de l’eau. Il y a un pont à faire avec les JOP de Tokyo, mais aussi de quoi alimenter une base documentaire pour toutes les itérations. Pour préparer le terrain pour la couverture critique des JOP d’hiver de 2030 par exemple. Une autre prochaine possibilité qui traine dans mon esprit est un système de pronostic avec la génération d’un Brier score pour s’entrainer au forecasting ?
  • J’ai pris quelques clichés avec mon Ricoh GR en me souvenant presque immédiatement de l’intention de mes réglages et de mes usages. L’appareil est bien loin d’avoir la tactilité satisfaisante du X-Pro1, mais il est toujours dans ma poche, et j’ai réussi à l’en sortir. Je n’ai pas encore de processus pour sortir les images de l’appareil par contre. Cela peut attendre, je suis déjà content de réussir à prendre le temps de regarder autour de moi quand je marche, seul ou non, tout en retrouvant le fil de mes séries potentielles. Avec la destination, en vue, d’alimenter à nouveau mon compte pixelfed, j’ai bien l’impression de m’y remettre calmement.

des peines

  • Une petite fatigue s’installe. Je n’arrive pas à lire le matin quand je prends le métro. Je somnole au bord de l’assoupissement. J’ai posé quelques congés pendant les vacances scolaires. Ouf.
  • Je m’étais donné pour objectif de publier un article long sur https://write.apreslanu.it/tk toutes les deux semaines. En ratant l’échéance, je suis passé à autre chose bien que les brouillons continuent à s’accumuler. Les textes recommencent à s’écrire dans ma tête sans en sortir. Stratégiquement, ce n’est pas le moment de passer en 4/5 pour avoir du temps pour ce genre de projets perso, mais j’ai de l’espoir que cela soit une possibilité dans un avenir proche.

lu, vu, joué

  • 📖 fini la première partie de The Unreal and the Real
    • Le Guin s’amuse beaucoup a laissé au lecteur le choisir quelle partie est à propos du réel. La notion de réalisme concerne plus le décor qu’autre chose. Dans la première partie, elle emprunte beaucoup à l’imaginaire et le symbolisme des native americans. On y retrouve ses grandes histoires et permet d’observer son jeu d’écriture, comment elle choisit un genre ou un autre pour raconter. Cela m’a rappelé ses conseils d’écriture de Steering the Craft. Ces nouvelles permettent de la voir faire avec rapidité et concision.
  • 📖 poursuivi lentement, mais attentivement lecture de Blood in the Machine
    • Je n’ai pas eu beaucoup d’occasions de lire le matin et je prends beaucoup de notes. Ce livre continue d’être une lecture passionnante. Je pense que je me concentrerai dessus si je termine The Unreal and the Real avant.
  • 📺️ regardé Blue Eye Samurai s01e06
  • 🎥 vu L’innocence de Hirokazu Kore-Eda
    • Film très touchant. Je suis en admiration devant le jeu d’acteurs des enfants. Une bande-son de Ryuichi Sakamoto qui est aussi un hommage posthume. Je ne sais pas si j’arriverai à trouver qui me fera continuer à voyager au Japon. J’aime bien les ambiances hors de Tokyo, plus particulièrement dans l’arrière-pays. Ici, c’est une métropole qui ne dit pas son nom, mais qui est certainement reconnaissable.
  • 🎥 vu Léo, la fabuleuse histoire de Léonard de Vinci de Jim Capobianco et Pierre-Luc Granjon
    • Tombé par hasard sur l’avant-première avec l’équipe, dont Juliette Armanet qui prête sa voix à Marguerit de Navarre. Le film est gentil, c’était bien pour un enfant de 5 ans. Il ne montre pas grand-chose du talent de Léonard De Vinci en lui-même, c’est très invocatoire. Cela m’a donné envie de relire les bandes dessinées Léonard et de les faire découvrir au plus grand si cela n’a pas trop mal vieilli.
  • 🎙️ Prologue to Ursula K. Le Guin (Imaginary Worlds)
    • Un épisode de podcast très intéressant qui revient sur l’héritage, en bien et en mal, de la culture ainsi que du parcours de ses parents.
  • 🎧 écouté Philip Glass Solo disponible sur bandcamp.
    • Cela faisait un moment que je n’avais pas écouté Glass. En regardant vite fait, je remarque aussi qu’on peut trouver des cassettes originales à un prix raisonnable.

les quelques pages que j’ai annotées

chez les autres

les années qui passent

 
Lire la suite...

from le numérique est un champ de bataille

À la suite de deux articles de The Markup sur le scraping, j’en profite pour revenir sur ce morceau important du web et articuler quelques clés de lecture. Qu’est-ce c’est ? Pourquoi est-ce important ? Et quelques contextes d’usage avec leurs enjeux.

Il y a quelques approximations par esprit de concision. Pardon par avance.

Qu’est-ce que c’est ?

Le scraping est l’opération consistant à extraire systématiquement de l’information d’un ensemble de pages web (un site en particulier, une pelote de liens, etc.) pour constituer un jeu de données (les données, les changements dans ces données, etc.) qui pourra éventuellement servir à produire une nouvelle information (comparaison, vue macro, etc.). Une fois automatisée, cela permet de changer, l’échelle en quantité et en temporalité, des informations provenant du web. Cela en fait un élément important de l’écologie de la connaissance dans notre univers hypermédiatique.

Le scraping mobilise les tâches suivantes :

  • naviguer sur des pages web, c.-à-d. au format HTML,
  • extraire l’information de ces pages,
  • et de l’organiser sous la forme d’une base de données, un fichier ou des fichiers, bref, restructurer l’information différement.

Le degré zéro est de le faire soit même à la main. Il y a longtemps, il y avait même des extensions pour navigateurs, par exemple navicrawler du Medialab de Sciences Po, pour aider à cela. La plupart du temps, c’est un script dans un langage comme python qui permet d’automatiser la partie répétitive.

Pour abstraire et généraliser l’extraction d’information, il faut souvent une compétence de compréhension de la structure d’une page web, c.-à-d. savoir lire du HTML, et en comprendre la syntaxe. Bien heureusement, le web est une technologie fondamentalement ouverte et tous les navigateurs permettent d’afficher le code source d’une page en deux clics (clic droit, voir le code source, clic gauche). Si vous entendez parler d’« inspecter le code source », c’est cela, une manipulation qui permet de relier un élément visuel avec un morceau de langage technique décrivant cet élément. Le jeu est alors de trouver le motif permettant de rassembler tous les éléments semblables.

Certains éditeurs de site web cherchent à empêcher ce genre d’opération, il n’est alors pas rare d’utiliser à nouveau un script qui va simuler des séries d’actions humaines dans un navigateur web. Redonnant ainsi un sens au terme de user agent qui permettait d’identifier un navigateur comme un instrument d’agissement (ou d’agentivité) d’un utilisateur.

Pourquoi est-ce important ?

Le scraping et sa continuité de pratiques sont importants, car dans le paradigme marketing actuel de l’intelligence artificielle, ce qui est automatisable a une bonne probabilité d’être recyclé comme un service payant avec un travail qui est surtout de la conception d’interface utilisateur, mais comme le design ne paie plus on parle de « robot » et d’« intelligence artificielle ». Browse.ai est un exemple de ce genre de maquillage. D’ailleurs, tout cela pourrait être fait avec du travail humain en exploitant un service comme Mechanical Turk d’Amazon et cela resterait du scraping. La différence notable est la responsabilité de l’usage de technologie et la volonté de fermer les yeux, ou non, sur les conditions d’extraction et d’exploitation du travail. Dans ce contexte, la notion de compétence est également importante, car, bien que technique, savoir lire du HTML est une connaissance nécessaire et normalement relativement facile d’accès. On n’est pas dans des affres de complexité et un minimum de pédagogie fait l’affaire. La promesse du no-code de l’intelligence artificielle est une barrière à cela et empêche la résolution du moindre problème ainsi que l’identification d’erreurs. C’est une dépendance directe au bon vouloir d’une entreprise/d’un service en fonction des orientations managériales et du marché. Dit autrement, le scraping est un bon cas pour ouvrir les différentes problématiques sociales invisibilisées dans le paradigme dans lequel nous sommes plongés depuis quelques années et accélérer par le succès commercial de OpenAI.

L’autre point important est la complexification des technologies web. La professionnalisation des métiers du web et l’économie numérique alimentant un besoin de produire de plus en plus de pages amènent à un amoncellement de nouvelles solutions pour résoudre des problèmes sauf que chaque solution vient avec ses propres problèmes. Pour mettre une page web en ligne, on est bien loin du glisser-déposer d’un fichier vers le FTP fourni gratuitement avec son accès à Internet. Souvent, pas toujours, un site web est plus une surcouche sur une API, un point d’accès programmatique, qui permet de générer des pages et d’avoir une gestion plus dynamique de son contenu que le modèle standard de la page web. Par exemple, plutôt que de faire une page différente par personne côté serveur, on va demander au navigateur d’aller récupérer des informations en parallèle et le laisser modifier la page à un endroit qui sera indiqué par avance. Schématiquement. Une solution de repli pour l’extraction d’information est alors d’aller la chercher dans l’API. On s’éloigne alors petit à petit du scraping et de ce que percoit normalement un navigateur et donc du contexte de lecture ainsi que les différentes transformations possibles. L’information récupérée de cette façon est souvent déjà structurée et ainsi plus propre.

Quels sont les enjeux ?

commerciaux

Commençons par les choses qui fâchent. Le scraping a une fonction importante dans l’économie numérique. Les premiers comparateurs de prix utilisaient du scraping pour alimenter leurs contenus avant l’avènement du hangar global. Marc Zuckerberg a scrapé les trombinoscopes, les facebooks, de sa fac pour en faire une compétition assez malsaine et à la mode à l’époque. Les startups sont friandes de données personnelles laissées à l’air libre pour alimenter des bases de données prospectives. Laisser son email en clair sur une page web, c’est s’assurer de retrouver sa boite inondée de publicités. Avoir un profil public github, la plateforme de Microsoft pour publier du code, c’est aussi la garantie de se faire prospecter de façon régulière à propos de nouveaux projets crypto.

À ce titre, la CNIL est sur le coup et rappelle que c’est interdit. Par contre, aller piller les autres boîtes, c’est une autre histoire. Cousin proche du scraping, il y a un crawling qui indexe le contenu des pages pour les indexer dans un moteur de recherche. La différence, c’est peut-être que le crawling est anticipé, et optimisé, par les éditeurs de site web. Ça s’appelle du SEO, ce n’est pas beau à voir et c’est une tout autre histoire.

Dans une autre mesure, la possibilité de scraper le web est un dommage collatéral de la volonté des acteurs du web commercial à extraire une valeur économique de l’attention des internautes. Afin de pouvoir assurer l’exposition à des publicités, Google cherche ainsi à contrôler la lecture d’une page web avec tout un tas de complications dont l’excuse est l’intégrité de ce qui est déclenché. C’est assez fallacieux et c’est un problème qui se mord la queue dans la mesure où le principal risque est les programmes malveillants qui se propagent par l’intermédiaire du réseau des bannières publicitaires. C’est une bataille du web en cours et le soutien, par l’usage, de Firefox est vital.

recherche

Côté recherche, il y a diverses problématiques allant de la conservation à l’analyse du langage naturel ou bien l’analyse des réseaux sociaux.

La plus importante est l’archivage du web et sa conservation. De la même façon que les crawlers commerciaux, l’enjeu est de conserver de façon intacte le maximum de choses possibles. Cela concerne des projets comme l’emblématique archive.org et l’archivage du web de la BnF et de l’INA.

Une autre problématique est l’analyse des controverses et le champ précédent des digital methods qui utilisent les matériaux comme un matériau pour construire des cartographies. C’est beaucoup plus que cela, mais il y a des livres très bien sur le sujet comme Controversy Mapping de Venturini et Munk.

journalisme

https://themarkup.org/hello-world/2023/12/16/how-elon-musk-is-trying-to-make-web-scraping-dangerous-again

https://themarkup.org/news/2020/12/03/why-web-scraping-is-vital-to-democracy

The Markup est un média US dont la thématique est la technologie. N’en faisant pas seulement un sujet, les journalistes de cette rédaction mobilisent régulièrement des méthodologies d’extraction d’information qu’il serait laborieux de faire manuellement. À ce titre, ils soulignent que le scraping du web est important d’un point de vue démocratique et central dans certaines de leurs enquêtes. Cela dérange assez les gros acteurs pour que cela se termine devant la justice avec de gros enjeux de régulation.

La question que je me pose alors est le lien entre pratique du scraping dans les rédactions françaises et la faiblesse du journalisme de données, en tant que champ, en France. Si vous êtes journaliste et que vous scrapez le web pour vos articles, cela m’intéresse d’en discuter dans le cadre d’une étude au long cours sur vos pratiques.

société civile

La transparence et l’accès de l’information sont également importants pour la société civile et l’existence d’un écosystème citoyen qui ne soient pas dans une confrontation constante avec la sphère marchande et la sphère administrative.

Laisser la possibilité de construire de l’information publique et de nouveaux services, comme vite ma dose, est un signe de santé démocratique, car il est alors possible de construire des communs et, enfin, orienter des technologies vers plus d’inclusion, de solidarité et de compréhension des collectifs.

L’association UFC-Que Choisir construit ainsi une cartographie des drives à partir d’un scraping des sites des différentes enseignes. À partir de là, il fournit un indicateur de coût du panier moyen selon les profils de ménage. Avec un peu de travail, il est possible de scraper à nouveau ces pages pour les transformer en données tabulaires permettant des analyses alternatives et de nouvelles mises en récit.

conclusion

Le scraping est symbolique de la possibilité de prendre du recul, d’avoir une vue d’ensemble, à propos du web et de ce qui y circule. Certainement pas une pratique quotidienne pour l’internaute moyen, c’est un indicateur de la frontière entre ce qui est ouvert ou ne l’est pas sur le web. À ce titre, sa pratique permet de mesurer la surface du web comme espace public. Une trajectoire vers moins de contenus qui seraient disponibles au regard des internautes par cet intermédiaire est indicateur d’une opacité de l’information. Les grandes entreprises technologiques, et les gouvernements, en parallèle, bénéficient d’une grande transparence sur nos données individuelles. Comme dirait Cory Doctorow à propos de l’interopérabilité, le scraping est une condition nécessaire, mais pas suffisante pour un futur désirable où Internet reste omniprésent. Autrement dit, Internet ne peut pas être une technologie sociale si le web ne reste pas ouvert et s’il n’y a pas la possibilité de construire une écologie de la connaissance où le contrôle technique ne serait pas du côté des citoyens.

Du côté de la production de contenus, de pages et de sites web, il est ainsi important d’avoir cette intention du web comme commun et espace public. La prolifération des applications pour smartphones (à 99,9 % réservées aux jardins/enclos d’Apple et de Google) est ainsi un grand pas vers la clôture du web et par extension de l’information comme moteur de la démocratie.

type : #analyse sujets : #openweb #scraping

 
Lire la suite...

from le numérique est un champ de bataille

Substack est une plateforme mettant en relation des auteurs et des publics. L'intérêt du site est la mise à disposition d'un paywall, c.-à-d. la gestion d'un accès à des contenus conditionnés par un abonnement mensuel ou annuel. Substack prenant une commission sur chacun des abonnements. C'est un site relativement méconnu en France, hormis quelques niches adjacentes à la culture américaine où Substack est un peu plus populaire dues à la présence importante de la culture californienne parmi les élites. Depuis quelques jours, le site se retrouve très justement critiqué pour son soutien à des auteurs d'extrême droite et pour certains ouvertement et littéralement nazis.

https://www.theatlantic.com/ideas/archive/2023/11/substack-extremism-nazi-white-supremacy-newsletters/676156/

Quelques semaines auparavant, un article de The Atlantic revenait sur la présence de nazis sur la plateforme Substack. La défense des fondateurs de l'entreprise repose sur une vision néo-libérale de la liberté d'expression. Un laissez-faire maximaliste où tout se vaut et le marché des idées fera le tri. On est en 2023 et ce n'est pas plus une prophétie que de dire que cette idée d'autorégulation des idées est tout bonnement une fable avec des conséquences importantes.

https://substack.com/@hamish/note/c-45811343

Deux lettres ouvertes plus tard, la direction de Substack répond enfin à la controverse. Ils réitèrent sur une critique de la censure. C'est un point assez hypocrite. Leurs conditions d'utilisations comportent des critères assez clairs (). De plus, ils ont déjà choisi d'exclure certains contenus. Être ouvertement nazi et tenir des propos racistes est ok tant que c'est poli et pas “haineux”. En ne cherchant pas très vigoureusement, il est facile de trouver un substack avec la charte graphique du parti nazi (rouge, blanc, noir, Fraktur, croix gammées, drapeaux, etc.).

Une des conditions est par exemple de ne pas accepter de productions qui sont par ailleurs bannies de leur solution de micropaiement, Stripe. Or, il se trouve que certains auteurs sont bannis de Stripe pour leurs propos racistes, mais se retrouvent accueillis chez Substack avec une solution de contournement et une autre prestataire de transaction que Stripe.

La question de la microtransaction est le cœur de la plateforme. L'entreprise fait la promesse d'une rencontre d’une activité d'écriture, d’un lectorat et d’une rémunération plus ou moins conséquente. Ainsi au-delà de la simple tolérance, en contribuant à l'exposition d'auteurs fascistes, Substack leur donne une audience décuplée par l'effet de réseau, les personnes qui viennent sur substack pour d'autres raisons, mais surtout par la mise en avant de ces auteurs en les invitant à des moments éditoriaux privilégiés comme au principal podcast dédié au site, The Active Voice, sans aucune prévention ni contre-mesure.

Dans une certaine mesure, Substack est dans les pas de Medium. Ces deux entreprises ont longtemps cherché à séduire des auteurs provenant du monde journalistique et leur fournissant salaire et travail de support (éditeur, producteur de podcast). Medium cherche encore son modèle économique après de nombreuses tentatives et de changements, “l'entreprise pivote” dans le jargon de l'économie numérique, en laissant de côté des journalistes qu'elle a embauchés pour voir avant de changer d'avis. Leur modèle est actuellement un abonnement unique et une vague redistribution en fonction de l'audience. Les contenus produits le sont souvent gratuitement et se retrouvent derrière une page d'abonnement obligatoire, un paywall. Substack fait le pari d'une rémunération individualisée en fonction du nombre d'abonnements et une taxe de 10% générant un bel effet de longue traine. C'est le degré zéro dû capitalisme de plateforme. C'est aussi une logique individualiste qui met les en compétition les auteurs entre eux, le budget des lecteurs n'étant pas infini, il faut bien choisir quels contenus privilégiés, on va avoir accès. Chacun paie aussi pour sa newsletter et pour chaque auteur. C'est souvent entre 5 et 15 euros par mois, ce qui est assez voisin du tarif des médias traditionnels pour un journal entier. Il n'y a pas de partage économique et au mieux un partage d'audience à travers un système de connivence. C'est aussi une atomisation des pratiques éditoriales, tout est attaché à un nom propre, singulier et rares sont les productions collectives. En l'absence d'une quelconque forme de redistribution équitable, c'est un appauvrissement général, la concentration des revenus économiques dans une très petite fraction des producteurs de contenus, et une belle rente pour Substack. Le modèle économique est déjà bien éprouvé sauf qu'ici, on parle d'être alimenté par de l'argent sale et de financer des personnes exécrables.

Au départ, Substack est une plateforme pour faire des newsletters, c.-à-d. des textes qui seront lus dans une boite email. La tendance générale étant à transformer ces lieux de correspondance en poubelle à publicité, à notifications et artefacts de démarches administratives, trop de newsletters amènent à une saturation de l'attention qui est déjà bien malmené. En plus, on mesure beaucoup de choses dans une newsletter que sur un site ou une application. C'est pour cela que le site est moins en moins à propos de newsletters et de plus en plus à propos de discours très vagues (“The subscription network for independent writers and creators”). Le problème est que c'est, à nouveau, une entreprise qui éloigne les publics d'un web ouvert, celui où la page HTML est la finalité et non pas juste une coquille vide transportant tout un tas de technologies non interopérables, looking at you Single Page Application. D'ailleurs, même s'il s'agissait d'email, il est impossible de rentrer facilement en contact avec les auteurs qu'on aimerait soutenir dans leur démarche de changement d'espace de publication. Il y a bien les commentaires mais cela revient à peu près à attraper quelqu'un par le col de la chemise alors qu'on aimerait juste avoir une discussion cordiale avec quelqu'un à qui on donne déjà de l'argent.

Le protocole Web Monetization est la réponse ouverte à la problématique de la rémunération du travail de production culturelle. Avant tout une solution technique, elle ne touche pas du tout à la problématique sociale. D'abord c'est une solution avec une forte connotation crypto, il faut attacher un portefeuille électronique, un wallet, pour faire et recevoir des donations. Ensuite, elle suit un modèle idéologique basé sur l'individu et l'identité. Par exemple write.as est la version cloud de writefreely, un logiciel permettant à tout un chacun d'héberger une ferme de blog, pour parler comme dans le web des années 2000, et propulsant ce site. Write.as implémente justement web monetization mais sans effet de réseau ou de collectif, c'est une drôle de décoration qui ne nourrira personne et ne soutiendra aucune production.

En fait rien ne remplacera le travail collectif. Les premiers à l'avoir compris sont les médias dont le cœur est une rédaction composée de journalistes. La production est mutualisée et la rémunération est partagée sous forme de salaires. C'est une vision idéalisée et schématique. Il y a souvent quelque part des actionnaires, de la publicité, mais aussi l'État comme perfusion économique sous forme des aides à la presse. Est-ce qu'on peut imaginer d'autres formes d'organisation sociotechnique pour la production et la diffusion d'objets écrits ? À commencer par la fiction, la poésie, des écritures plus personnelles, et non pas individualistes, et pourquoi pas, en fait, du journalisme pour sortir des contraintes économiques et de la pression de l'actualité. Faire des collectifs et des communautés autonomes, et arrêter une nouvelle plateformisation d'une pratique qui pourrait quand même être sympathique. De façon connexe, on peut penser au collectif de créateurs de jeux vidéos Sokpop qui fait un jeu par mois contre un abonnement de 3 euros. Cela leur permet de s'affranchir des codes de productions du milieu et d'explorer créativement de nouveaux imaginaires. Substack n'est pas la première plateforme a exploiter l'espace séparant une écriture et sa lecture, elle ne sera pas la dernière non plus. Mais est-ce que cela ne serait pas le moment de commencer à chercher de nouveaux modèles ? Notre époque en a besoin.

type : #analyse sujets : #moderation #substack #plateforme #politique

 
Lire la suite...