Weeknote 2025 #3

Où atterrir ?

Je viens de lire Où atterrir ? de Bruno Latour. Le livre a été écrit en 2017, juste après la première élection de Trump et la décision des États-Unis de sortir de l'accord de Paris. À l'époque, j'avais parcouru rapidement le livre en librairie sans l'acheter. Depuis la réélection de Trump, j'y pensais souvent.

C'est vertigineux de lire le livre 8 ans après et d'avoir le sentiment qu'on savait tout il y a 8 ans et qu'on a tout oublié depuis. On a fait comme si ça “allait bien se passer”, comme si c'était une petite péripétie dans l'histoire des États-Unis et surtout dans l'histoire de la lutte contre le réchauffement climatique. On est 8 ans après et maintenant, il n'y a presque plus de résistance à Trump. Tout le capitalisme américain est derrière lui pour tourner le dos à toute forme de transition écologique.

Le livre de Latour tente de frayer un chemin pour se réorienter du “Global” vers le “Terrestre”, repenser une politique ancrée dans les limites de la Terre par opposition à la politique “Hors-sol” proposée dès 2017 par Trump.

C'est dingue de voir comment ce qui a été écrit en 2017 pourrait être écrit de la même manière en 2025.

Baromètre de la science ouverte

L'équipe du baromètre de la science ouverte (@BraccoLaetitia@sciences.re, @annelhote@mas.to, Eric Jeangirard et Laurent Romary) explique comment ils construisent le baromètre en détaillant les logiciels utilisés, l'infra, les moyens humains, etc.

Tout ça s'appuie largement sur les librairies développées par Kermitt2 comme Datastet, GROBID et softcite.

Data journalisme

@denisvannier@piaille.fr et Jeremie Sprizglas publient une grande enquête dans @splann@mamot.fr et @mediapart@mediapart.social sur la bétonisation de la côte bretonne en croisant des données d'occupation des sols avec des données démographiques.

La liste des sources de données utilisées est impressionnante (recensement, base Sitadel des permis de construire, fichiers Filosofi, données d'occupation des sols, etc) et le code est disponible sur Github.

Machine learning

@GaelVaroquaux@mastodon.social fait le bilan de son année.

Il revient sur ce qui l'a marqué de sa participation au rapport Aghion-Bouverot.

The cost of large models have ballooned (training a large language model is in the hundreds of millions of cost, which is comparable to a sizeable fraction of the budget of the national research institute that I work in (inria). Training costs are just the visible part of the iceberg, operational costs are huge and are everywhere.

Many factors in today’s AI lead to concentration into the hands of large actors. Training and operation costs, of course. But also limited access to the correspond skills, platform effect on the data and the users. The most striking bottleneck is the compute hardware. Only one company makes the chips that we all need. Few actors can afford buying them; and as a result most of the world lives from renting out to big landlords.

Il revient aussi sur ses projets comme le lancement de Probabl, le développement de Skrub ou ses travaux sur les modèles tabulaires pré-entrainés (https://openreview.net/forum?id=9kArQnKLDp).

A crucial part of foundation models for text and images is the attention mechanism, stacked in a transformer architecture, that bring associative memory to the inputs by contextualizing them. We had a breakthough with the CARTE model: we managed to adapt these ideas to tables. The strings –tables entries and column names– give the information that enables transfer from one table to another: data semantics.

Bullshitonomics

Je suis bien content que @mathildesaliou@piaille.fr ait aussi démonté la méthodologie de la note de Yann Algan, Thomas Renault et Hugo Subtil.

Conf

Welcome

PAC – @pac@mastodon.social

S'abonner via le Fediverse (@pac@write.apreslanu.it) ou via flux rss (https://write.apreslanu.it/pac/feed/)