L'IA sait-elle compter sans calculatrice ?
Maintenant que Sam Altman a récupéré sa place au sein d'OpenAI, on aurait pu passer à autre chose, mais le spectacle continue. Les raisons du conflit commencent à émerger.
ThePrimeagen, ancien développeur chez Netflix reconverti dans la création de contenu, et TJ DeVries, développeur et créateur de contenus autour de NeoVIM, commentent tous les deux une autre lettre dont la provenance est douteuse. Ils ont tous les deux de nombreux contacts dans les grandes entreprises californiennes ainsi qu'un regard affuté de l'intérieur sur le sujet des embrouilles d'entreprise. La source étant Elon Musk. Ils soulignent tous les deux le caractère assez flou des critiques internes formulées contre Sam Altman.
Given vast computing resources, the new model was able to solve certain mathematical problems, the person said on condition of anonymity because the individual was not authorized to speak on behalf of the company. Though only performing math on the level of grade-school students, acing such tests made researchers very optimistic about Q*’s future success, the source said.
Aujourd'hui, une dépêche Reuters nous apprend que le sujet de la discorde est la conception d'un projet Q* (“q-star”) capable de – attention – résoudre des problèmes mathématiques d'un niveau équivalent de l'école primaire (grade school). Jusque là, les modèles commercialisés par OpenAI étaient incapables de formuler un raisonnement mathématique. Ils ne sont tout bonnement pas faits pour cela. Au contraire, les vagues capacités développées par mimétisme langagier se perdent au fil de l'usure des données d'entrainement. Contrairement à ce qu'affirme la dépêche, les calculatrices modernes coutant une centaine d'euros sont déjà capables de résoudre des équations. Une condition nécessaire pour la réussite commerciale d'un modèle est la possibilité de brider la calculatrice pendant les examens, y compris universitaire. Preuve que l'outil permet déjà de résoudre des problématiques avancées et donne un avantage excessif dans une évaluation cognitive. Avec un peu de recul, il est difficile de comprendre la peur suscitée par un dispositif coutant, à la fabrication et à l'usage, plusieurs centaines de milliers de dollars (certainement des millions) et consommant des ressources énergétiques et naturelles en grande quantité.
Profitons également de cet instant nerd pour noter qu'il existe également déjà des bibliothèques de programmation pour effectuer des opérations de calcul symbolique. Par exemple SymPy pour le langage Python qui a une bonne place dans les programmes scolaires français. Cette bibliothèque existe depuis 2007, fonctionne sur une machine domestique et ne déclenche pas une peur irrationnelle de la suprématie des machines amenant à la fin de l'humanité.
Si la dépêche Reuters est plus précise, elle n'est elle-même pas basée sur une lecture de première main. L'agence cite des sources parlant d'une lettre, mais n'a jamais pu voir une copie de la lettre (“Reuters was unable to review a copy of the letter.”). L'information s'arrête là.
Ce qu'on peut comprendre de tout cela, c'est justement la franchise de Sam Altman. Il a contribué à l'écriture d'une lettre ouverte alertant sur les risques majeurs de l'IA et s'est exprimé plusieurs fois dans ce sens. Mais est-ce vraiment sa conviction, sa vision ou bien est-ce une posture pour contenter les chercheurs de son entreprise, notamment Ilya Sutskever, co-fondateur, ancien membre du board, frondeur, et chief scientist officer, et Mira Murati, ex-CEO par intérim pendant 48h et chief technological officer ?
liens
- fil mastodon de pensée sur ce sujet
- article de Simon Willson pour comprendre l'usage médiatique de formule comme “two people familiar with the matter”
type : #linknote sujets : #openai
Merci d'avoir lu ce texte ! On peut en discuter sur mastodon. Pour être informé·e lors de la parution de nouveaux articles, abonnez-vous au fil rss.