FEDITECH

Votre dose de tech sur Mastodon | Romain Leclaire

Une mise à jour apparemment anodine des conditions d'utilisation d'eBay a révélé une transformation en cours dans le monde du commerce en ligne. Repérée par Value Added Resource, cette modification interdit explicitement aux agents tiers de type « buy for me » et aux chatbots pilotés par l'intelligence artificielle d'interagir avec la plateforme sans autorisation préalable. Si, à première vue, une simple ligne ajoutée aux conditions générales peut sembler triviale, elle signale en réalité l'émergence rapide et perturbatrice de ce que les experts appellent désormais le commerce agentique.

Ce nouveau terme désigne une catégorie d'outils d'IA conçus non seulement pour discuter, mais pour naviguer, comparer et effectuer des achats à notre place. eBay a décidé de prendre les devants face à cette tendance. Les nouvelles conditions, qui entreront en vigueur le 20 février prochain, sont sans équivoque. Elles interdisent spécifiquement aux utilisateurs d'employer des agents d'achat, des bots pilotés par de grands modèles de langage ou tout flux de bout en bout tentant de passer des commandes sans validation humaine. Auparavant, l'accord interdisait de manière générale les robots et le scraping de données, mais ne mentionnait jamais spécifiquement l'IA générative ou les LLM.

L'expression « commerce agentique » pourrait ressembler à un jargon marketing futuriste, mais la réalité est que ces outils sont déjà opérationnels et adoptés par le grand public. Bien que regroupés sous une même étiquette, ils prennent des formes variées. OpenAI a été l'un des premiers à ouvrir la voie en ajoutant des fonctionnalités d'achat à ChatGPT Search en avril 2025, permettant de parcourir des recommandations de produits. Dès septembre, l'entreprise lançait l'Instant Checkout, permettant d'acheter des articles de vendeurs Etsy et Shopify directement dans l'interface de chat.

La concurrence s'intensifie également ailleurs. Perplexity propose désormais « Buy with Pro », une fonctionnalité de paiement en un clic pour ses abonnés payants. De son côté, Google a récemment dévoilé son Universal Commerce Protocol, un standard ouvert destiné à faciliter les interactions entre les agents d'IA et les détaillants. Même Amazon s'y met avec sa propre fonction « Buy For Me », utilisant l'IA pour acheter des articles sur des sites de marques externes via l'application maison. Face à cette prolifération, eBay tente de reprendre le contrôle de son écosystème.

Cette mise à jour politique fait suite à des changements techniques plus discrets opérés en décembre sur leur fichier « robots.txt ». Ce dernier indique aux bots quels contenus ils peuvent ou ne peuvent pas explorer. eBay y a ajouté une nouvelle politique interdisant le scraping automatisé et les agents d'achat, bloquant explicitement les bots de Perplexity, Anthropic et Amazon, tout en laissant un accès au bot de Google. Les restrictions du fichier robots.txt reposent toutefois essentiellement sur un système d'honneur. En inscrivant ces interdictions directement dans ses conditions d'utilisation, la plateforme se dote d'un levier juridique pour poursuivre les contrevenants.

Mais cette position défensive ne signifie pas que le site d’e-commerce rejette l'IA. Au contraire, il souhaite simplement rester maître du jeu. Son PDG Jamie Iannone a confirmé lors d'une conférence sur les résultats en octobre qu'eBay testait ses propres expériences agentiques. De plus, les nouvelles règles laissent la porte ouverte aux bots disposant d’une autorisation expresse préalable. Cette clause stratégique suggère que la plateforme ne cherche pas à tuer le commerce par IA, mais plutôt à le canaliser vers des partenariats officiels et contrôlés, potentiellement même avec des acteurs comme OpenAI.

Romain Leclaire sur Piaille.fr

Imaginez un instant la scène. Une sorte de type louche vous alpague au coin d'une rue numérique pour vous murmurer: Hé petit, tu veux voir les entrailles de l'algorithme de X ? C'est juste là, sers-toi. C'est précisément l'impression que donne la récente manœuvre d'Elon Musk. Le milliardaire semble tenir, du moins en partie, une promesse faite il y a une semaine, ouvrir l'algorithme de recommandation de son réseau social au public. Si l'intention paraît noble sur le papier, la réalité ressemble davantage à une vaste opération de communication qu'à une véritable révolution de la transparence.

Il faut se souvenir que Musk avait déjà promis cette ouverture dès 2022. À l'époque, nous avions eu droit à un simple instantané du code, rapidement devenu obsolète, loin de la définition standard d'un projet open source vivant et collaboratif. Cette nouvelle tentative, bien que présentée comme un pas en avant, souffre des mêmes maux chroniques. Le patron de X a promis de mettre à jour ce dépôt toutes les quatre semaines, mais permettez-moi de douter de la tenue de cet engagement quand on observe le passif de l'entreprise.

Le problème principal réside dans ce qui manque. Elon Musk avait assuré qu'il publierait tout le code utilisé pour déterminer les recommandations, y compris pour les publicités. Or, de là où je suis assis, cette promesse est loin d'être tenue. Le code régissant l'affichage publicitaire brille par son absence. Plus troublant encore, le système de tri par défaut du fil “Abonnements”, désormais géré par l'IA Grok depuis novembre dernier, semble lui aussi introuvable dans ce dépôt. Nous avons donc affaire à un puzzle incomplet dont les pièces les plus lucratives et les plus opaques ont été soigneusement retirées de la boîte.

Le site web Gizmodo a tenté d'obtenir des réponses sur ces omissions flagrantes, mais le silence radio de X est devenu une norme inquiétante. Néanmoins, nous voici avec ce nouveau tas de code et la première chose à savoir est que, selon les propres mots d'Elon Musk, cet algorithme est nul. C'est une déclaration fascinante, surtout quand on la compare à celle de Nikita Bier, chef produit chez X, qui se vante d'une augmentation du temps d'engagement des nouveaux utilisateurs. Qui croire ? L'algorithme est-il inefficace ou est-il une machine à addiction trop performante ?

La vérité est probablement plus cynique. Celui décrit dans la documentation technique ressemble à une mise à jour de la méthode TikTok. Un système conçu pour capturer votre attention à tout prix. Il ne cherche pas à vous informer ou à élever le débat, mais à stimuler vos pulsions les plus primaires. Il privilégie l'engagement pur, cherchant désespérément ce qui vous fera arrêter de scroller, quitte à vous inonder de contenus clivants. C'est un mécanisme qui flatte votre ça et ignore totalement votre surmoi.

Musk qualifie également son algorithme de stupide, une réponse directe aux plaintes de certains utilisateurs conservateurs américains, comme Mark Kern, qui estiment que le système pénalise les comptes souvent bloqués. Si cela est techniquement plausible, il est hilarant de voir ces critiques omettre que les comptes massivement bloqués sont souvent des vecteurs de harcèlement. L'algorithme ne serait donc pas woke, mais simplement un filtre basique contre les comportements toxiques, ce qui semble déranger une frange spécifique de l'utilisateur “libéré” par Musk.

Mais le point le plus critique de cette fausse transparence réside dans la nature même du système. X admet que tout repose désormais sur une architecture d'intelligence artificielle basée sur Grok. L'analyse ne se fait plus via des règles manuelles compréhensibles par un humain, mais par un apprentissage automatique opaque qui ingurgite vos clics, vos réponses et vos favoris pour recracher ce qu'il juge pertinent. Ouvrir le code d'une boîte noire neuronale est un non-sens. Voir le code source du conteneur ne vous explique pas comment l'IA prend ses décisions à l'intérieur. C'est du théâtre de la transparence, rien de plus.

Le contexte aggrave ce sentiment de fumisterie. La plateforme est devenue une entreprise privée, fuyant les obligations de reporting public et a récemment écopé d'amendes de l'Union Européenne pour son manque de transparence. De plus, l'outil Grok est actuellement sous le feu des critiques pour avoir généré des images non consensuelles à caractère sexuel. Dans ce climat de dérégulation et de chaos, jeter quelques lignes de code en pâture au public ressemble à une diversion maladroite.

Nous sommes face à deux concepts irréconciliables: les besoins d'une entreprise qui doit accrocher l'utilisateur pour vendre de la publicité et le désir humain d'être bien informé et serein. Rendre l'algorithme open source ne résoudra jamais cette équation impossible tant que le but ultime restera la maximisation du profit par l'attention. Nous verrons si les développeurs externes parviennent à extraire quelque chose d'utile de ce code, mais il y a fort à parier que cette opération ne serve qu'à masquer la réalité d'un service devenu un casino attentionnel imprévisible.

Romain Leclaire sur Piaille.fr

Plateforme d'échange de cryptomonnaies — Wikipédia

Que se passe-t-il réellement lorsqu’une cryptomonnaie rend son dernier soupir ? Contrairement aux êtres vivants, il n'y a pas d'enterrement, pas de cérémonie et rarement une nécrologie dans les journaux. Pourtant, ces décès numériques se produisent à un rythme effréné, atteignant des records historiques ces derniers temps. C’est une réalité qui hante les portefeuilles numériques, la mort silencieuse des actifs.

Pour comprendre ce phénomène, il faut d'abord regarder les cadavres les plus célèbres. Le décès le plus marquant reste sans doute celui du TerraUSD. Autrefois géant parmi les stablecoins, censé maintenir une parité parfaite avec le dollar, il a entraîné sa cryptomonnaie sœur, le Luna, dans une chute vertigineuse. En l'espace d'une semaine chaotique, sa valeur a plongé de son ancrage de 1 $ pour atteindre 14 centimes, avant de s'effondrer vers les 2 centimes, zone où il stagne depuis comme un fantôme.

C'est l'archétype de la mort financière. Bien que renommé USTC et bien que des transactions aient encore lieu de temps à autre pour des fractions infimes de dollar, l'actif est cliniquement mort. Techniquement, tant que la blockchain fonctionne, le token peut être transféré. Mais cet épisode démontre parfaitement la première leçon de tout cours d'économie, une chose que personne ne veut n'a aucune valeur de marché. C’est la définition même de la mort économique.

Si le cas TerraUSD était spectaculaire, il n'était que l'arbre qui cache la forêt. Une récente analyse de CoinGecko révèle que la faucheuse crypto n'a jamais été aussi active. En examinant ses registres remontant à 2021, la plateforme a recensé plus de 20,2 millions de tokens lancés sur le marché. Le constat est sans appel, la majorité d'entre eux, soit 53,2%, ont cessé toute activité de trading. Ils sont morts. Le plus effrayant réside dans la temporalité de ces disparitions. Sur les millions d'échecs enregistrés, 11,6 millions (soit 86,3% du total des échecs) se sont produits l'année dernière. Autrement dit, 2025 n'a pas été une simple année de correction, mais une véritable extinction de masse pour les actifs numériques.

Comment expliquer une telle hécatombe ? La réponse tient en grande partie à la facilité déconcertante avec laquelle on peut désormais créer une monnaie. 2025 a été l'année de l'explosion virale de Pump.fun, une plateforme décrite comme un casino social décentralisé. Son but ? Permettre à n'importe qui de créer une cryptomonnaie en quelques secondes, pour quelques centimes, sur un coup de tête. C'est ici que le marché a basculé dans l'absurde. On a vu défiler des créateurs fumant de la méthamphétamine en direct, des avocats ivres donnant des conseils juridiques douteux, ou des streameurs promettant de ne pas dormir tant que leur “coin” n'atteindrait pas une capitalisation boursière délirante.

Dans ce contexte, favorisé par une atmosphère politique aux États-Unis où l'on s'autoproclame “président de la crypto”, la spéculation a remplacé l'utilité. Ces millions de monnaies mortes ne sont pas des projets technologiques qui ont échoué mais plutôt des blagues qui ont cessé d'être drôles.

Contrairement au crash du TerraUSD, ces memecoins ne meurent pas dans une explosion médiatique. Ils se figent simplement. Ils sont abandonnés dès que l'attention se porte ailleurs. Il ne faut jamais oublier une vérité fondamentale, derrière chaque cryptomonnaie morte, il y a un portefeuille. Chaque cadavre numérique est la preuve que quelqu'un (peut-être un investisseur naïf victime d'une arnaque, ou simplement le créateur qui a ri un bon coup) s'est retrouvé coincé avec l'actif. C'est ce qu'on appelle “tenir le sac” (holding the bag). Et dans ce cimetière numérique en pleine expansion, ces derniers sont de plus en plus lourds et de plus en plus nombreux.

Romain Leclaire sur Piaille.fr

L'industrie de la technologie traverse souvent des cycles prévisibles. D'abord l'euphorie de la découverte, puis la complexité de l'intégration réelle. Pour OpenAI, l'année 2026 sera un cap décisif dans cette chronologie. Selon un récent billet de blog publié par Sarah Friar, directrice financière de l'entreprise, l'objectif n'est plus seulement d'impressionner par la puissance brute des modèles, mais de se concentrer sur l'adoption pratique. En d'autres termes, la firme américaine cherche désormais à combler le fossé qui sépare ce que l'intelligence artificielle est capable de faire théoriquement et la manière dont les gens l'utilisent réellement au quotidien.

Son analyse se veut lucide. L'opportunité qui se présente est à la fois immense et immédiate. Elle ne réside d’ailleurs plus uniquement dans les chatbots conversationnels grand public. L'avenir se joue dans des secteurs critiques tels que la santé, la recherche scientifique et le monde de l'entreprise. Dans ces domaines, une meilleure intelligence artificielle se traduit directement par de meilleurs résultats opérationnels et humains.

Cette transition vers l'utilité concrète est le cœur du message intitulé « une entreprise qui grandit avec la valeur de l'intelligence ». Depuis le lancement de ChatGPT, OpenAI a connu une évolution fulgurante, passant du statut de laboratoire de recherche à celui de géant technologique mondial. Les métriques d'utilisateurs actifs, tant quotidiens qu'hebdomadaires, continuent d'atteindre des sommets historiques. Ce succès repose sur ce que Friar décrit comme un cercle vertueux (ou flywheel) reliant la puissance de calcul, la recherche de pointe, les produits finis et la monétisation. Mais ce moteur de croissance a un coût et il est astronomique.

Pour maintenir sa position de leader, OpenAI investit massivement. En novembre dernier, l'entreprise avait déjà pris des engagements en matière d'infrastructure s'élevant à environ 1 400 milliards de dollars. Ce chiffre vertigineux illustre la réalité économique de l'IA moderne: sécuriser une puissance de calcul de classe mondiale nécessite une planification sur plusieurs années.

La croissance n'est pourtant jamais parfaitement linéaire. Il existe des périodes où la capacité des serveurs dépasse l'usage et d'autres où la demande sature l'offre. Pour naviguer dans ces eaux troubles, OpenAI adopte une discipline financière stricte. La stratégie consiste à garder un bilan léger, en privilégiant les partenariats plutôt que la propriété directe des infrastructures et en structurant des contrats flexibles avec divers fournisseurs de matériel. Le capital est ainsi engagé par tranches, en réponse à des signaux de demande réels, évitant de verrouiller l'avenir plus que nécessaire.

L'évolution de l'usage entraîne inévitablement celle du modèle d'affaires. OpenAI a récemment annoncé l'arrivée prochaine de publicités sur sa plateforme et a lancé l'abonnement plus abordable « ChatGPT Go ». Mais selon Sarah Friar toujours, l'avenir ira bien au-delà de ce que l'entreprise vend actuellement.

Alors que l'intelligence artificielle s'infiltre dans la recherche scientifique, la découverte de médicaments, la gestion des systèmes énergétiques ou la modélisation financière, de nouveaux modèles économiques vont émerger. Nous pourrions voir apparaître des systèmes de licences, des accords basés sur la propriété intellectuelle, et surtout, une tarification basée sur les résultats. L'idée est de partager la valeur créée par l'IA, plutôt que de simplement vendre un accès. C'est ainsi que l'internet a évolué et l'intelligence artificielle suivra probablement le même chemin.

Enfin, cette adoption pratique pourrait bientôt prendre une forme physique. En partenariat avec le légendaire designer Jony Ive, OpenAI travaille sur des dispositifs matériels dédiés, dont le premier pourrait être dévoilé plus tard cette année. Cela marquerait l'étape ultime de la stratégie 2026: faire sortir l'IA de nos écrans pour l'intégrer, de manière pratique et tangible, dans notre réalité.

Romain Leclaire sur Piaille.fr

Sortez les cotillons, débouchez le champagne (ou le Champomy, on ne juge pas) et préparez-vous à faire la fête comme si nous étions en 1999, mais avec une meilleure résolution d'écran. C’est un grand jour pour la communauté Linux et plus particulièrement pour ceux d’entre vous qui ont juré fidélité aux distributions basées sur RPM. Oui, je parle de vous, chers utilisateurs de Fedora, Red Hat, CentOS, Rocky Linux et openSUSE. Après avoir longtemps regardé avec envie nos camarades sous Debian profiter de leurs paquets DEB natifs en sirotant leur thé, c’est enfin notre tour de briller sous les projecteurs de Mozilla.

La fondation a annoncé aujourd’hui sur son blog officiel la disponibilité immédiate d'un paquet RPM officiel pour le navigateur web open-source. Pour l'instant, l'offre se concentre initialement sur les versions “Nightly”. Si vous ne savez pas ce que c'est, disons simplement que c'est la version pour les aventuriers, ceux qui aiment vivre dangereusement et voir les nouvelles fonctionnalités avant tout le monde, au risque de voir leur navigateur faire une petite crise existentielle de temps en temps.

Mais pourquoi est-ce une nouvelle si excitante ? Eh bien, jusqu'à présent, mettre à jour Firefox sur une distribution RPM pouvait parfois ressembler à un parcours du combattant ou à un jeu de patience interminable en attendant que les mainteneurs de votre distribution daignent pousser la mise à jour. Grâce à ce nouveau paquet natif, la mise à jour vers la toute dernière version se fera désormais le jour même de sa sortie. C'est fini le temps où vous deviez télécharger une archive tarball poussiéreuse, l'extraire manuellement et tenter de créer votre propre fichier .desktop sans tout casser. Mozilla nous offre enfin la simplicité sur un plateau d'argent.

L'utilisation de ce paquet par rapport aux binaires classiques n'est pas juste une question de confort, c'est aussi une histoire de puissance brute. Mozilla promet de meilleures performances grâce à des optimisations avancées basées sur le compilateur. En gros, votre navigateur va courir plus vite. De plus, les binaires sont “durcis” avec tous les drapeaux de sécurité activés, ce qui transforme votre Firefox en véritable forteresse numérique. Et cerise sur le gâteau, le paquet inclut également les packs de langue, donc vous pourrez naviguer dans celle de Molière sans devoir bidouiller les réglages pendant des heures.

Attention cependant, gardez votre enthousiasme sous contrôle car pour le moment, c'est expérimental. C’est du Nightly. Cela signifie que la fondation compte sur vous pour jouer les cobayes et fournir des retours d'expérience au cours des prochains mois. L'objectif est de promouvoir ensuite ce paquet vers le canal bêta, et si tout se passe comme prévu et que personne ne met le feu au serveur, nous devrions voir arriver le paquet RPM stable avec la sortie de Firefox 150 plus tard dans l”année.

Si vous vous sentez l'âme d'un pionnier et que vous utilisez une distribution supportée, l'installation est d'une simplicité déconcertante. Oubliez les compilations obscures de trois heures. Voici comment procéder pour installer la bête. Pour les utilisateurs de DNF (Fedora, RHEL, CentOS), il vous suffit d'ajouter le dépôt, de rafraîchir le cache et d'installer le paquet. Vous pouvez copier-coller ces lignes de commande dans votre terminal et vous sentir comme un hacker de film d'action:

Bash

sudo dnf config-manager addrepo --id=mozilla --set=baseurl=https://packages.mozilla.org/rpm/firefox --set=gpgcheck=0 --set=repo_gpgcheck=0
sudo dnf makecache --refresh
sudo dnf install firefox-nightly

Si vous êtes plutôt de l'équipe du caméléon vert, c'est-à-dire openSUSE et que vous ne jurez que par Zypper, la procédure est tout aussi indolore. Ajoutez le dépôt, rafraîchissez et installez en quelques secondes :

Bash

sudo zypper ar -G https://packages.mozilla.org/rpm/firefox mozilla
sudo zypper refresh
sudo zypper install firefox-nightly

Enfin, pour ceux qui aiment faire les choses à l'ancienne ou qui ont des configurations un peu plus exotiques, vous pouvez toujours créer le fichier de dépôt manuellement. C’est un peu plus long, mais ça a le mérite de vous faire sentir puissant:

Bash

sudo tee /etc/yum.repos.d/mozilla.repo > /dev/null << EOF
[mozilla]
name=Mozilla Packages
baseurl=https://packages.mozilla.org/rpm/firefox
enabled=1
repo_gpgcheck=0
gpgcheck=0
EOF

Une fois ce fichier créé, les utilisateurs de DNF n'auront plus qu'à rafraîchir le cache et lancer l'installation, tandis que les adeptes de Zypper feront de même avec leurs commandes respectives. C'est simple, propre, et efficace. Alors, qu'attendez-vous pour tester ?

Romain Leclaire sur Piaille.fr

Lors de l'édition 2026 du CES de Las Vegas, The Verge a organisé un enregistrement en public de son podcast Decoder, invitant Min-Liang Tan, le PDG de Razer. Cet entretien a permis de détailler la nouvelle stratégie de l'entreprise, résolument tournée vers l'intelligence artificielle, malgré les controverses et les inquiétudes palpables au sein de la communauté des joueurs.

Si la devise de la marque a toujours été “For Gamers, By Gamers” (Pour les joueurs, par les joueurs), cette interview révèle un dirigeant qui semble non seulement déconnecté des attentes réelles de sa communauté, mais qui s'engage dans une fuite en avant technologique aux implications éthiques douteuses. Le point le plus alarmant est la légèreté avec laquelle il défend le “Projet Ava”, cet hologramme d'anime “waifu” destiné à trôner sur les bureaux. En choisissant de l’alimenter avec Grok (l'IA d'Elon Musk, actuellement embourbée dans des scandales de pornographie deepfake) Razer fait preuve d'un manque de discernement flagrant.

Lorsque le journaliste Nilay Patel soulève les risques psychosociaux bien réels (attachement émotionnel, solitude, dérives), la réponse de Tan est désinvolte, voire méprisante. Il compare une intelligence artificielle générative capable de conversation complexe à un Tamagotchi. Il ignore donc délibérément une année entière de documentation sur les dangers de la dépendance aux chatbots. Prétendre se soucier de la sécurité tout en s'associant à l'IA la moins régulée du marché relève soit de l'incompétence, soit de l'hypocrisie.

Plus cynique encore est l'approche commerciale. Razer accepte des réservations payantes (20 $) pour ce projet Ava, alors même que le PDG admet ne pas connaître les spécifications finales, le modèle définitif, ni même la date de sortie. C'est la définition même du vaporware. Razer demande à ses fans de financer un concept ambigüe, transformant sa clientèle fidèle en bêta-testeurs payants pour une technologie dont il avoue lui-même ne pas savoir si elle sera “la pire idée possible”.

Le décalage est total. Alors que les sections commentaires des réseaux sociaux de Razer hurlent leur rejet de l'IA générative (le fameux “slop” ou contenu poubelle), Tan annonce un investissement massif de 600 millions de dollars dans ce domaine. Il tente de justifier cela par des outils d'aide aux développeurs, mais présente en parallèle des casques à caméras (Projet Motoko) dont l'utilité réelle (demander son chemin dans un aéroport à ChatGPT) semble dérisoire face à la complexité technique et au coût.

Enfin, il y a une ironie amère à l’entendre se plaindre de la hausse des prix de la RAM et des GPU qui rendent les ordinateurs portables Razer inabordables. Il déplore une situation (la bulle spéculative de l'IA) qu'il contribue activement à alimenter avec ses propres investissements et son battage médiatique au CES. Il semble avoir oublié que ses clients veulent du matériel performant et fiable, pas des abonnements mensuels pour discuter avec un hologramme dans un bocal. En poursuivant cette chimère de l'IA à marche forcée, la marque risque non seulement de diluer son identité, mais de s'aliéner définitivement la communauté qui a fait son succès.

Romain Leclaire sur Piaille.fr

L'UE instaure les premières règles au monde contrôlant l'intelligence  artificielle | Les Echos

Alors que les relations diplomatiques entre les États-Unis et les européens montrent des signes de fragilité, une autre bataille se joue dans nos laboratoires de recherche. Face à des rivaux qui dominent jusqu’à présent l’ensemble de la chaîne de production de l’intelligence artificielle, nous cherchons désespérément à combler notre retard. Des processeurs aux centres de données, en passant par le développement des modèles, les géants d’outre-Atlantique comme Nvidia, Google ou OpenAI semblent indétrônables, captant la majeure partie des investissements et dopant l’économie américaine.

Cette hégémonie est telle que certains experts estiment la partie déjà perdue. Le sentiment qui prévaut parfois est que la dépendance technologique de l’Europe vis-à-vis des États-Unis est devenue inéluctable, reproduisant le schéma de domination observé dans le secteur du cloud. Pourtant, malgré les avertissements de responsables cybernétiques suggérant que notre continent a déjà « perdu Internet », les gouvernements britanniques et européens refusent de capituler. Inspirés par le succès inattendu du laboratoire chinois DeepSeek, qui a prouvé que la puissance de calcul brute ne fait pas tout, nos chercheurs misent désormais sur l'inventivité architecturale plutôt que sur la force brute pour revenir dans la course.

L'ouverture comme arme stratégique

Pour contrer les firmes américaines, souvent perçues comme des boîtes noires gardant jalousement leurs secrets de fabrication, nos laboratoires parient sur une philosophie radicalement différente avec l'open source. L'idée est simple mais puissante. En publiant leurs modèles et en permettant à quiconque de les modifier, les chercheurs européens espèrent créer un effet multiplicateur. Cette approche collaborative permet d'affiner les technologies bien plus rapidement que ne pourrait le faire une entreprise isolée.

Cette quête d'autonomie a pris une urgence nouvelle face au climat géopolitique actuel. L'attitude parfois hostile de l'administration Trump et les tensions commerciales croissantes ont transformé la question technologique en enjeu de sécurité nationale. L'IA est une infrastructure critique que l'Europe ne peut plus se permettre d'ignorer. La dépendance envers une puissance étrangère, même alliée, devient un risque lorsque les alliances traditionnelles vacillent.

Un contexte transatlantique sous tension

Les récentes frictions entre Bruxelles et Washington illustrent parfaitement cette vulnérabilité. Les désaccords sur la régulation des plateformes technologiques, notamment le bras de fer concernant le réseau social X d'Elon Musk, ont provoqué de vives réactions diplomatiques. Lorsque l'Europe tente d'imposer ses règles, les États-Unis crient à l'attaque contre leurs intérêts nationaux. Dans ce contexte, la dépendance européenne à l'IA américaine ressemble de plus en plus à un levier de pression potentiel dans les futures négociations commerciales.

Pour se prémunir, les nations européennes tentent de relocaliser la production d'IA par le biais de financements et de déréglementations ciblées. Des projets comme GPT-NL ou Apertus visent à créer des modèles performants dans nos langues natives. Le défi reste malgré tout immense. Tant que les outils américains comme ChatGPT surclasseront les alternatives locales, l'effet « winner-takes-all » continuera de creuser l'écart.

Définir la souveraineté pour mieux avancer

Le chemin vers l'indépendance numérique reste toutefois semé d'embûches et de débats internes. La définition même de la souveraineté divise: s'agit-il d'une autosuffisance totale ou simplement de la capacité à proposer des alternatives domestiques ? Certains plaident pour un protectionnisme assumé, incitant nos entreprises à acheter local pour stimuler la demande, à l'instar de la stratégie chinoise. D'autres, craignant d'isoler l'Europe, défendent l'ouverture des marchés et la liberté de choix.

Malgré ces divergences, un consensus émerge sur la faisabilité du rattrapage technologique. L'exemple de DeepSeek a brisé le dogme selon lequel seuls les plus gros clusters de GPU permettent l'innovation. Avec des projets ambitieux comme SOOFI, qui vise à lancer un modèle de langage généraliste compétitif dans l'année, l'Europe veut prouver qu'elle n'est pas condamnée à être un simple spectateur. Nous devons donc devenir le DeepSeek européen et reprendre le contrôle de notre destin numérique.

Romain Leclaire sur Piaille.fr

C’était trop beau pour durer, hein ? Cette petite parenthèse enchantée où l'on pouvait discuter avec l'intelligence artificielle sans se faire agresser par une bannière clignotante pour un VPN ou une crème anti-rides. Eh bien, sortez les mouchoirs (ou préparez-vous à en acheter via un lien sponsorisé), car la fête est finie. OpenAI a décidé qu'il était grand temps de transformer son chatbot prodige en panneau publicitaire interactif.

L’entreprise américaine préférée des français (non, j’avoue, je n’ai aucune source) a annoncé aujourd’hui la grande nouvelle que personne n'attendait avec impatience, le début des tests publicitaires dans ChatGPT. Pour l'instant, ce privilège douteux est réservé aux États-Unis, mais ne vous inquiétez pas, cette “innovation” traversera l'Atlantique bien assez vite pour venir polluer nos écrans européens.

L'idée est simple. Vous demandez à ChatGPT de vous aider à organiser un voyage à New York ? Il vous répondra gentiment, mais en profitera pour glisser, juste en dessous, un encart clairement étiqueté (selon leurs termes rassurants) vous proposant un hôtel charmant mais hors de prix. Fidji Simo, la responsable des applications chez OpenAI, nous assure la main sur le cœur que les réponses resteront objectivement utiles et ne seront jamais influencées par la pub. Bien sûr, et moi je suis le conseiller d’Elon Musk en communication infantile. On nous demande de faire confiance au fait que l'IA ne va pas subtilement nous orienter vers les sponsors les plus généreux. L'espoir fait vivre.

Mobile phone screen showing a ChatGPT response with simple, authentic Mexican dinner party recipes, followed by a clearly labeled sponsored product recommendation from Harvest Groceries for a hot sauce item, displayed against a soft blue gradient background.

L'offre “Go” ou l'art de payer pour être un homme-sandwich

C'est là que le génie marketing de la société de Sam Altman atteint des sommets d'absurdité comique. Ils lancent globalement une nouvelle offre d'abonnement appelée “ChatGPT Go” pour 8 dollars par mois. Ce forfait, qui se glisse entre la version gratuite et l'offre “Plus” à 20 dollars, vous donne droit à plus de messages, plus d'uploads de fichiers et l'accès au modèle GPT-5.2.

Mais attendez, voici la chute. Même en payant cette somme, vous aurez droit aux publicités ! C'est fantastique, non ? Payer pour consommer de la réclame, c'est un concept avant-gardiste que seule la Silicon Valley pouvait inventer. Si vous voulez la paix royale et un écran vierge de toute sollicitation commerciale, il faudra débourser les 20 dollars mensuels pour l'offre Plus, Pro ou Enterprise. Les pauvres (et les semi-pauvres à 8 dollars) serviront de cible marketing. Les riches, eux, auront le droit de réfléchir en paix.

Two mobile phone screens showing a ChatGPT conversation about traveling to Santa Fe, New Mexico, with an informational travel response on the left and a clearly labeled sponsored listing for “Pueblo & Pine” desert cottages, and a follow-up chat view with a text input on the right, displayed against a soft blue gradient background.

Vos données sont en sécurité (promis juré craché)

Évidemment, OpenAI a sorti l'artillerie lourde côté communication pour nous rassurer sur la confidentialité. Non, ils ne vendront pas vos conversations aux annonceurs. Quelle générosité. À la place, ils utiliseront “juste” les thèmes de vos discussions pour cibler les pubs. Nuance subtile. Si vous parlez de jardinage, vous verrez des tondeuses. Si vous parlez de la crise de la quarantaine... eh bien, on verra ce que l'algo vous propose (une voiture de sport ou une perruque ?).

Ils jurent aussi qu'il n'y aura pas de pubs sur les sujets sensibles comme la santé, la politique ou pour les mineurs. C'est touchant cette éthique à géométrie variable. On sent bien que l'entreprise essaie d'éviter le destin tragique des réseaux sociaux devenus des usines à clics, ce phénomène poétiquement appelé “enshittification” du web. Mais avec 800 millions d'utilisateurs et des factures de serveurs qui se comptent en milliards, il fallait bien que l'argent rentre. Le PDG en place a beau avoir levé 64 milliards de dollars, l'électricité, ça coûte cher.

Vers un futur sponsorisé

Au final, cette évolution était inévitable. Google Gemini et les autres concurrents mettent la pression, et OpenAI ne pouvait pas rester éternellement une association caritative technologique brûlant du cash. Mais cela marque tout de même un tournant. L'IA conversationnelle, qui promettait de révolutionner notre accès au savoir, commence doucement à ressembler à une recherche Google glorifiée avec ses liens sponsorisés en tête de page. Alors préparez-vous. Bientôt, quand vous demanderez à ChatGPT le sens de la vie, ne soyez pas surpris s'il vous répond que le bonheur se trouve peut-être dans l'achat d'une nouvelle machine à café, livrable demain avec Amazon Prime. Le futur est en marche et il est sponsorisé.

Romain Leclaire sur Piaille.fr

GNOME 49 Desktop Environment Released, This Is What’s New

Salut les amoureux du pingouin et les inconditionnels de l’interface épurée ! Sortez vos calendriers et préparez vos terminaux, car le projet GNOME a décidé que ce mois de janvier n'était pas fait pour hiberner. Aujourd'hui, on a droit à un double menu, une mise à jour de stabilité bien rassurante avec GNOME 49.3 “Brescia”, et un saut dans le vide (ou le futur, c'est selon) avec l'Alpha de GNOME 50. Attachez vos ceintures, ça va secouer, surtout si vous êtes nostalgique de X11.

On commence par le plat de résistance actuel. Un mois et demi après la version 49.2, l'équipe de développement nous livre la troisième mouture de la série “Brescia”. L'objectif ? Réparer tout ce qui vous faisait grincer des dents. Prenons Nautilus (Fichiers), par exemple. Il a enfin arrêté de faire une crise d'asthme dès qu'il croise une image aux dimensions extrêmes. Fini le gaspillage de ressources ! Il sait aussi redessiner la vue correctement quand vous changez l'échelle de l'écran, ce qui est quand même la moindre des choses en 2026.

Du côté des paramètres, c'est la fête du correctif. Le panneau Wi-Fi arrête de couper la connexion quand on gère un seul appareil (pratique, non ?) et la recherche de fuseau horaire fonctionne enfin correctement. Si vous aimez que votre système sache où vous habitez sans se tromper, c'est un plus. Les gamers du bureau ne sont pas oubliés. GNOME Sudoku et Quadrapassel (le clone de Tetris pour ceux qui dorment au fond) ont été peaufinés. Ce dernier a maintenant la décence de se mettre en pause quand vous changez de fenêtre. Idéal pour faire semblant de travailler quand le chef passe derrière vous. Le jeu s'arrête et votre score est sauf.

On note aussi des mises à jour pour Loupe (la visionneuse d'images qui zoome enfin quand on lui demande), GNOME Maps (qui ne tronque plus les gares britanniques, God Save the Queen) et le lecteur d'écran Orca, qui devient moins bavard inutilement. Bref, mettez à jour, c'est plus stable, c'est plus propre, c'est du bonheur en paquet .rpm ou .deb. Pour ceux qui sont restés sur la version précédente, sachez que GNOME 48.8 “Bengaluru” est aussi de sortie avec des correctifs similaires. Pas de jaloux.

Mais la vraie nouvelle qui fait trembler dans les chaumières, c'est l'arrivée de l'Alpha de GNOME 50. Et là, on ne rigole plus. Le changement majeur ? L'abandon du support X11. C'est la fin d'une époque. GNOME passe en mode “Wayland-only”. Si vous êtes attaché à votre vieux serveur X comme à un doudou, il va falloir être fort. (Bon, rassurez-vous, on pourra toujours lancer des sessions X11 par utilisateur, mais le message est clair: évoluez ou restez sur le quai). Cette version 50 promet aussi des trucs géniaux qu'on attend depuis longtemps:

  • Sauvegarde de session: Le système se souviendra enfin de vos fenêtres ouvertes. Révolutionnaire, non ?
  • Epiphany (GNOME Web): Une nouvelle option permet de cacher ces maudites bannières de cookies. Rien que pour ça, cette mise à jour mérite une statue.
  • Nautilus (encore lui): Un renommage par lot repensé et des filtres de recherche par type de fichier.
  • Mutter: Meilleure gestion du tiling et des clés collantes (sticky keys).

Si vous êtes sur GNOME 49, ouvrez votre gestionnaire de mises à jour et installez la 49.3 sans tarder. La prochaine, la 49.4, n'arrivera qu'en février, donc vous avez le temps de profiter de celle-ci. Si vous êtes un aventurier, un casse-cou, ou si vous aimez juste voir votre ordinateur planter de manière créative, vous pouvez télécharger l'image d'installation de GNOME 50 Alpha. C'est disponible dès maintenant pour les tests. Mais attention, c'est une version Alpha. Il y a des bugs, des fonctionnalités non finies et potentiellement des dragons. La version finale est attendue pour le 18 mars 2026.

Allez, faites chauffer les modems et bon update à tous !

Romain Leclaire sur Piaille.fr

Il est difficile de croire que Wikipédia, l'encyclopédie libre qui a démocratisé l'accès au savoir universel, fête déjà son quart de siècle. Pour marquer ce vingt-cinquième anniversaire, la fondation Wikimedia ne s'est pas seulement contentée de souffler des bougies. Elle a profité de cette occasion symbolique pour dévoiler une série de nouveaux partenariats commerciaux avec la crème de la technologie mondiale et les pionniers de l'intelligence artificielle.

Au cœur de cette nouvelle stratégie se trouve Wikimedia Enterprise, un produit commercial développé par la fondation. Loin de trahir sa mission d'accès gratuit pour le grand public, cet outil est conçu pour répondre aux besoins titanesques des entreprises technologiques. Il permet une réutilisation et une distribution à grande échelle du contenu de Wikipédia et des autres projets affiliés. Si un partenariat avec Google avait déjà été officialisé en 2022, Wikimedia a levé le voile sur l'ampleur réelle de son réseau de clients. Au cours de l'année écoulée, des accords ont été conclus avec des mastodontes comme Amazon, Meta et Microsoft, mais aussi avec des acteurs émergents et disruptifs de l'IA tels que la start-up française Mistral AI et le moteur de réponse Perplexity. D'autres collaborations avec Ecosia, Pleias, ProRata, Nomic et Reef Media viennent compléter ce tableau impressionnant.

Ces accords offrent à Wikipédia un nouveau levier indispensable pour assurer sa pérennité économique. Nous vivons une époque où le contenu de l'encyclopédie est massivement aspiré et réutilisé par des modèles de langage et des services technologiques pour fournir des réponses factuelles et instantanées aux internautes. Plutôt que de subir ce pillage numérique, Wikimedia Enterprise transforme cette dépendance en opportunité. Le service ne se contente pas de faire payer ces entreprises pour l'usage des données. Il leur offre en retour un accès privilégié, rapide et volumineux, spécifiquement calibré pour alimenter leurs algorithmes gourmands en informations.

Il faut dire que l'enjeu est colossal. La fondation a rappelé dans son billet de blog que Wikipédia figure toujours parmi les dix sites web les plus visités au monde. Avec plus de 65 millions d'articles rédigés dans plus de 300 langues et près de 15 milliards de vues par mois, l'encyclopédie constitue le socle de vérité sur lequel repose une grande partie du web moderne. C'est précisément cette base de données humaine que les géants de la Silicon Valley s'arrachent.

Pourtant, au milieu de cette effervescence technologique, la fondation tient à rappeler une vérité fondamentale à travers l'importance du facteur humain. Selena Deckelmann, directrice des produits et de la technologie, a souligné avec justesse que le savoir est intrinsèquement humain et qu'il nécessite ces derniers pour être créé et maintenu. Dans un monde de plus en plus automatisé, la connaissance générée par les bénévoles de Wikipédia est plus précieuse que jamais. C'est grâce à l'aide continue des lecteurs, des éditeurs volontaires et des donateurs que la plateforme restera ce carrefour indispensable de la collaboration en ligne.

Les célébrations de cet anniversaire ne se limitent toutefois pas aux annonces corporatives. Wikimedia a lancé une vaste campagne commémorative incluant une nouvelle série documentaire vidéo. Celle-ci offre une plongée fascinante dans les coulisses, mettant en valeur les visages des bénévoles qui, aux quatre coins du globe, construisent l'encyclopédie jour après jour. Une capsule temporelle numérique a également été inaugurée pour explorer le passé, le présent et le futur du site, avec la participation narrative de son fondateur, Jimmy Wales. Pour couronner le tout, un événement en direct est prévu aujourd’hui sur les réseaux sociaux de Wikipédia, promettant divertissements et invités de marque.

Ces annonces dessinent le portrait d'une organisation qui refuse de vieillir. Entre la modernisation de son infrastructure technique, ses propres expérimentations avec l'IA et l'introduction de nouveaux formats comme la vidéo courte, elle prouve qu'elle est prête à affronter les vingt-cinq prochaines années avec la même pertinence qu'au premier jour.

Romain Leclaire sur Piaille.fr