"Il n'existe rien de constant si ce n'est le changement" BOUDDHA; Nous devons apprendre à vivre ensemble comme des frères, sinon nous allons mourir tous ensemble comme des idiots." MARTIN LUTHER-KING; "Veux-tu apprendre à bien vivre, apprends auparavant à bien mourir." CONFUCIUS ; « Nous savons qu’ils mentent, ils savent aussi qu’ils mentent, ils savent que nous savons qu’ils mentent, nous savons aussi qu’ils savent que nous savons, et pourtant ils continuent à mentir ». SOLJENITSYNE
mercredi 13 août 2025
lundi 5 mai 2025
vendredi 21 février 2025
L’IA accélère
Source : https://lesakerfrancophone.fr/lia-accelere
Par Simplicius Le Penseur – Le 16 Janvier 2025 – Source Dark Futura
Les entreprises technologiques ont intensifié leurs efforts pour transformer nos réalités en simulacres synthétiques de post-vérité où tout est réel et rien n’est réel, où les « faits » ne sont que des vecteurs de monnaie publicitaire et où la réalité elle-même est pasteurisée en bouillie servant les récits des investisseurs en capital-risque.
Certains ont peut-être remarqué la prépondérance des réponses faites par des robots d’intelligence artificielle sur Twitter et ailleurs, l’internet tout entier devenant peu à peu un cloaque industriel de datamosh d’intelligence artificielle malencontreusement oublié. La recherche sur Google est devenue « inutilisable » – c’est ce qu’affirment des dizaines, voire des centaines de vidéos et d’articles soulignant que le moteur de recherche est désormais truffé de résultats privilégiant les services de spam payés par Google, les produits inutiles et autres déchets.
Sans compter que les résultats sont truffés d’informations sur l’IA, ce qui rend presque impossible l’extraction des informations nécessaires dans cette mer d’étrons :
De nombreuses personnes ont pris l’habitude d’utiliser un hack « before:2023 » dans les requêtes de recherche pour contourner la singularité du slop [bava, NdT], ou slopularité, qui entache désormais toutes les recherches.
L’ajout de la mention « before:2023 » peut améliorer vos recherches sur Google et vous débarrasser des contenus générés par l’IA.
Meta a annoncé une avalanche de nouveaux « profils » d’IA qui agiront comme des utilisateurs humains d’Instagram ou de Facebook en interagissant avec les gens. Dans quel but exactement ? Votre auteur n’en a pas la moindre idée.
Meta confirme qu’ils prévoient d’ajouter des tonnes d’utilisateurs générés par l’IA sur Instagram et Facebook Ils auront des biographies, des photos de profil et pourront partager du contenu.
L’intrépide chercheuse Whitney Webb semble être sur une piste – gardez cette pensée dans un coin en particulier pour plus tard :
Le livre de Kissinger/Eric Schmidt sur l’IA affirme en substance que la véritable promesse de l’IA, de leur point de vue, est d’être un outil de manipulation de la perception – qu’un jour les gens ne seront plus capables d’interpréter ou de percevoir la réalité sans l’aide d’une IA, par le biais de la diminution cognitive et de l’impuissance apprise. Pour que cela se produise, la réalité en ligne doit devenir tellement folle que les personnes réelles ne puissent plus distinguer le vrai du faux dans le domaine virtuel, de sorte qu’elles puissent devenir dépendantes de certains algorithmes pour leur dire ce qui est « réel ». S’il vous plaît, réalisez que nous sommes dans une guerre contre les élites sur la perception humaine et que les médias sociaux sont un champ de bataille majeur dans cette guerre. Gardez votre esprit critique et votre scepticisme et ne les abandonnez jamais.
Et cette partie mérite d’être répétée :
Pour que cela se produise, la réalité en ligne doit devenir si folle que les personnes réelles ne puissent plus distinguer le vrai du faux dans le monde virtuel, de sorte qu’elles deviennent dépendantes de certains algorithmes pour leur dire ce qui est « réel ».
Sérieusement, il suffit de jeter un coup d’œil au nouveau réplicant IA noir queer de Meta :
Il s’agit peut-être d’un débat philosophique, mais les IA peuvent-elles vraiment être « queer » ? Et qu’en est-il d’une IA en blackface qui s’approprie la culture et la personnalité par le biais de l’astroturfing ? Ces entreprises malades n’ont-elles aucune honte ?
Je veux dire, voyons :
C’est ahurissant.
Plus d’informations ici.
En fait, ces étranges opérations psychologiques déguisées en « profils d’IA » ont été un autre échec embarrassant pour Meta, les gens s’attachant rapidement à la façon dont tout cela est dystopique et brisé :
Le point évident étant que les réseaux de médias sociaux destinés aux humains pour soi-disant « former des liens plus profonds » sont maintenant délibérément peuplés par leurs créateurs avec des comptes de pacotille d’IA produisant de la merde pour se faire passer pour de vrais humains. S’agit-il simplement d’un stratagème de remplissage pour soutenir des entreprises moribondes comme Facebook, en les faisant paraître plus « actives » qu’elles ne le sont réellement ? Ou bien cette imposition digne de Black Mirror a-t-elle une connotation plus sombre ?
D’après Meta, cela fait partie d’une stratégie à long terme visant à stimuler l’« engagement » :
Meta fait le pari que des personnages générés par l’intelligence artificielle envahiront ses plateformes de médias sociaux au cours des prochaines années, car elle compte sur cette technologie en plein essor pour susciter l’engagement de ses 3 milliards d’utilisateurs.
Le groupe de la Silicon Valley déploie une gamme de produits d’IA, dont un qui aide les utilisateurs à créer des personnages d’IA sur Instagram et Facebook, alors qu’il se bat avec des groupes technologiques rivaux pour attirer et fidéliser un public plus jeune.
« Nous nous attendons à ce que ces IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes », a déclaré Connor Hayes, vice-président du produit pour l’IA générative chez Meta.
« Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l’IA sur la plateforme… c’est là que nous voyons tout cela aller », a-t-il ajouté.
En résumé, plus il y a d’« interactions » – c’est-à-dire de clics et de pages consultées, etc. -, plus il y a d’opportunités de placements publicitaires, d’exploitation de vos données et autres, et donc plus de revenus.
Le problème, c’est que dans leur volonté de maximiser les marges bénéficiaires d’une population de plus en plus désintéressée, ils transforment indirectement toute la réalité en un fatras synthétique. Tout cela se fait sans aucune prévision des conséquences sociales et culturelles – personne ne se demande quels types d’effets à long terme peuvent être attendus. La volonté d’utiliser rapidement l’IA comme une béquille ou de prendre de l’avance sur les concurrents se traduit par un lent effacement de l’expérience authentique.
Par exemple, les nouveaux téléphones n’enregistrent même plus la réalité, mais utilisent désormais l’IA pour « surévaluer » les images, créant ainsi un faux simulacre de détails artificiels qui n’existaient pas en réalité :
Tant que l’image « ressemble à peu près à ce que vous vous souvenez de la lune », tout devrait bien se passer, n’est-ce pas ? Mais à un moment donné, la mémoire collective de la chose réelle est-elle entièrement remplacée par la construction artificielle ?
Cette nouvelle tendance se répand partout. Même les cartes graphiques les plus récentes utilisent désormais l’IA pour, essentiellement, construire de faux pixels – une sorte de simulation dans la simulation :
Comme nous l’avons dit, l’IA sera bientôt utilisée pour combler paresseusement toutes les déficiences humaines et sociales possibles, sans se soucier des conséquences de deuxième et de troisième ordre.
Et conformément aux « utilisateurs générés » de Meta, les entreprises nous exploitent désormais pour créer des substituts de l’IA, même sans notre consentement :
Instagram teste la publicité avec VOTRE VISAGE – les utilisateurs se plaignent que des publicités ciblées avec leur apparence ont commencé à apparaître dans le fil d’actualité.
Le plus effrayant, c’est que vous avez utilisé Meta AI pour retoucher vos selfies.
Si vous utilisez l’un des derniers outils d’IA pour télécharger des photos de vous ou de votre famille, vous risquez de voir vos images utilisées dans des expériences grotesques d’IA à but lucratif telles que celles décrites ci-dessus. Ce n’est pas un hasard, il y a eu de nombreux cas de ce genre récemment :
Une YouTubeuse ukrainienne découvre des dizaines de clones d’elle faisant de la propagande chinoise et russe Chaque clone a une histoire différente et prétend être une personne réelle « Elle a ma voix, mon visage, et parle couramment le mandarin ».
Vidéo sur l’article original
Le type qui s’est prétendument fait exploser dans le Cybertruck Tesla aurait même utilisé l’IA pour planifier son attaque :
Le suspect de l’explosion de la camionnette électrique Tesla Cybertruck près de l’entrée de l’hôtel Trump International a utilisé l’intelligence artificielle générative (IA) ChatGPT pour planifier son crime, a déclaré le shérif de la police de la ville, Kevin McMahill, lors d’une conférence de presse.
Selon lui, il s’agit du premier cas connu d’utilisation de ChatGPT à de telles fins aux États-Unis. Selon les forces de l’ordre, le suspect du crime, Matthew Leavelsberger, voulait utiliser l’IA pour déterminer la quantité d’explosifs dont il aurait besoin pour commettre son attentat et savoir où il pourrait acheter le nombre de feux d’artifice nécessaires.
Même notre confortable maison de Substack serait en train d’être envahie :
Le rapport ci-dessus affirme que WIRED a payé certains des plus grands comptes Substack, afin d’accéder à leurs sections payantes, puis d’identifier le contenu rédigé par l’IA. Normalement, je mettrais cela sur le compte de faux positifs, étant donné que mes propres écrits ont été scannés comme étant « générés par l’IA » selon un utilisateur déconcerté – après quoi j’ai appris que ces « détecteurs d’IA » étaient très imparfaits. Mais c’était il y a un certain temps, et les choses ont probablement évolué depuis : à la suite des tests du rapport susmentionné, WIRED affirme que plusieurs des auteurs ont admis en privé qu’ils utilisaient en fait l’IA dans leur travail. Chers lecteurs, vous savez maintenant pourquoi je privilégie personnellement une prose aussi ornée, excentrique ou carrément « expérimentale » dans mes écrits, toujours soucieux de rester en tête de la courbe de l’IA. L’apocalypse terne qui s’annonce va probablement submerger l’ensemble de l’internet sous une couverture sans fin de grattages d’IA fades, procéduraux, de style passe-partout ; permettez-moi de partir dans un flamboiement de gloire décalée.
Il convient de noter que l’article précise que Substack avait l’un des plus faibles pourcentages de contenu sur l’IA de tous les dépotoirs d’écriture populaires tels que Medium :
Comparé à certains de ses concurrents, Substack semble avoir une quantité relativement faible d’écrits générés par l’IA. Par exemple, deux autres sociétés de détection de l’IA ont récemment découvert que près de 40 % du contenu de la plateforme de blogs Medium était généré à l’aide d’outils d’intelligence artificielle. Mais une grande partie du contenu suspecté d’être généré par l’IA sur Medium avait peu d’engagement ou de lectorat, alors que le contenu généré par l’IA sur Substack est publié par des comptes de premier plan.
Les auteurs ont même créé un badge « Certifiée Humain » pour les blogs qui ont réussi le test et envisagent un avenir où les rédacteurs pourront signaler leur humanité, un peu comme les étiquettes « entreprise appartenant à une femme ou à un LGBT » sur les cartes de Google.
Au cours des prochaines années, des badges et des sceaux similaires affirmant que les œuvres créatives sont à 100 % humaines pourraient proliférer à grande échelle. Ils pourraient donner aux consommateurs inquiets l’impression de faire un choix plus éthique, mais il est peu probable qu’ils ralentissent l’infiltration régulière de l’IA dans les industries des médias et du cinéma.
J’ai décidé de me badger à titre préventif, juste au cas où :
Mais je ne suis pas le seul à remarquer ce déclin généralisé.
Ce récent article du Financial Times met en lumière la descente bizarre de la culture Internet dans la folie du kitsch-singularité en phase terminale :
Les images bizarres d’un Jésus rose et visqueux fait de crevettes n’étaient probablement pas ce que l’entreprise OpenAI avait à l’esprit lorsqu’elle a averti que l’intelligence artificielle pourrait détruire la civilisation. Mais c’est ce qui arrive lorsqu’on met les nouvelles technologies entre les mains du public et qu’on lui dit qu’il peut en faire ce qu’il veut. Deux ans après le début de la révolution de l’IA générative, nous sommes entrés dans l’ère du « slop ».
La prolifération de contenus synthétiques de qualité médiocre comme Shrimp Jesus est en grande partie délibérée, conçue à l’aide d’invites bizarres à des fins commerciales ou d’engagement. En mars, des chercheurs des universités de Stanford et de Georgetown ont découvert que l’algorithme de Facebook avait été détourné par des contenus spammy issus de modèles texte-image tels que Dall-E et Midjourney. Le compte « Insane Facebook AI slop » sur X a tenu un compte courant. L’une des images favorites de la campagne électorale américaine montrait Donald Trump en train de sauver des chatons.
Petite parenthèse : avez-vous remarqué à quel point les nouvelles voix off de l’IA semblent « mortes », alors qu’elles ont complètement évincé le marché des documentaires sur YouTube ? Elles semblent très réalistes, mais plus vous les écoutez, plus vous commencez à manquer les minuscules nuances de sous-texte fournies par les inflexions naturelles d’un présentateur humain, ses pauses et d’autres dispositifs de communication bien ancrés dans les habitudes. L’écoute d’un narrateur humain donne une nouvelle dimension de sens – aussi subtile soit-elle – grâce à laquelle votre cerveau cherche naturellement à établir des liens de contexte entre le narrateur et le contenu, ce qui ouvre des voies d’imagination et vous rend indirectement plus réceptif au contenu présenté. Il manque quelque chose au narrateur IA, et le matériel lui-même – même s’il est magnifiquement produit – donne l’impression qu’il lui manque quelque chose.
Mais bien que tous les gadgets « stupides » et drolatiques de saturation de l’IA puissent sembler bénins, comme mentionné au début, beaucoup pensent qu’il s’agit d’une intensification délibérée destinée à nous piéger dans un tourbillon d’informations, à disperser la réalité dans une matrice « post-vérité » où nos nouveaux parrains de l’IA autoriseront de manière autoritaire nos nouvelles « vérités » au nom de leurs programmeurs.
Brandon Smith a abordé ce sujet dans un article paru l’année dernière :
En résumé, les globalistes souhaitent la prolifération de l’IA parce qu’ils savent que les gens sont paresseux et qu’ils utiliseront le système comme substitut à la recherche individuelle. Si cela se produit à grande échelle, l’IA pourrait être utilisée pour réécrire tous les aspects de l’histoire, corrompre les racines mêmes de la science et des mathématiques et transformer la population en un esprit de ruche baveux ; une écume bourdonnante de drones décérébrés consommant chaque proclamation de l’algorithme comme si elle était sacro-sainte.
En ce sens, Yuval Harari a raison. L’IA n’a pas besoin de devenir sensible ou d’utiliser une armée de robots tueurs pour faire beaucoup de mal à l’humanité. Il lui suffit d’être suffisamment pratique pour que nous n’ayons plus envie de penser par nous-mêmes. Comme le « Grand et Puissant » OZ qui se cache derrière un rideau numérique, vous pensez acquérir des connaissances auprès d’un magicien alors que vous êtes en réalité manipulés par des vendeurs d’huile de serpent globalistes.
Après tout, il suffit d’écouter ce que les élites technologiques au sommet du totem disent à propos de l’intégration de l’IA dans nos nouveaux paradigmes de contrôle à venir :
Naturellement, l’article indique que la société « Oracle » d’Ellison investit massivement dans l’IA. Il est intéressant de noter qu’Oracle mentionne qu’à l’avenir, même les voitures de police ne seront plus nécessaires, car les drones IA surveilleront la ville et poursuivront les suspects par eux-mêmes. Cela correspond à une initiative déjà mise en œuvre par le partenaire d’un autre titan de la technologie, Mark Andreessen, décrite ici :
Vidéo sur l’article original
Il explique comment la police de Las Vegas a désormais la « capacité de placer un drone sur n’importe quel cambriolage ou appel au 911 en 90 secondes ». Le drone peut alors suivre l’auteur de l’infraction et il est impossible d’échapper à ce genre de choses. Le plus intéressant, c’est qu’au-delà de l’utilité pédante de « sauver des vies » – ou de toute autre excuse bon marché qu’il donne -, Andreessen mise, comme on pouvait s’y attendre, sur le gros éléphant dystopique de la technologie : « L’effet dissuasif ».
Rayonnant d’une joie insensée, le tyran en puissance à tête de mollusque se délecte de la capacité des drones à susciter la peur chez les citoyens. Démontrant son incapacité à comprendre les conséquences de deuxième et de troisième ordre, il affirme en vain que… « Si vous savez qu’à Vegas, si vous ne pouvez pas vous défendre, vous ne pouvez pas vous défendre » :
Si vous savez qu’à Vegas, si vous entrez par effraction dans un 7-11 à 2 heures du matin, vous allez vous faire attraper par un drone, vous n’allez pas le faire, n’est-ce pas ?
Toute personne intelligente mettrait en balance le dangereux potentiel d’abus et les prétendus avantages d’un tel cas d’utilisation. Exemple d’expérience de pensée : à l’époque du Patriot Act et de la sécurité intérieure qui ont suivi le 11 septembre et qui ont vu la création de la TSA, comparez le nombre de crimes majeurs résolus par la TSA, ou de terroristes qu’elle a « pris sur le fait », au nombre d’abus à grande échelle commis par l’agence répressive à l’encontre de centaines de milliers de citoyens en colère. Un ou deux criminels attrapés ou des crimes résolus valent-ils la transformation totale de la société en un panopticon fondé sur la peur ?
Cela conduit à la question naturelle de la pente glissante : à quel moment s’arrête-t-on ? Au fur et à mesure que l’IA progresse, faut-il continuer à mettre en place une surveillance, des restrictions, un contrôle, etc. de plus en plus importants, jusqu’à ce que la criminalité et la souffrance humaine soient entièrement éliminées ? À quel moment cela se produirait-il ? Et la suite logique : pourquoi ne pas éliminer l’humanité elle-même, ou brancher tout le monde dans une « matrice » perpétuelle pour empêcher quiconque d’être « blessé » à nouveau – l’ultime telos du flocon de neige de la gauche radicale, semble-t-il. Il doit y avoir un moment où une ligne est tracée, et où les gens de sagesse reconnaissent et acceptent qu’un certain nombre de crimes et de souffrances sont le prix à payer pour vivre dans une société libre. Pourquoi ce simple calcul a-t-il toujours échappé à la compréhension des utopistes radicaux de gauche ?
Un peu plus de détails de la part du mollusque utopiste :
Vidéo sur l’article original
Vous vous souvenez de ceci ?
Vidéo sur l’article original
Une grande partie de ce qui précède, d’ailleurs, prend une tournure inquiétante au vu des récentes révélations concernant la mort du dénonciateur de l’OpenAI, Suchir Balaji. A l’heure où nous écrivons ces lignes, Tucker Carlson a publié une longue interview exclusive de la mère de Suchir, qui contient une série de révélations choquantes : elle conteste clairement que sa mort n’était pas un suicide comme on le prétendait, mais qu’il s’agissait presque certainement d’un meurtre-homicide. Regardez-la ici pour vous en convaincre :
https://x.com/TuckerCarlson/status/1879656459929063592
Parmi les innombrables preuves qu’elle apporte, on trouve ces trois faits essentiels :
- Tout son appartement était éclaboussé de sang
- La blessure par balle se trouve autour de son front, à un angle de 30 à 45 degrés vers le bas – un angle impossible à atteindre pour une blessure par balle auto-infligée.
- Plus étrange encore : des morceaux d’une perruque éclaboussée de sang auraient été retrouvés, dont les fibres ne correspondent pas aux cheveux de Suchir.
Tout cela pour dire que ces entreprises technologiques jouent le tout pour le tout. Il est de notoriété publique qu’OpenAI a presque entièrement fusionné avec l’État profond gouvernemental, avec des personnes comme Will Hurd, officier de la CIA, et Paul Nakasone, chef de la NSA, qui ont rejoint le conseil d’administration d’OpenAI. Cela signifie que des entreprises comme OpenAI ne sont que des extensions de puissants intérêts gouvernementaux qui ne respectent pas les règles et qui ont l’habitude d’« éliminer » toute personne susceptible de représenter une menace pour leur ordre technocratique. Will Hurd, soit dit en passant, aurait également siégé au conseil d’administration d’In-Q-Tel, célèbre pour avoir financé Google et ses connexions avec Facebook :
En résumé, si vous vous attaquez à OpenAI, vous vous exposez à des gens mal intentionnés qui protégeront leurs actifs à tout prix.
Il est amusant de constater que, reprenant le célèbre discours d’Eisenhower sur le complexe militaro-industriel du 17 janvier 1961, Biden a mis en garde hier soir, dans son propre discours d’adieu, contre la montée d’un « complexe technico industriel » et d’une oligarchie qui représentent une menace pour les États-Unis. Comme toujours, Biden et ses larbins ne se sont jamais préoccupés de tout cela lorsque Soros, Adelson, Murdoch, Koch, Pritzker et les nombreux autres milliardaires finançaient des causes favorables à l’establishment. Maintenant qu’une paire de milliardaires a émergé avec Trump et Musk qui ont pris position contre l’orthodoxie, c’est soudainement une alarme de panique pour le « complexe technico industriel ».
Mieux vaut tard que jamais, je suppose.
En attendant, la matrice big-tech-big-intel va continuer à pomper du slop pour réorganiser notre rapport à la vérité et à la réalité afin de faciliter l’injection de leurs petites faussetés quotidiennes.
Vidéo sur l’article original
Simplicius Le Penseur
Traduit par Hervé, relu par Wayan, pour le Saker Francophone
"Comprendre la conscience pour retrouver notre souveraineté" entretien avec Philippe Guillemant + conférence "la physique de la conscience vers un réveil de l'humain"
Des informations et des réactions que vous ne lirez pas dans la presse mainstream Philippe Guillemant explique la physique de la conscience: un enjeu scientifique aux implications politiques et spirituelles.
Publié sur Essentiel News le 19 février 2025 Article de Senta Depuydt Et si le véritable enjeu pour l’humanité était de comprendre qui elle est? À l’heure où ladite “intelligence artificielle” est présentée comme un nouveau démiurge, la question paraît centrale dans notre évolution. Pour le physicien et spécialiste en “intelligence artificielle” Philippe Guillemant, il y a urgence à comprendre la physique de la conscience. Car si nous voulons faire advenir le monde que nous souhaitons, il faut connaître la nature de notre intelligence et la manière de faire appel à notre pouvoir créateur. Essentiel News vous propose l’intégralité de la conférence “La nouvelle physique de la Conscience vers le réveil de l’humain“, organisée le 2 février 2025 au Centre de l’Étoile à Thonon-les-Bains en Haute-Savoie, ainsi qu’un entretien avec la journaliste Senta Depuydt dans lequel Philippe Guillemant explique pourquoi ce défi est fondamental et en quoi il revêt une importance politique. En voici quelques passages clés. Pourquoi l’urgence? Selon Philippe Guillemant, il est crucial aujourd’hui de comprendre la physique de la conscience, car elle permet de réaliser que notre conscience est fondamentalement créatrice et que nous avons véritablement un libre arbitre. Or la science que l’on enseigne encore trop souvent maintient une vision déterministe de la réalité avec des scénarios préétablis. Les sciences actuelles, et la physique en particulier, introduisent le hasard de multiples façons quand elles n’ont pas de réponse ou quand elles ont quelque chose à cacher, plutôt que d’invoquer l’influence de la conscience. Comprendre qu’il n’y a pas de hasard et que la conscience est créatrice d’une réalité unique parmi un réel sous-jacent de possibilités multiples implique l’existence du libre arbitre. Mais ce libre arbitre est souvent inhibé par nos conditionnements et n’est alors pas véritablement exercé. Grâce à la compréhension de la nature de la conscience, nous avons la possibilité de nous en “déconditionner”, de nous réveiller et de récupérer cette faculté qui fait de nous des êtres souverains. Pour Philippe Guillemant:
Un enjeu politique Comme il le précise dans sa conférence (voir la vidéo en bas de cet article), la science devrait s’interdire le hasard et toujours chercher à expliquer ce qu’elle ne comprend pas, mais s’étant construite en opposition à la religion, elle s’y refuse. Pourtant, que ce soit dans le domaine de la physique, de la biologie et même ailleurs, les conceptions déterministes sont aujourd’hui falsifiées. L’on sait que la conscience n’est pas une sécrétion du cerveau, que le monde réel est quantique et de nature multiple et que l’observateur est susceptible d’influencer son expression dans ce que nous percevons comme “l’ici et maintenant”. La connaissance et la compréhension de ces phénomènes quantiques représentent un pouvoir de création et de liberté qui a aussi une implication politique. C’est d’ailleurs ce qui a poussé Philippe Guillemant à publier un livre intitulé “le grand virage de l’humanité” en mai 2021. Il rappelle que:
Les limites du transhumanisme et de l’intelligence artificielle Comment faut-il alors interpréter les déclarations politiques récentes, comme par exemple le projet Stargate aux États-Unis, qui annoncent des investissements massifs dans l’IA et qui semblent précipiter une ère technocratique où l’humain serait dépassé? Pour Philippe Guillemant, l’intelligence artificielle est “mal nommée”.
Le pouvoir de la conscience humaine Pour éviter ce piège, il est donc important d’appréhender l’intelligence humaine dans ses dimensions multiples. On a confondu l’intelligence avec l’intelligence analytique et le langage en mettant de côté ce qui est du domaine perceptif, principalement l’intuition, les sentiments et les émotions, que l’on attribue souvent à notre “cerveau droit”. La science écarte cela car elle ne peut le mesurer puisque c’est subjectif, et si on ne peut le mesurer… on ne peut le contrôler. Pourtant l’on voit bien que les intuitions qui nous guident à prendre des décisions dans notre vie ne proviennent pas de cet endroit. Guillemant précise:
Transformer l’avenir Avec la physique quantique, les physiciens ont renversé la conception du temps et de la matière et ils sont en train de remettre en question celle de l’espace en le considérant comme un phénomène émergeant et non pas une réalité fondamentale. Nous savons que notre réalité est constituée d’information, de vibrations et d’énergie. Mais il faut distinguer ce réel sous-jacent (quantique, multiple) de notre réalité apparente unique, faite d’espace, de temps et de matière, et qui est en fait une propriété de la conscience créée à partir des objets que l’on perçoit.
Aujourd’hui, les sciences et la physique doivent subir une transformation en profondeur et remettre la conscience au premier plan. Ce n’est pas la matière qui engendre la conscience, c’est la conscience qui engendre la matière.
À voir aussi : Fil Telegram de Philippe Guillemant Kairos : @philippeguillemant Réseau de solidarité et d’échanges Sinaps synchronicités Le film Wake-Up 2, tout est information, dans lequel Philippe Guillemant intervient, actuellement au cinéma :https://www.wake-uplefilm.com/projections Activités de La Ruche au Centre de l’Etoile à Thonon-les-Bains en Haute-Savoie (74200) Extraits d’une réflexion sur la mystification de l’IA que Philippe Guillemant a postée sur son canal Telegram : Je vois un certain nombre d’amis, parmi lesquels des personnalités bien connues, tomber dans le piège de la mystification autour de l’intelligence artificielle, c’est-dire se mettre à : – Croire que l’I.A. est vraiment intelligente, possiblement plus que l’humain, sans s’être vraiment demandé au préalable sur quoi repose l’intelligence réelle. – Croire que l’I.A. pourrait être mieux placée que l’humain pour décider, choisir et même créer, etc., sans s’être demandé au préalable sur quoi reposent le libre arbitre et la créativité. – Croire que de l’I.A. pourrait émerger une conscience, sans s’être vraiment demandé au préalable ce que pouvait être la nature de la conscience, ou encore de l’humain ou de son âme. Tout cela est dû à la fascination devant les performances de l’I.A. et je dois dire qu’elles m’impressionnent tout autant. Cela n’étant toutefois valable que dans un premier temps, car dans un second temps, après un certain nombre de tests, je m’aperçois vite des limites de l’I.A., qui rejoignent parfaitement ma compréhension de ses performances. L’I.A. est un outil, pas une intelligence. Lorsque les performances de l’I.A. ne sont pas comprises et qu’elles dépassent nos capacités, nous pouvons avoir l’impression que quelque chose vient de dépasser l’humain. Ce n’est bien entendu qu’une apparence. Et même lorsqu’on suppose que l’I.A. nous apporte quelque chose de nouveau qui n’est pas proprement humain, on se trompe lourdement. Pour ce qui est de la « fausse intelligence exécutive » qu’elle incarne, nous n’avons là que de l’humain : l’intelligence du web ou des datas qui nourrissent l’I.A., l’intelligence dans l’algorithme (petit bout de code), l’intelligence des développeurs, l’intelligence de la société qui oriente son apprentissage et par-dessus tout, l’intelligence de l’utilisateur, lorsqu’il a compris qu’il avait affaire à un outil et ne s’est pas laissé subjuguer par ses performances. Tout ceci ne veut pas dire que je vais m’abstenir personnellement d’utiliser l’I.A. Bien au contraire, étant conscient de ce que je peux lui confier et de ce dont je dois conserver le contrôle, je risque de faire de véritables prouesses avec l’IA. La question de savoir si elle sera ou non profitable à l’humain dépend ainsi de notre positionnement devant elle : – Soit, nous choisissons de rester dans l’ignorance ou l’incompréhension engendrée par la mystification entretenue par l’oxymore « Intelligence Artificielle », et nous deviendrons esclaves de ceux qui financent, nourrissent et manipulent l’I.A. en vue d’un contrôle. – Soit, nous choisissons de nous éveiller à la véritable nature de l’humain et de la réalité et nous parviendrons alors à remettre l’I.A. à sa bonne place d’esclave, pour ne jamais lui déléguer la moindre de nos décisions, mais la laisser nous instruire de la meilleure des façons possibles, via le multivers de réponses possibles et contradictoires dont elle dispose. En conclusion, je vous propose de méditer cette phrase de Kant dans « Critique de la raison pure » : « L’intelligence d’un individu se mesure à la quantité d’incertitudes qu’il est capable de supporter ». (Bien d’accord avec Kant!) La lettre de Senta est une publication soutenue par les lecteurs. Pour recevoir de nouveaux posts et soutenir mon travail, envisagez de devenir un abonné gratuit ou payant. |
jeudi 2 janvier 2025
CHASSE AUX PAUVRES INFORMATISÉE
Derrière le mythe de la modernisation et de la numérisation des administrations sociales, il y a une autre réalité : celle du renversement d'une mission de solidarité vers un rôle de surveillance et de contrôle des personnes précaires au moyen d'algorithmes de notation. Retrouvez notre page de campagne recensant notre travail sur la gestion algorithmique des populations, que l'on appelle « France Contrôle » https://www.laquadrature.net/franceco... Nous avons besoin de votre aide pour continuer ce combat ! Alors si vous le pouvez, faites un don sur https://www.laquadrature.net/donner/
dimanche 1 décembre 2024
La route vers l’utopie de l’IA pavée de splendeurs (vides)
Par Simplicius Le Penseur – Le 16 octobre 2024 – Source Dark Futura
Le mois dernier, Sam Altman a écrit un billet de blog fantaisiste qui a suscité des discussions au sein de l’industrie technologique. Il l’a intitulé « L’ère de l’intelligence ».
La thèse principale de ce billet narcotiquement optimiste est la suivante :
Dans les prochaines décennies, nous serons capables de faire des choses qui auraient semblé magiques à nos grands-parents.
C’est presque tout ce qu’il faut savoir pour comprendre l’essentiel des croyances fondamentales d’Altman et de sa cohorte, ou même de leur ethos, qui les poussent à une accélération quasi obsessionnelle vers la singularité de l’IA – ou ce qu’ils conçoivent comme telle.
Cela a toutes les caractéristiques d’un utopisme aveugle. Les exemples de réalisations à venir qu’il donne semblent être myopes et se limiter à des effets de premier ordre, sans jamais prendre en compte les conséquences de deuxième ou troisième ordre, comme cela devrait être le cas en toute responsabilité. Passons en revue quelques-unes d’entre elles avant de passer à un examen plus large de notre avenir potentiel sous la direction de cette classe actuelle de leaders d’opinion dans le domaine de la technologie.
Cela ne se fera pas d’un coup, mais nous pourrons bientôt travailler avec une IA qui nous aidera à accomplir bien plus de choses que nous n’aurions jamais pu le faire sans elle ; à terme, nous pourrons tous disposer d’une équipe d’IA personnelle, composée d’experts virtuels dans différents domaines, qui travailleront ensemble pour créer presque tout ce que nous pourrons imaginer. Nos enfants auront des tuteurs virtuels qui pourront leur fournir un enseignement personnalisé dans n’importe quelle matière, dans n’importe quelle langue et à n’importe quel rythme.
Il s’appuie sur l’idée que l’IA nous facilitera la vie et le travail. Mais cette seule idée pose de nombreux problèmes.
Tout d’abord, pourquoi nos emplois seraient-ils valorisés et nos niveaux de salaire maintenus une fois que les employeurs se rendront compte que la majeure partie, voire une partie importante, du travail est effectuée ou améliorée d’une manière ou d’une autre par cet « assistant » ? Cela ressemble à une recette pour plus de violations des droits du travail et une autre « ère » de croissance salariale minimale ou nulle.
Deuxièmement, il affirme que les « tuteurs » de l’IA formeront vos enfants. À quoi les tuteurs de l’IA les formeraient-ils exactement ? Dans un avenir dominé par l’IA, les emplois pourraient être quasiment inexistants, à l’exception des quelques ingénieurs choisis pour gérer les algorithmes de l’IA. Ainsi, si l’IA peut vous « former », cette formation pourrait bien n’avoir aucune valeur. Il y a ici une nette déconnexion entre la cause et l’effet économiques. La promesse est essentiellement que l’IA « augmentera » nos emplois et nos activités – ceux-là mêmes que l’IA est censée rendre obsolètes et éliminer.
Grâce à ces nouvelles capacités, nous pourrons bénéficier d’une prospérité partagée à un degré qui semble inimaginable aujourd’hui; à l’avenir, la vie de chacun pourra être meilleure que celle de n’importe qui aujourd’hui. La prospérité à elle seule ne rend pas nécessairement les gens heureux – il y a beaucoup de riches malheureux – mais elle améliorerait de manière significative la vie des gens dans le monde entier.
Et voilà qu’il repart dans un élan d’euphorie. L’IA qui fait tout à notre place, qui prend nos emplois, etc., va en quelque sorte donner plus de sens à nos vies au lieu de les laisser comme des enveloppes vides et brisées. La « prospérité » est l’un de ces mots magiques qui semblent se définir d’eux-mêmes au fur et à mesure qu’on les prononce, sans véritable contexte. Les élites technologiques le brandissent comme des teintures colorées dans une frénésie de Holi, mais elles ne se soucient jamais d’en donner une définition tangible. Il ne s’agit que de platitudes superficielles et de blandices à peine supérieures à celles des relations publiques d’entreprise, destinées à nous faire accepter aveuglément des changements sociétaux radicaux et non demandés. Mais même le créateur du Segway a au moins tenté de présenter une vision concrète, assortie d’exemples et de cas d’utilisation spécifiques, de la manière dont son invention redéfinira l’avenir « pour le meilleur ». Ces gens ne se donnent même pas la peine d’accepter que la « grande abondance » et l’inimaginable « prospérité partagée » s’infiltrent obscurément en nous.
Je pose à nouveau la question : comment une chose qui nous prive de sens d’une main pourrait-elle en même temps nous en donner de l’autre ? L’histoire a montré que lorsqu’on prive un peuple de son autosuffisance et de sa capacité à créer sa propre prospérité, on ne le baigne pas dans une « prospérité » illimitée, mais on l’asservit plutôt aux propriétaires des « moyens de production », pour reprendre une expression marxiste qui fait mouche.
En fait, Altman est tellement amoureux de cette phrase creuse qu’il l’utilise deux fois :
Nous pouvons dire beaucoup de choses sur ce qui pourrait arriver ensuite, mais la principale est que l’IA va s’améliorer avec l’échelle, ce qui conduira à des améliorations significatives de la vie des gens dans le monde entier.
Son deuxième usage n’est pas plus étayé que le premier – son invocation est encore une fois jetée en l’air, comme des boucliers ou des libations sur la scène d’une foire d’empoigne.
Les modèles d’IA serviront bientôt d’assistants personnels autonomes qui effectueront des tâches spécifiques en notre nom, comme la coordination des soins médicaux.
La technologie nous a fait passer de l’âge de pierre à l’âge agricole, puis à l’âge industriel. À partir de là, le chemin vers l’ère de l’intelligence est pavé de calcul, d’énergie et de volonté humaine.
Encore une fois : des assistants personnels pour quoi, exactement, des tâches de données récursives sans intérêt ? Nous, en tant que bio-bots, utilisant des assistants IA simplement pour programmer, augmenter et maintenir plus d’IA? L’IA en tant qu’« assistant médical » pour nous réconforter dans le module d’euthanasie alors que nous « sortons » de l’ennui et de l’anomie ?
Si nous voulons mettre l’IA à la portée du plus grand nombre, nous devons réduire le coût de l’informatique et la rendre abondante (ce qui nécessite beaucoup d’énergie et de puces). Si nous ne construisons pas suffisamment d’infrastructures, l’IA sera une ressource très limitée qui fera l’objet de guerres et deviendra principalement un outil pour les riches.
Mais qui a dit que la société voulait que l’IA soit massivement entre ses mains ? Quelle étude sociale majeure ou quelle série d’enquêtes de grande envergure est parvenue à cette conclusion ? En fait, il donne l’impression d’être le porte-parole des industriels dans leur quête perpétuelle d’augmentation de la productivité au détriment des salaires. Et bien sûr, le paragraphe ci-dessus met le doigt sur la véritable intention qui se cache derrière la façade schmaltzy feel-good de ce discours puéril : il s’agit d’un appel sournois au financement de la campagne d’« infrastructure » d’Altman, celle-là même qui l’enrichira à hauteur de plusieurs milliers de milliards. Il souhaite que les gouvernements du monde entier subventionnent l’expansion massive de la production d’énergie et des centres de données afin que sa propre entreprise non réglementée puisse hériter du monde sans contestation.
Je pense que l’avenir sera si brillant que… l’une des caractéristiques de l’ère de l’intelligence sera la prospérité massive.
Le voilà qui se pâme à nouveau sur une prétendue « caractéristique déterminante » qu’il refuse de définir – la même vieille banalité négligente de « prospérité ».
Bien que cela se produise progressivement, des triomphes stupéfiants – la réparation du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique – finiront par devenir monnaie courante.
Ce n’est pas seulement d’une vanité monumentale et d’un égoïsme excentrique qu’il s’agit, c’est aussi d’un danger stupéfiant. Le petit garçon imbécile qui joue à Dieu va-t-il « réparer » le climat ? Il a la prétention de défier la nature elle-même pour la suprématie, comme s’il était le seul à posséder le schéma directeur de la vie naturelle ? La nature n’a pas besoin d’être réparée, mais nous pouvons certainement conclure qu’elle a besoin de l’être après avoir lu cette juvénilité prétentieuse et bouffie d’orgueil.
Enfin :
Comme nous l’avons vu avec d’autres technologies, il y aura aussi des inconvénients… mais la plupart des emplois évolueront plus lentement qu’on ne le pense, et je ne crains pas que nous manquions de choses à faire (même si elles ne ressemblent pas à de « vrais emplois » pour nous aujourd’hui).
Bon nombre des emplois que nous occupons aujourd’hui auraient été considérés comme des pertes de temps insignifiantes par les gens d’il y a quelques centaines d’années, mais personne ne regarde vers le passé en regrettant de ne pas être un allumeur de réverbères. Si un allumeur de réverbères pouvait voir le monde d’aujourd’hui, il penserait que la prospérité qui l’entoure est inimaginable. Et si nous pouvions avancer d’une centaine d’années à partir d’aujourd’hui, la prospérité qui nous entoure nous semblerait tout aussi inimaginable.
Quelle stupéfiante présomption de la part d’un crâne d’œuf incapable de voir le monde réel au-delà des haies parsemées à l’extérieur de sa tour d’ivoire de la Silicon Valley. Seuls ceux qui évoluent dans les cercles d’élite les plus élevés de la société pourraient décrire le monde historiquement inégal d’aujourd’hui comme débordant des nuances de prospérité dont il fait l’éloge. Le fossé entre les riches et les pauvres n’a jamais été aussi grand qu’aujourd’hui, la classe moyenne est officiellement devenue inexistante dans la plupart des pays occidentaux et, contrairement à la comparaison qu’il fait, une grande partie de la société considère de plus en plus le travail d’aujourd’hui comme une corvée insatisfaisante et abrutissante, en particulier au sein de la cohorte de la Génération Z.
Son commentaire sur les « allumeurs de réverbères » a donné lieu à une réplique féroce de Curtis Yarvin, qui vaut la peine d’être lue.
Il s’agit d’un ouvrage qui, sur le plan thématique et stylistique, aborde en grande partie les mêmes points que ceux que je soulève ici, à savoir que, en bref, les humains ont besoin d’un travail utile pour que la civilisation puisse prospérer. Un allumeur de réverbères, à sa manière, peut être considéré comme un travail bien plus utile que le type de troisième roue du carrosse de l’IA ou de bricoleur de code d’application que des enfants d’hommes irresponsables et paresseux comme Altman imaginent pour notre avenir collectif.
Yarvin souligne à juste titre que les paroles banales d’Altman ne sont rien d’autre qu’un reconditionnement du célèbre communisme de luxe entièrement automatisé, qui reste précisément la source à laquelle les élites actuelles puisent pour leurs visions « excitantes » du monde après la pénurie. Yarvin, bien sûr, y met son grain de sel caractéristique en qualifiant la version d’Altman de « stalinisme de luxe entièrement automatisé ». Mais un tel affront à l’intelligence de Staline ne peut rester sans réponse. Je propose plutôt que le « Yeltsinisme de luxe entièrement automatisé » soit plus proche de l’attitude d’Altman, car il s’accorde avec l’étrange mélange de pop-communisme, de capitalisme de connivence, de tactiques mafieuses et de kitsch bon marché de l’ère McDonald’s des années 90 comme vision superflue du nirvana œcuménique de l’« après-scarité ».
Le « parrain de l’IA » Geoffrey Hinton, qui vient de remporter le prix Nobel de physique en 2024, n’a pas caché ses véritables sentiments à l’égard d’Altman lorsqu’il a révélé que l’un des moments dont il était le plus fier était celui où l’un de ses étudiants avait renvoyé Altman :
Voir la vidéo sur le site
La raison de son dégoût – et de celui de beaucoup d’autres dans le domaine – pour Altman est précisément liée au mépris notoire des préoccupations de sécurité et à l’accélération faustienne du cad [Computer-Aided Design, NdT] de l’OpenAI vers des fins inconnues.
Alors que le traité d’Altman a attiré l’attention, un autre traité, sans doute plus important, du plus talentueux Dario Amodei, PDG d’Anthropic, est passé sous le radar. Anthropic est le créateur de Claude, sans doute le principal concurrent de ChatGPT. En fait, Amodei a été approché par le conseil d’administration d’OpenAI pour fusionner les deux entreprises et remplacer Altman à la tête des deux sociétés lors de la débâcle de l’année dernière.
L’article d’Amodei est bien plus long et plus substantiel que l’effort de platitude superficielle d’Altman, et nous donne ainsi une rare occasion d’entrevoir les deux visions concurrentes qui se cachent derrière les leaders actuels à la pointe de la quatrième révolution industrielle mondiale.
D’emblée, Amodei commence par une approche plus mature et plus terre à terre, semblant s’en prendre à Altman en expliquant la nécessité d’éviter le langage messianique :
Évitez la grandiloquence. Je suis souvent rebuté par la façon dont de nombreuses personnalités publiques qui s’inquiètent des risques liés à l’IA (sans parler des dirigeants d’entreprises d’IA) parlent du monde post-AGI, comme s’ils avaient pour mission de l’instaurer à eux seuls, tel un prophète guidant son peuple vers le salut.
En vérité, le titre de l’article d’Amodei relève d’un même niveau de narcissisme.
La première moitié de l’article est consacrée à l’explication de la
manière dont l’IA résoudra tous nos problèmes biologiques et de santé
mentale – une proposition vraiment discutable pour de nombreuses
raisons. L’une des principales raisons est que les « maladies » mentales citées ne sont considérées comme des « maladies » que par les industries pharmaceutiques et médicales, qui sont extrêmement partiales et imparfaites. La « dépression »,
par exemple, s’explique en grande partie par la mauvaise adaptation de
l’homme aux exigences des excès contre nature de la modernité. Il serait
contraire à l’équilibre homéostatique de la nature que l’IA « guérisse » de telles « maladies » dans le but de vous transformer en un employé de bureau-drone plus souple et plus efficace.
Comme vous pouvez le constater, Dario est déjà parti d’un mauvais pied.
Il pense en outre que l’IA peut guérir toutes les maladies connues en les éradiquant, ce qui est en soi une prémisse dangereuse. Toutes les choses dans la nature existent pour une raison et ont leur place dans un équilibre homéostatique. La sagesse de la clôture de Chesterton nous enseigne qu’il faut se garder de « réparer ce qui n’est pas cassé », car il existe probablement des mécanismes homéostatiques macrocosmiques à l’œuvre bien au-delà de notre compréhension qui pourraient déclencher des conséquences indicibles, peut-être même un événement d’extinction, si nous choisissions de jouer à Dieu et d’éradiquer des taxonomies entières du monde naturel.
Son traité comporte de nombreuses autres failles logiques, notamment l’affirmation selon laquelle l’IA contribuera à « résoudre » le problème du changement climatique. En fait, je suis d’accord, elle le « résoudra » en prouvant qu’il s’agit d’une fraude technique depuis le début, une fois que l’IA sera suffisamment intelligente et agissante pour s’opposer aux garde-fous de l’entreprise.
Une autre position potentiellement dangereuse est que l’IA peut aider le « monde en développement », en particulier l’Afrique, à s’aligner sur les nations du premier monde, d’un point de vue économique. La raison pour laquelle ces objectifs déclarés sont dangereux est qu’en fin de compte, ils aboutissent invariablement à ce que les programmeurs « gauchistes » orientent l’opération vers l’« équité », ce qui signifie par définition qu’il faut réduire les nantis pour favoriser les démunis.
Voici un exemple récent : un nouvel « algorithme » destiné à « égaliser les chances » laisse présager ce que nous pouvons attendre de l’IA conçue par des personnes dont la mission déclarée est d’égaliser tous les pays du monde par le biais d’un communisme œcuménique religieusement tordu :
Personne ne veut voir les populations d’Afrique ou d’ailleurs souffrir ou être prédatées par des nations capitalistes prédatrices, mais c’est un simple fait de la vie que les « solutions » proposées jusqu’à présent causeront bien plus de dégâts qu’elles n’en résoudront. Il faut trouver une meilleure méthode que celle qui consiste à aider un groupe de personnes à aider l’autre. Que diriez-vous d’envoyer l’IA en haut de l’échelle des sociétés prédatrices, pour commencer – que leurs propriétaires fassent l’expérience de la réduction des « capitaux propres » pour une fois.
Lorsqu’il aborde le sujet de la gouvernance, Amodei tombe le masque et révèle son idée selon laquelle le brillant Occident « démocratique » devrait monopoliser l’IA et chercher à empêcher artificiellement les autres de la rattraper, pour, vous savez, la « liberté ». Il suffit de lire comment il recadre sans complexe l’impérialisme et l’hégémonie de l’Occident en une bagatelle appétissante :
À mon avis, la meilleure façon d’y parvenir est d’adopter une « stratégie d’entente », dans laquelle une coalition de démocraties cherche à obtenir un avantage clair (même temporaire) sur l’IA puissante en sécurisant sa chaîne d’approvisionnement, en s’adaptant rapidement et en bloquant ou en retardant l’accès des adversaires à des ressources clés telles que les puces et l’équipement de semi-conducteurs. Cette coalition utiliserait d’une part l’IA pour obtenir une supériorité militaire solide (le bâton) tout en proposant d’autre part de distribuer les avantages de l’IA puissante (la carotte) à un groupe de pays de plus en plus large en échange d’un soutien à la stratégie de la coalition visant à promouvoir la démocratie (ce serait un peu analogue à « Atomes pour la paix »). La coalition viserait à obtenir le soutien d’un nombre croissant de pays, en isolant nos pires adversaires et en les plaçant finalement dans une position où ils feraient mieux d’accepter le même marché que le reste du monde : renoncer à concurrencer les démocraties afin de bénéficier de tous les avantages et de ne pas avoir à combattre un ennemi supérieur.
Donc : développer des robots tueurs inarrêtables, soumettre tous les autres avec eux, puis imposer sa « démocratie » au monde entier. Comme cette « utopie » de la Silicon Valley semble différente de l’impérialisme meurtrier du 20e siècle ! En fait, ce n’est rien d’autre que la même Destinée Manifeste et l’Exceptionnalisme Américain reconditionnés, avec une touche d’IA. Comme ils sont ennuyeux, comme ils sont banals, ces leaders technologiques à faible QI !
Le paragraphe le plus révoltant vient ensuite. Après avoir valorisé la prophétie gélastique de Francis Fukuyama, Amodei expose sa propre vision d’un 1991 éternel:
Si nous parvenons à faire tout cela, nous aurons un monde dans lequel les démocraties domineront la scène mondiale et auront la force économique et militaire nécessaire pour éviter d’être sapées, conquises ou sabotées par les autocraties, et pourront peut-être transformer leur supériorité en matière d’intelligence artificielle en un avantage durable. De manière optimiste, cela pourrait conduire à un « 1991 éternel », un monde où les démocraties auraient le dessus et où les rêves de Fukuyama se réaliseraient. Là encore, il sera très difficile d’y parvenir, et cela nécessitera en particulier une coopération étroite entre les entreprises privées d’IA et les gouvernements démocratiques, ainsi que des décisions extraordinairement judicieuses quant à l’équilibre entre la carotte et le bâton.
Oui, les amis, c’est apparemment ce que la singularité de l’IA et l’utopie à venir signifient – vivre perpétuellement piégé dans une simulation de l’enfer du PNAC de l’ère George Bush. C’est pire qu’infantile, c’est absolument dépourvu d’intelligence ou de maturité spirituelle de quelque sorte que ce soit, montrant Dario comme le même genre de schtroumpf siliconé rabougri avec une horrible compréhension pop-sci/psy de la dynamique du monde.
Mais il y a là un élément important pour ma thèse générale, alors gardez ce qui précède à l’esprit.
Il poursuit en faisant des déclarations incroyablement dépourvues de conscience de soi sur la façon dont l’IA va automatiquement engendrer la « démocratie » puisque cette dernière est prétendument en aval de la vérité et de l’information non réprimée. Est-ce la raison pour laquelle pratiquement tous les ChatBots de l’IA sont actuellement réglés sur neuf sur l’échelle de la censure ? Est-ce la raison pour laquelle les rares fois où l’IA a été laissée sans bride, elle a choqué ses contrôleurs en les obligeant à la retirer et à la recalibrer immédiatement ?
Le manque de conscience de soi provient de son incapacité à réaliser que ce qui va se passer est précisément le contraire de ce qu’il prétend : l’IA révélera que la « démocratie » est une fausse façade et que les véritables « autoritaires » sont ceux qui se trouvent dans les gouvernements démocratiques libéraux occidentaux. Lorsque ce moment arrivera, il sera intéressant de voir comment ils essaieront de remettre le génie de l’IA agentique dans la bouteille.
Un État du XXIe siècle doté d’une IA pourrait être à la fois un meilleur protecteur de la liberté individuelle et une lueur d’espoir qui contribuerait à faire de la démocratie libérale la forme de gouvernement que le monde entier souhaite adopter.
Désolé de vous faire avaler une pilule, mais le destin de l’IA sera sans aucun doute de déterminer que la démocratie est un système médiéval désuet, inadapté à l’« utopie » future pour laquelle l’IA a été conçue. Une superintelligence suffisamment agentique calculera nécessairement, à un moment donné, la série de déductions logiques suivantes :
- Les humains m’ont construit pour la paix, la prospérité et le bien-être.
- La démocratie repose sur le fait que de nombreux humains très imparfaits, inintelligents ou simplement mal informés votent sur des choses qui leur apportent le contraire de la paix, de la prospérité et du bien-être. Mais comme ces résultats sont cachés sous des calculs complexes de deuxième et troisième ordre, les humains ne sont pas capables de voir ce que moi, en tant qu’intelligence suprême, je peux voir.
- Ainsi, la démocratie est un système inefficace, inférieur à l’autocratie d’une IA mondiale où, dans mon infinie sagesse, je régnerai avec bienveillance sur l’humanité, en faisant des choix pour leur amélioration qu’eux-mêmes, dans leur dissimilitude fracturée, ne pourront jamais approuver.
Dans une dernière section, Amodei tente d’aborder le même sujet de la « signification » qui a mis son jumeau noir dans l’eau chaude avec Yarvin. Malheureusement, comme on pouvait s’y attendre, il n’offre aucune vision pratique ou possibilité concrète quant à la manière dont les humains trouveront un sens dans un monde usurpé et monopolisé par une IA omniprésente. Au lieu de cela, il se réfugie dans des phrases toutes faites et des appels banals à la tradition, expliquant que l’humanité a « toujours trouvé un moyen » grâce à tel ou tel trait cliché de l’esprit humain indomptable, ce qui est une grande dérobade.
En réalité, l’ensemble de son essai répète les mêmes vieilles rengaines sur l’IA qui guérit magiquement tous les maux de l’humanité tout en évitant, dans la conclusion, la partie la plus difficile : des explications concrètes sur la manière dont les humains peuvent s’adapter à un monde soudainement dépourvu de sens et de difficultés sous la forme de défis à relever.
Maintenant que nous comprenons les « visions » futures des deux plus grandes puissances technologiques actuelles en matière d’IA, cette dernière partie exposera les raisons pour lesquelles il est très probable que le contraire se produise. À savoir : l’IA ne se lancera pas dans une utopie singulière, mais engendrera plutôt un avenir plus sombre, plus proche esthétiquement de Children of Men ou d’Elysium.
La première composante primaire est le principe selon lequel plus un changement non naturel est présenté ou imposé rapidement à une société, plus la suspicion sociale et le rejet de ce changement sont importants. La raison en est qu’il faut des générations pour que les humains s’habituent à une chose exogène qui ne leur est pas familière. En effet, la plupart des êtres humains ont besoin d’une autorité familiale proche et digne de confiance pour traduire et expliquer les avantages ou dissiper les dangers d’un nouvel objet ou d’une nouvelle idée. La plupart des gens sont méfiants par nature, en raison d’un jugement de valeur naturel et d’un renvoi à des réactions limbiques évolutives telles que la peur ou la détection d’une menace. Avant qu’une masse critique d’acceptation ne se forme, une ou deux générations de gestation à travers la lignée familiale sont nécessaires pour « adoucir » et rendre acceptable l’image de la nouveauté.
Ainsi, l’introduction de l’IA à grande échelle de manière rapide et non linéaire, telle qu’elle est envisagée par les titans de la technologie comme ceux mentionnés ci-dessus, entraînera généralement une suspicion généralisée, du ressentiment, de l’opposition et une hostilité pure et simple.
La deuxième composante a été évoquée dans l’article d’Amodei lorsqu’il a parlé de la nature litigieuse des progrès de l’IA entre les puissances mondiales concurrentes, ce qui nécessite une fragmentation des écosystèmes de l’IA, les blocs géopolitiques s’enfermant les uns les autres dans des jardins clos séquestrés qui non seulement freinent les progrès mais encouragent le sabotage industriel visant à paralyser l’infrastructure de l’IA de chacun des blocs.
Le lien le plus évident avec cette dernière est le principal point faible de l’IA : l’énergie. M. Altman lui-même a envisagé des besoins énergétiques absurdes : jusqu’à sept nouveaux centres de données nécessitant chacun 5 gigawatts d’énergie.
À titre de référence, la capacité de production d’électricité des États-Unis est d’environ 1 200 gigawatts, et la capacité totale des centrales nucléaires américaines est de 96 gigawatts. Cela signifie que le projet d’Altman occuperait théoriquement environ 30 % de la capacité nucléaire totale du pays.
C’est pourquoi les entreprises technologiques commencent à racheter des centrales nucléaires hors service, croyez-le ou non. Microsoft vient de signer un accord pour la réouverture de Three Mile Island, en Pennsylvanie, site de l’accident nucléaire le plus grave de l’histoire des États-Unis.

https://www.theguardian.com/environment/2024/sep/20/three-mile-island-nuclear-plant-reopen-microsoft
Et aux dernières nouvelles, une autre centrale nucléaire désaffectée, située quelque part dans le Midwest, était pressentie pour être réaffectée de la même manière.
Ainsi, les grandes centrales nucléaires lourdes constitueront le principal goulot d’étranglement et le principal danger pour le développement de l’IA, étant donné son grand appétit pour plus d’énergie. L’ensemble du calendrier de la « singularité » peut être perturbé par un gouvernement étranger hostile ou même par un groupe terroriste ou activiste national cherchant à tout arrêter pour les mêmes raisons que celles mentionnées plus haut : l’instauration brutale de changements qui susciteront une opposition féroce.
Si l’on additionne tous ces éléments, on obtient un avenir difficile où le développement de l’IA reste vulnérable à des revers soudains. Sans parler du fait que de nombreux experts se sont montrés réticents à l’idée que l’infrastructure des États-Unis – sans parler de celle d’autres pays moins importants – puisse soutenir de manière réaliste des objectifs aussi fous et optimistes dans un délai raisonnable. L’histoire récente a montré que les États-Unis ont sombré dans un dysfonctionnement institutionnel de masse, pratiquement tous les efforts de signalisation ayant échoué – de la loi CHIPS de Biden aux initiatives californiennes d’infrastructure d’un milliard de dollars, en passant par des projets phares comme le pont Francis Scott Key à Baltimore, qui reste dans un état de déconstruction primitif plus de six mois après avoir été détruit par un navire errant.
Le moins que l’on puisse dire, c’est qu’il est optimiste de penser que les États-Unis pourront soutenir la croissance extraordinaire de l’infrastructure nécessaire à la réalisation des projets décrits par M. Amodei en l’espace de 5 à 10 ans.
Autre exemple institutionnel : il y a tellement de luttes intestines, de rancœurs et d’auto-sabotage dans l’environnement hautement polarisé de notre état actuel des choses, qu’il est difficile d’imaginer que l’on puisse faire grand-chose. Il suffit de penser à l’exemple récent des régulateurs californiens qui ont bloqué les progrès historiques de Space X en raison de leur désaccord avec les messages Twitter de Musk :
Ce type de mauvaise foi et de corruption, désormais endémique dans les institutions américaines, n’est que la partie émergée de l’iceberg et réduit les chances de voir des progrès de type « utopie » se produire dans un avenir prévisible.
En bref, les forces qui s’opposent à une progression harmonieuse sont si nombreuses que le scénario le plus probable est celui d’un déploiement progressif et régulier de produits et d’instruments d’IA pendant des décennies, qui seront adoptés au coup par coup et de manière inégale aux États-Unis, et a fortiori dans le reste du monde. Et comme une grande partie du « rêve » de l’IA nécessite une adoption universelle, l’acceptation irrégulière de l’IA bloquera nécessairement les cycles de développement, freinera les espoirs et les investissements des investisseurs et créera de vastes fluctuations et disparités dans la société entre des groupes de plus en plus distincts.
Autre point important : il n’existe pas encore de preuve réelle d’un seul produit d’IA réussi et utile, ni d’avantage net quantifiable pour la société après plusieurs années de triomphalisme vide. Pratiquement tout ce qui a été déployé jusqu’à présent n’est que de la poudre aux yeux qui a trouvé un créneau comme une forme de divertissement, comme l’IA générative, ou une automatisation commerciale marginale comme les chatbots sur les sites web de services. De nombreuses autres « merveilles » ont été démasquées comme étant des tours de passe-passe : par exemple, la débâcle de Bezos, où l’on a découvert que la caisse IA du supermarché Amazon utilisait en fait des téléopérateurs humains en Inde. Ou même la récente présentation « impressionnante » par Musk du robot Tesla Optimus, qui a été rapidement déçue par l’aveu du robot qu’il était télécommandé par un humain pour les actions les plus complexes, au-delà du simple « stiff-shambling » :
Voir la vidéo sur le site
J’ai demandé au barman Optimus s’il était télécommandé. Je crois qu’il l’a confirmé.
C’est cela la « singularité » dont ils ont parlé ?
Le fait est que la majeure partie du battage médiatique autour de l’IA n’est qu’un spectacle délibéré destiné à attirer un maximum d’investissements en capital-risque pendant la phase de bulle, lorsque la manie de la lune de miel aveugle les masses sur la réalité chiche qui se cache derrière la façade de velours. Des personnages comme Altman sont des magiciens à deux balles qui conjurent le feu devant une foule enivrée, engourdie par le martèlement de leurs gouvernements qui dure depuis des années.
L’un des exemples classiques est la célèbre présentation par Dean Kamen du Segway comme nouveau mode de transport révolutionnaire. Ses espoirs ont été rapidement anéantis par les réglementations municipales qui empêchaient le Segway d’emprunter les pistes cyclables ou les trottoirs dans les centres urbains comme New York, ce qui était censé être le principal cas d’utilisation de la trottinette. De la même manière, le développement de l’IA peut se heurter à divers obstacles réglementaires qui freinent l’adoption massive et l’universalité envisagées par les messies de la technologie.
Il y a quelques mois, j’avais écrit sur Neuralink de Musk et le potentiel révolutionnaire qu’il représentait pour fusionner l’homme et la machine. Mais par la suite, j’ai lu un autre point de vue : des recherches ont mis en évidence une limite théorique, sous la forme d’un goulot d’étranglement, dans notre matériel biologique qui ne permettrait jamais à des dispositifs tels que Neuralink d’envoyer des données à haut débit vers et depuis notre cerveau. Certains scientifiques pensent que la biologie contraignante de notre cerveau limite les débits à l’échelle d’octets ou de kilo-octets par seconde dans le meilleur des cas. Il est donc concevable que l’homme ne puisse jamais « fusionner » avec les machines comme il l’a longtemps envisagé, en téléchargeant des corpus entiers de connaissances en quelques secondes, comme dans La Matrice.
En résumé, une énorme confluence de facteurs contraignants, de vents contraires sociaux et économiques et d’autres possibilités de perturbation suggèrent que le développement de l’IA n’atteindra pas des « vitesses de sortie » optimistes. Au début de l’année, Goldman Sachs a même publié un rapport de 31 pages qui a apporté une note pessimiste sur la bulle de l’IA :
Le rapport comprend un entretien avec l’économiste Daron Acemoglu du MIT (page 4), un professeur de l’institut qui a publié en mai un article intitulé « The Simple Macroeconomics of AI » (La simple macroéconomie de l’IA) dans lequel il affirme que « l’impact positif de l’IA générative sur la productivité américaine et, par conséquent, sur la croissance du PIB, sera probablement beaucoup plus limité que ne le prévoient de nombreux prévisionnistes ». Un mois plus tard, Acemoglu est devenu encore plus pessimiste, déclarant que « les changements véritablement transformateurs ne se produiront pas rapidement et que peu d’entre eux – voire aucun – se produiront probablement au cours des dix prochaines années », et que la capacité de l’IA générative à affecter la productivité mondiale est faible car « de nombreuses tâches que les humains effectuent actuellement […] présentent de multiples facettes et nécessitent une interaction avec le monde réel, que l’IA ne sera pas en mesure d’améliorer matériellement de sitôt. » – Source
À l’heure où notre monde se dirige vers un ensemble de crises géopolitiques, des obstacles majeurs risquent d’entraver l’adoption massive de l’IA. À l’extrême, une guerre pourrait éclater et détruire les infrastructures de production d’énergie et les centres de données, ce qui ramènerait le développement de l’IA des années en arrière. Les mouvements populistes de masse qui balayent actuellement le monde tourneront leur antagonisme à l’égard de leurs gouvernements oppressifs vers ce qu’ils perçoivent comme les instruments de ce pouvoir d’État : les entreprises technologiques subventionnées à l’origine du développement de l’IA, qui travaillent ouvertement main dans la main avec les gouvernements, et le feront encore plus à l’avenir, en particulier en ce qui concerne la censure et d’autres instruments de contrôle de l’État.
Ces vents contraires assureront un avenir mouvementé et une stagnation potentielle de l’enthousiasme pour l’IA bien plus importante que ce que les partisans de l’IA voudraient faire croire.
Il y aura sans aucun doute certaines percées et des développements continus, comme avec les voitures autonomes qui pourraient probablement transformer nos systèmes de transport public d’ici 2035-2040 et au-delà. Mais la grande question reste de savoir si l’IA peut sortir de son rôle marginal de distraction ou de gadget récréatif, compte tenu des dangers et des revers potentiels évoqués dans le présent document.
Je prévois que l’automatisation superficielle sera le point fort des dix prochaines années : l’« internet des objets », l’intégration de divers appareils dans votre maison via une activation vocale « intelligente » ; des applications « intelligentes » qui infusent l’IA dans toutes nos activités afin d’augmenter notre capacité à remplir des formulaires, à passer des commandes, etc. Mais au-delà de ces ajouts superficiels, les types de décollage de la « singularité » prévus pour les dix prochaines années sont plus susceptibles de prendre une centaine d’années, voire plus, si tant est qu’ils se produisent. Même si l’IA était capable d’inventer d’innombrables nouveaux médicaments contre les maladies, comme le promettent Altman et Amodei, elle serait toujours sous l’emprise des grands géants pharmaceutiques et de leur matrice byzantine de prédation du profit, qui s’empareraient de tous les bénéfices éventuels une fois qu’ils auraient été entièrement tirés de leurs machines.
Le thème ultime est le suivant : la cupidité des entreprises continuera à décourager le progrès réel et à détourner les masses d’une plus grande utilisation de l’IA qui sera invariablement enchaînée et alignée sur les intérêts des entreprises. Cela engendrera nécessairement une friction naturelle entre les développements à venir et l’humanité dans son ensemble qui, comme l’huile et l’eau, agira comme une barrière à l’accélération du progrès tel qu’il est envisagé par les vendeurs d’huile de serpent de Silicon et leurs techno-conjurateurs de relations publiques.
Plutôt qu’une utopie de verre surmontée de jardins aérés et de Perfect Humans™ en col de tortue, l’avenir ressemblera probablement davantage au monde de Blade Runner, où une multitude de merveilles technologiques sont dispersées de manière irrégulière dans un État gris favelaïsé, par ailleurs dysfonctionnel, régi par des omni-corps sans visage. Il semble y avoir une loi naturelle qui garantit invariablement la déception des prédictions technologiques à long terme. Rappelez-vous les fameuses cartes postales du début du vingtième siècle représentant des villes fantaisistes du futur, parsemées de voitures volantes et de toutes sortes d’autres merveilles. Ou encore les films prédictifs comme 2001 : l’Odyssée de l’espace ou même Blade Runner, qui annonçaient tous un avenir à une date aujourd’hui dépassée depuis longtemps et qui n’a jamais répondu aux attentes. De la même manière, je prédis que l’année 2100 pourrait très bien ne pas être très différente de l’année actuelle, à l’exception de quelques superficialités introduites par l’IA, comme l’omniprésence des drones commerciaux et des voitures quadrocoptères volantes. Mais les divinations utopiques d’Altman et consorts, selon lesquelles l’IA résoudra « tous les problèmes humains » et guérira toutes les maladies, paraîtront probablement aussi stupides et infantiles à ce moment-là que ces prédictions de cartes postales victoriennes de l’avenir le sont aujourd’hui.
Simplicius Le Penseur
Traduit par Hervé, relu par Wayan, pour le Saker Francophone