Elon Musk, la technologie et le culte du long-termisme (par Phil Torres)

Tra­duc­tion d’un article du bio­lo­giste Phil Torres ini­tia­le­ment publié, en anglais, le 30 avril 2022 sur le web­zine pro­gres­siste Salon.com. Rien de par­ti­cu­liè­re­ment nou­veau sous le soleil, mais un rap­pel inté­res­sant sur la folie qui s’est empa­rée d’une par­tie des élites du capi­ta­lisme technologique.


Elon Musk veut sau­ver l’hu­ma­ni­té — afin de par­ve­nir à un futur dans lequel nous « vivrons » par mil­liers dans de gigan­tesques simu­la­tions cos­miques à la Matrix.

Elon Musk, la per­sonne la plus riche de la pla­nète, a appa­rem­ment conclu un accord pour ache­ter Twit­ter, de l’a­vis géné­ral « l’une des pla­te­formes les plus influentes du monde ». Beau­coup de gens essaient de com­prendre pour­quoi : qu’est-ce qui motive exac­te­ment Elon Musk ? S’a­git-il sim­ple­ment de sa volon­té (hypo­crite) de défendre la liber­té d’ex­pres­sion ? Y a‑t-il des rai­sons plus pro­fondes ? Jusqu’ici, pra­ti­que­ment per­sonne, dans la presse grand public, n’a for­mu­lé de réponse per­ti­nente. Je me pro­pose d’essayer.

Com­men­çons par une obser­va­tion non contro­ver­sée : Elon Musk ne se sou­cie guère des autres, de vous et de moi, ni même de ses employés. Ain­si que son frère Kim­bal Musk l’a décla­ré au maga­zine Time, « l’empathie pour les gens ne fait pas par­tie de ses qua­li­tés », après quoi l’ar­ticle note que « pen­dant la pan­dé­mie de COVID-19, [Musk] a fait des décla­ra­tions mini­mi­sant le virus, [a enfreint] les régle­men­ta­tions sani­taires locales pour main­te­nir ses usines en acti­vi­té, et a par­ti­ci­pé à accroître les doutes sur la sécu­ri­té des vaccins ».

Néan­moins, Elon Musk se consi­dère comme un phi­lan­thrope de pre­mier plan. « Spa­ceX, Tes­la, Neu­ra­link, The Boring Com­pa­ny sont de la phi­lan­thro­pie », insiste-t-il. « Si on consi­dère que la phi­lan­thro­pie est l’a­mour de l’hu­ma­ni­té, il s’agit de phi­lan­thro­pie. » Com­ment cela ?

La seule réponse qui ait du sens découle d’une vision du monde que j’ai décrite ailleurs comme « l’une des idéo­lo­gies les plus influentes dont bien peu de gens, en dehors des uni­ver­si­tés d’é­lite et de la Sili­con Val­ley, ont enten­du par­ler ». Je fais réfé­rence au « long-ter­misme ». Cette idéo­lo­gie, née dans la Sili­con Val­ley et dans les uni­ver­si­tés bri­tan­niques d’é­lite d’Ox­ford et de Cam­bridge, compte de nom­breux adeptes au sein de la com­mu­nau­té dite Less­Wrong ou Ratio­na­liste, dont le membre le plus en vue est Peter Thiel, un entre­pre­neur mil­liar­daire et par­ti­san de Trump.

[Apar­té du tra­duc­teur : Au sujet de Thiel, David Grae­ber affir­mait : « Je trouve inté­res­sant que Peter et moi soyons très for­te­ment d’ac­cord sur 20 % des choses, et pro­ba­ble­ment tout aus­si for­te­ment en désac­cord sur les 80 % res­tants. […] Mais les choses sur les­quelles nous sommes d’ac­cord sont celles à pro­pos des­quelles per­sonne d’autre n’est d’ac­cord avec nous. »] 

En bref, les long-ter­mistes affirment que si l’hu­ma­ni­té par­vient à sur­vivre aux pro­chains siècles et à colo­ni­ser l’es­pace, le nombre de per­sonnes qui pour­raient exis­ter dans le futur est abso­lu­ment énorme. Selon le « père du long-ter­misme », Nick Bos­trom, il pour­rait exis­ter quelque chose comme 10^58 êtres humains dans le futur — cela dit, la plu­part d’entre eux vivront appa­rem­ment des « vies heu­reuses » à l’in­té­rieur de vastes simu­la­tions infor­ma­tiques ali­men­tées par des sys­tèmes nano­tech­no­lo­giques conçus pour cap­ter la tota­li­té ou la majeure par­tie de l’éner­gie pro­duite par les étoiles. (La rai­son pour laquelle Bos­trom est per­sua­dé que toutes ces per­sonnes seraient « heu­reuses » dans leur vie simu­lée n’est pas claire. Peut-être pren­draient-ils du Pro­zac numé­rique ou autre chose du genre). D’autres spé­cia­listes du long terme, tels que Hila­ry Greaves et Will MacAs­kill, ont cal­cu­lé qu’il pour­rait y avoir 10^45 « per­sonnes heu­reuses » vivant dans des simu­la­tions infor­ma­tiques à l’intérieur de notre seule galaxie de la Voie lac­tée. C’est beau­coup de monde. Les chefs de file du long-ter­misme pensent que vous devriez être très impressionnés.

Et voi­ci ce que cela implique, pour eux, en matière de poli­tique sociale contem­po­raine : sup­po­sons que vous puis­siez faire quelque chose aujourd’­hui qui affecte posi­ti­ve­ment 0,0000000000000000000000000000000000001% des 10^58 per­sonnes qui « vivront » à un moment don­né, dans un ave­nir loin­tain. Cela signi­fie, mathé­ma­ti­que­ment, que vous affec­te­riez 10 tril­lions de per­sonnes. Sachant qu’il y a envi­ron 8 mil­liards de per­sonnes sur la pla­nète aujourd’­hui. La ques­tion qui se pose est donc la sui­vante : si vous vou­lez faire « le plus de bien pos­sible », devez-vous vous concen­trer sur l’aide aux per­sonnes qui sont en vie aujourd’­hui ou sur le grand nombre de per­sonnes qui pour­raient vivre dans des simu­la­tions infor­ma­tiques dans un ave­nir loin­tain ? La réponse est, bien sûr, que vous devez vous concen­trer sur ces êtres numé­riques du futur loin­tain. Comme l’é­crit Ben­ja­min Todd, spé­cia­liste du long terme :

« Étant don­né que l’a­ve­nir est grand, il pour­rait y avoir beau­coup plus de per­sonnes dans le futur que dans la géné­ra­tion actuelle. Cela signi­fie que si vous vou­lez aider les gens en géné­ral, votre prin­ci­pale pré­oc­cu­pa­tion ne devrait pas consis­ter à aider la géné­ra­tion actuelle, mais à faire en sorte que l’a­ve­nir se passe bien à long terme. »

Alors pour­quoi Musk dépense-t-il envi­ron 44 mil­liards de dol­lars pour ache­ter Twit­ter, cepen­dant qu’il a choi­si de ne pas faire don des 6,6 mil­liards de dol­lars néces­saires « pour nour­rir plus de 40 mil­lions de per­sonnes dans 43 pays qui sont « au bord de la famine » », alors qu’il avait lais­sé entendre qu’il le ferait ? Peut-être êtes-vous en mesure d’entrevoir la réponse : si vous pen­sez que « l’a­ve­nir est grand », pour reprendre les termes de Todd, et qu’un nombre énorme de per­sonnes ver­ront le jour au cours du pro­chain mil­liard d’an­nées qui vivront dans des simu­la­tions infor­ma­tiques, alors vous devriez vous concen­trer sur elles plu­tôt que sur les per­sonnes vivant aujourd’­hui. Comme le sou­tiennent Greaves et MacAs­kill, pour savoir si des actions entre­prises aujourd’hui sont bonnes ou mau­vaises, nous ne devons pas nous concen­trer sur leurs effets immé­diats, mais sur leurs effets sur le monde dans un siècle ou un millénaire !

Cela ne signi­fie pas que nous devions tota­le­ment négli­ger les pro­blèmes actuels, comme nous le diraient cer­tai­ne­ment les tenants du long-ter­misme. Mais selon eux, nous ne devons aider les gens vivant actuel­le­ment que dans la mesure où cela garan­tit l’exis­tence des per­sonnes futures. Cette logique n’est pas sans rap­pe­ler celle qui conduit les entre­prises à se pré­oc­cu­per de la san­té men­tale de leurs employés. Pour les entre­prises, les per­sonnes n’ont pas de valeur en elles-mêmes. En revanche, une bonne san­té men­tale est impor­tante parce qu’elle est pro­pice à la maxi­mi­sa­tion des pro­fits, puisque les per­sonnes en bonne san­té ont ten­dance à être plus pro­duc­tives. Les entre­prises se sou­cient des gens dans la mesure où cela leur pro­fite.

Pour les long-ter­mistes, la mora­li­té et l’é­co­no­mie sont presque indis­so­ciables : toutes deux sont des jeux de chiffres visant à maxi­mi­ser quelque chose. Dans le cas des entre­prises, vous vou­lez maxi­mi­ser le pro­fit, alors que dans le cas de la mora­li­té, vous vou­lez maxi­mi­ser « les per­sonnes heu­reuses ». Il s’agit essen­tiel­le­ment d’avoir le capi­ta­lisme pour éthique.

Musk a expli­ci­te­ment décla­ré que l’a­chat de Twit­ter concer­nait « l’a­ve­nir de la civi­li­sa­tion ». Cela ren­voie à sa concep­tion par­ti­cu­lière de la phi­lan­thro­pie et à l’i­dée qu’aus­si odieux, pué­ril, inap­pro­prié ou mes­quin que soit son com­por­te­ment — aus­si des­truc­teur ou embar­ras­sant que soient ses actions dans le pré­sent —, en cher­chant à influen­cer l’a­ve­nir à long terme, il a une chance d’être consi­dé­ré par toutes ces « per­sonnes heu­reuses » dans les futures simu­la­tions infor­ma­tiques comme ayant fait plus de bien, glo­ba­le­ment, que n’im­porte quelle per­sonne dans l’his­toire de l’hu­ma­ni­té jus­qu’à pré­sent. À côté, le Mahat­ma Gand­hi, Mère Tere­sa et Mar­tin Luther King Jr. sont de petits joueurs.

Si vous vous deman­dez pour­quoi Musk veut colo­ni­ser Mars, le long-ter­misme vous offre une réponse : parce que Mars est un trem­plin pla­né­taire vers le reste de l’u­ni­vers. Pour­quoi veut-il bran­cher nos cer­veaux sur des ordi­na­teurs via des puces neu­ro­nales ? Parce que cela pour­rait « déclen­cher la pro­chaine étape de l’é­vo­lu­tion humaine ». Pour­quoi veut-il régler le pro­blème du chan­ge­ment cli­ma­tique ? Est-ce à cause de tous les dom­mages qu’il cause (et cau­se­ra) aux popu­la­tions pauvres du Sud ? Est-ce à cause de l’in­jus­tice et de l’i­né­ga­li­té que la crise cli­ma­tique aggrave ? Appa­rem­ment non. La rai­son en est plu­tôt que Musk ne veut pas ris­quer un scé­na­rio d’emballement du chan­ge­ment cli­ma­tique qui pour­rait anéan­tir la vie humaine avant que nous ayons eu la chance de colo­ni­ser Mars, de nous répandre dans le reste de l’u­ni­vers et de réa­li­ser notre « vaste et glo­rieux » poten­tiel — pour citer le spé­cia­liste du long terme Toby Ord. Au début de l’an­née, Musk a décla­ré que « nous devrions être beau­coup plus pré­oc­cu­pés par l’ef­fon­dre­ment de la popu­la­tion » que par la sur­po­pu­la­tion. Pour­quoi ? Parce que « s’il n’y a pas assez de gens pour peu­pler la Terre, il n’y en aura cer­tai­ne­ment pas assez pour Mars ».

Ce n’est pas pour rien que Musk fait par­tie du conseil consul­ta­tif scien­ti­fique du Future of Life Ins­ti­tute (FLI), au nom gran­diose (« Ins­ti­tut du futur de la vie »), auquel il a fait don de mil­lions de dol­lars ; ou qu’il a don­né des sommes simi­laires au Future of Huma­ni­ty Ins­ti­tute (« Ins­ti­tut du futur de l’humanité ») de Bos­trom (Oxford) et au Centre for the Stu­dy of Exis­ten­tial Risk (« Centre pour l’étude du risque exis­ten­tiel ») de Cam­bridge, dont il est membre du conseil consul­ta­tif scien­ti­fique ; ou qu’il aime pré­tendre que nous vivons dans une simu­la­tion infor­ma­tique et affir­mer que les machines super­in­tel­li­gentes repré­sentent un « risque exis­ten­tiel fon­da­men­tal pour la civi­li­sa­tion humaine ».

Par défi­ni­tion, un risque exis­ten­tiel désigne tout évé­ne­ment sus­cep­tible d’empêcher l’hu­ma­ni­té de sou­mettre com­plè­te­ment la nature et de maxi­mi­ser la pro­duc­ti­vi­té éco­no­mique, deux élé­ments consi­dé­rés comme cru­ciaux par les tenants du long-ter­misme, parce qu’ils pour­raient nous per­mettre de déve­lop­per des tech­no­lo­gies avan­cées et de colo­ni­ser l’es­pace afin de créer un maxi­mum de « per­sonnes heu­reuses » dans des simu­la­tions. (Là encore, il s’agit de capi­ta­lisme sous sté­roïdes.) Bos­trom, qu’E­lon Musk admire, a for­gé cette expres­sion (« risque exis­ten­tiel ») au début des années 2000. Elle est deve­nue l’un des prin­ci­paux sujets de recherche du mou­ve­ment appe­lé « Effec­tive Altruism » (« Altruisme effi­cace »), qui se targue actuel­le­ment d’un finan­ce­ment accor­dé de quelque 46,1 mil­liards de dol­lars et compte des repré­sen­tants à des postes haut pla­cés au sein du gou­ver­ne­ment amé­ri­cain (comme Jason Mathe­ny). La réduc­tion du « risque exis­ten­tiel » est l’un des prin­ci­paux objec­tifs des long-ter­mistes, dont beau­coup sont éga­le­ment des « Altruistes efficaces ».

De leur point de vue, la meilleure façon d’être phi­lan­thrope consiste à ne pas trop se pré­oc­cu­per de la vie des humains actuels, sauf — encore une fois — dans la mesure où cela pour­rait nous aider à faire adve­nir ce futur tech­no-uto­pique inter­ga­lac­tique. Bos­trom a décrit les pires atro­ci­tés de l’his­toire de l’hu­ma­ni­té, notam­ment la Seconde Guerre mon­diale et l’Ho­lo­causte, comme « de simples rides à la sur­face de la grande mer de la vie. Elles n’ont pas affec­té de manière signi­fi­ca­tive la quan­ti­té totale de souf­france ou de bon­heur humain, ni déter­mi­né le des­tin à long terme de notre espèce. »

Plus récem­ment, Bos­trom a décla­ré que « l’al­truisme sans res­tric­tion n’est pas suf­fi­sam­ment cou­rant pour que nous puis­sions nous per­mettre de le gas­piller dans une plé­thore de pro­jets de bien-être à l’ef­fi­ca­ci­té sous-opti­male », tels que l’aide aux pauvres, la réso­lu­tion de la faim dans le monde, la lutte pour l’é­ga­li­té des femmes, contre le racisme, l’é­li­mi­na­tion de l’é­le­vage indus­triel, etc. Il pour­suit : « Si le fait d’augmenter la sécu­ri­té exis­ten­tielle de l’hu­ma­ni­té engendre un béné­fice d’une magni­tude supé­rieure, de plu­sieurs ordres de gran­deur, à celle des contri­bu­tions alter­na­tives, nous ferions bien de nous concen­trer sur cette phi­lan­thro­pie la plus effi­cace » [c’est nous qui sou­li­gnons]. Dans un article de 2019, il sug­gère que nous devrions sérieu­se­ment envi­sa­ger de mettre en place un sys­tème de sur­veillance mon­dial cen­tra­li­sé et inva­sif afin de pro­té­ger la civi­li­sa­tion humaine des terroristes.

En effet, un autre grand long-ter­miste et « altruiste effi­cace », Nick Becks­tead, a écrit dans sa thèse très citée par d’autres long-ter­mistes que, puisque l’a­ve­nir pour­rait être si vaste et que les habi­tants des pays riches sont mieux pla­cés pour influen­cer l’a­ve­nir à long terme que les habi­tants des pays pauvres, il est logique de don­ner la prio­ri­té à la vie des pre­miers sur celle des seconds. En d’autres termes (selon ses mots) :

« sau­ver des vies dans les pays pauvres peut avoir des effets d’en­traî­ne­ment beau­coup plus faibles que sau­ver et amé­lio­rer des vies dans les pays riches. Pour­quoi ? Les pays riches sont net­te­ment plus inno­vants et leurs tra­vailleurs sont beau­coup plus pro­duc­tifs sur le plan éco­no­mique. [Par consé­quent,] il me semble désor­mais plus plau­sible de pen­ser que sau­ver une vie dans un pays riche est net­te­ment plus impor­tant que sau­ver une vie dans un pays pauvre, toutes choses égales par ailleurs. »

En exa­mi­nant le com­por­te­ment d’E­lon Musk au prisme du long-ter­misme, ses déci­sions et ses actions s’avèrent par­fai­te­ment logiques. Certes, il fait des blagues miso­gynes, accuse à tort des per­sonnes de pédo­phi­lie et dif­fuse des infor­ma­tions erro­nées sur le COVID. Certes, il a échan­gé des mes­sages avec Jef­frey Epstein après que celui-ci ait plai­dé cou­pable de tra­fic sexuel de mineurs. Certes, il a plai­san­té en disant qu’il pen­sait que Ber­nie San­ders était mort, s’est moqué du sou­tien au peuple ukrai­nien, etc. (Voir ici pour une liste nauséabonde).

Mais l’a­ve­nir pour­rait bien être façon­né de manière dis­pro­por­tion­née par les déci­sions de Musk — qui sont prises uni­la­té­ra­le­ment, sans aucune pré­ten­tion démo­cra­tique — et étant don­né que l’a­ve­nir pour­rait être énorme (si nous par­ve­nons à colo­ni­ser l’es­pace), tout le bien qui en résul­te­ra (dans le cal­cul des long-ter­mistes) éclip­se­ra tout le mal qu’il a pu faire durant sa vie. La fin jus­ti­fie les moyens, dans ce cal­cul, et lorsque la fin pos­sède lit­té­ra­le­ment une valeur astro­no­mique, asso­ciée à un futur tech­no-uto­pique rem­pli de 10^58 « per­sonnes heu­reuses » vivant dans des simu­la­tions infor­ma­tiques ali­men­tées par toutes les étoiles du super­a­mas de la Vierge, vous pou­vez bien être la pire per­sonne au monde durant votre exis­tence et deve­nir quand même la meilleure per­sonne ayant jamais exis­té dans le grand sché­ma des choses.

Elon Musk convoite le pou­voir. C’est évident. C’est un égo­cen­trique. Mais il sous­crit éga­le­ment, pour autant que je puisse en juger, à une vision glo­bale de l’a­ve­nir galac­tique de l’hu­ma­ni­té et à un cadre moral et éco­no­mique qui explique, mieux que toute autre alter­na­tive, ses actions. Comme je l’ai noté ailleurs :

« [Le long-ter­misme] s’ap­pa­rente à une reli­gion sécu­lière construite autour du culte de la “valeur future », avec sa propre “doc­trine sécu­lière du salut », comme l’é­crit élo­gieu­se­ment l’his­to­rien Tho­mas Moy­ni­han du Future of Huma­ni­ty Ins­ti­tute dans son livre “X‑Risk ». La popu­la­ri­té de cette reli­gion par­mi les riches occi­den­taux — en par­ti­cu­lier l’é­lite socio-éco­no­mique — est logique, puisqu’elle leur dit exac­te­ment ce qu’ils veulent entendre : non seule­ment vous êtes éthi­que­ment excu­sé de ne pas trop vous inquié­ter des menaces sub-exis­ten­tielles que consti­tuent, par exemple, le chan­ge­ment cli­ma­tique non-embal­lé et la pau­vre­té mon­diale, mais cela fait même de vous une meilleure per­sonne mora­le­ment, une per­sonne qui se concentre sur des choses plus impor­tantes — des risques qui pour­raient détruire défi­ni­ti­ve­ment “notre poten­tiel » en tant qu’es­pèce de vie intel­li­gente ori­gi­naire de la Terre. »

Il est pro­fon­dé­ment trou­blant qu’un seul être humain pos­sède autant de pou­voir de déter­mi­ner le cours futur de la civi­li­sa­tion humaine sur Terre. L’o­li­gar­chie et la démo­cra­tie sont incom­pa­tibles. Or, nous vivons dans un monde de plus en plus contrô­lé, dans tous les domaines impor­tants, par des mul­ti­mil­liar­daires irres­pon­sables et avares qui ne rendent de compte à per­sonne. Ce qui est encore plus inquié­tant que le fait qu’E­lon Musk veuille ache­ter Twit­ter, c’est sa moti­va­tion : l’idéologie long-ter­miste, son sys­tème de valeur, sa mora­li­té et sa vision de l’a­ve­nir. En effet, que l’ac­cord soit conclu ou non — et cer­tains indices laissent pen­ser qu’il pour­rait ne pas l’être — il faut s’at­tendre à d’autres prises de pou­voir de ce type, non seule­ment de la part de Musk, mais aus­si d’autres per­sonnes sous le charme de cette nou­velle reli­gion séculière.

Phil Torres

Tra­duc­tion : Nico­las Casaux

Print Friendly, PDF & Email
Total
12
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Articles connexes
Lire

5G : l’entretien avec PMO que vous auriez pu lire dans Le Monde

Nos lecteurs savent que nous ne faisons pas partie de la Société des Amis du Monde, l’organe central de la technocratie. Nous ne quémandons jamais la faveur d’une tribune dans ses pages « Débats », mais nous avons accepté pour la troisième fois en vingt ans, de répondre aux questions d’un de ses journalistes. Les deux premières fois, il s’agissait des nanotechnologies et de la tyrannie technologique ; cette fois de la 5G et du monde-machine. L’article du Monde vise essentiellement à valoriser les parasites et récupérateurs du type Piolle et Ruffin[1]. Il n’était pas question qu’il paraisse in extenso. Raison de plus pour le publier nous-mêmes en ligne. [...]