Elon Musk, la technologie et le culte du long-termisme (par Phil Torres)

Tra­duc­tion d’un article du bio­lo­giste Phil Torres ini­tia­le­ment publié, en anglais, le 30 avril 2022 sur le web­zine pro­gres­siste Salon.com. Rien de par­ti­cu­liè­re­ment nou­veau sous le soleil, mais un rap­pel inté­res­sant sur la folie qui s’est empa­rée d’une par­tie des élites du capi­ta­lisme technologique.


Elon Musk veut sau­ver l’hu­ma­ni­té — afin de par­ve­nir à un futur dans lequel nous « vivrons » par mil­liers dans de gigan­tesques simu­la­tions cos­miques à la Matrix.

Elon Musk, la per­sonne la plus riche de la pla­nète, a appa­rem­ment conclu un accord pour ache­ter Twit­ter, de l’a­vis géné­ral « l’une des pla­te­formes les plus influentes du monde ». Beau­coup de gens essaient de com­prendre pour­quoi : qu’est-ce qui motive exac­te­ment Elon Musk ? S’a­git-il sim­ple­ment de sa volon­té (hypo­crite) de défendre la liber­té d’ex­pres­sion ? Y a‑t-il des rai­sons plus pro­fondes ? Jusqu’ici, pra­ti­que­ment per­sonne, dans la presse grand public, n’a for­mu­lé de réponse per­ti­nente. Je me pro­pose d’essayer.

Com­men­çons par une obser­va­tion non contro­ver­sée : Elon Musk ne se sou­cie guère des autres, de vous et de moi, ni même de ses employés. Ain­si que son frère Kim­bal Musk l’a décla­ré au maga­zine Time, « l’empathie pour les gens ne fait pas par­tie de ses qua­li­tés », après quoi l’ar­ticle note que « pen­dant la pan­dé­mie de COVID-19, [Musk] a fait des décla­ra­tions mini­mi­sant le virus, [a enfreint] les régle­men­ta­tions sani­taires locales pour main­te­nir ses usines en acti­vi­té, et a par­ti­ci­pé à accroître les doutes sur la sécu­ri­té des vaccins ».

Néan­moins, Elon Musk se consi­dère comme un phi­lan­thrope de pre­mier plan. « Spa­ceX, Tes­la, Neu­ra­link, The Boring Com­pa­ny sont de la phi­lan­thro­pie », insiste-t-il. « Si on consi­dère que la phi­lan­thro­pie est l’a­mour de l’hu­ma­ni­té, il s’agit de phi­lan­thro­pie. » Com­ment cela ?

La seule réponse qui ait du sens découle d’une vision du monde que j’ai décrite ailleurs comme « l’une des idéo­lo­gies les plus influentes dont bien peu de gens, en dehors des uni­ver­si­tés d’é­lite et de la Sili­con Val­ley, ont enten­du par­ler ». Je fais réfé­rence au « long-ter­misme ». Cette idéo­lo­gie, née dans la Sili­con Val­ley et dans les uni­ver­si­tés bri­tan­niques d’é­lite d’Ox­ford et de Cam­bridge, compte de nom­breux adeptes au sein de la com­mu­nau­té dite Less­Wrong ou Ratio­na­liste, dont le membre le plus en vue est Peter Thiel, un entre­pre­neur mil­liar­daire et par­ti­san de Trump.

[Apar­té du tra­duc­teur : Au sujet de Thiel, David Grae­ber affir­mait : « Je trouve inté­res­sant que Peter et moi soyons très for­te­ment d’ac­cord sur 20 % des choses, et pro­ba­ble­ment tout aus­si for­te­ment en désac­cord sur les 80 % res­tants. […] Mais les choses sur les­quelles nous sommes d’ac­cord sont celles à pro­pos des­quelles per­sonne d’autre n’est d’ac­cord avec nous. »] 

En bref, les long-ter­mistes affirment que si l’hu­ma­ni­té par­vient à sur­vivre aux pro­chains siècles et à colo­ni­ser l’es­pace, le nombre de per­sonnes qui pour­raient exis­ter dans le futur est abso­lu­ment énorme. Selon le « père du long-ter­misme », Nick Bos­trom, il pour­rait exis­ter quelque chose comme 10^58 êtres humains dans le futur — cela dit, la plu­part d’entre eux vivront appa­rem­ment des « vies heu­reuses » à l’in­té­rieur de vastes simu­la­tions infor­ma­tiques ali­men­tées par des sys­tèmes nano­tech­no­lo­giques conçus pour cap­ter la tota­li­té ou la majeure par­tie de l’éner­gie pro­duite par les étoiles. (La rai­son pour laquelle Bos­trom est per­sua­dé que toutes ces per­sonnes seraient « heu­reuses » dans leur vie simu­lée n’est pas claire. Peut-être pren­draient-ils du Pro­zac numé­rique ou autre chose du genre). D’autres spé­cia­listes du long terme, tels que Hila­ry Greaves et Will MacAs­kill, ont cal­cu­lé qu’il pour­rait y avoir 10^45 « per­sonnes heu­reuses » vivant dans des simu­la­tions infor­ma­tiques à l’intérieur de notre seule galaxie de la Voie lac­tée. C’est beau­coup de monde. Les chefs de file du long-ter­misme pensent que vous devriez être très impressionnés.

Et voi­ci ce que cela implique, pour eux, en matière de poli­tique sociale contem­po­raine : sup­po­sons que vous puis­siez faire quelque chose aujourd’­hui qui affecte posi­ti­ve­ment 0,0000000000000000000000000000000000001% des 10^58 per­sonnes qui « vivront » à un moment don­né, dans un ave­nir loin­tain. Cela signi­fie, mathé­ma­ti­que­ment, que vous affec­te­riez 10 tril­lions de per­sonnes. Sachant qu’il y a envi­ron 8 mil­liards de per­sonnes sur la pla­nète aujourd’­hui. La ques­tion qui se pose est donc la sui­vante : si vous vou­lez faire « le plus de bien pos­sible », devez-vous vous concen­trer sur l’aide aux per­sonnes qui sont en vie aujourd’­hui ou sur le grand nombre de per­sonnes qui pour­raient vivre dans des simu­la­tions infor­ma­tiques dans un ave­nir loin­tain ? La réponse est, bien sûr, que vous devez vous concen­trer sur ces êtres numé­riques du futur loin­tain. Comme l’é­crit Ben­ja­min Todd, spé­cia­liste du long terme :

« Étant don­né que l’a­ve­nir est grand, il pour­rait y avoir beau­coup plus de per­sonnes dans le futur que dans la géné­ra­tion actuelle. Cela signi­fie que si vous vou­lez aider les gens en géné­ral, votre prin­ci­pale pré­oc­cu­pa­tion ne devrait pas consis­ter à aider la géné­ra­tion actuelle, mais à faire en sorte que l’a­ve­nir se passe bien à long terme. »

Alors pour­quoi Musk dépense-t-il envi­ron 44 mil­liards de dol­lars pour ache­ter Twit­ter, cepen­dant qu’il a choi­si de ne pas faire don des 6,6 mil­liards de dol­lars néces­saires « pour nour­rir plus de 40 mil­lions de per­sonnes dans 43 pays qui sont « au bord de la famine » », alors qu’il avait lais­sé entendre qu’il le ferait ? Peut-être êtes-vous en mesure d’entrevoir la réponse : si vous pen­sez que « l’a­ve­nir est grand », pour reprendre les termes de Todd, et qu’un nombre énorme de per­sonnes ver­ront le jour au cours du pro­chain mil­liard d’an­nées qui vivront dans des simu­la­tions infor­ma­tiques, alors vous devriez vous concen­trer sur elles plu­tôt que sur les per­sonnes vivant aujourd’­hui. Comme le sou­tiennent Greaves et MacAs­kill, pour savoir si des actions entre­prises aujourd’hui sont bonnes ou mau­vaises, nous ne devons pas nous concen­trer sur leurs effets immé­diats, mais sur leurs effets sur le monde dans un siècle ou un millénaire !

Cela ne signi­fie pas que nous devions tota­le­ment négli­ger les pro­blèmes actuels, comme nous le diraient cer­tai­ne­ment les tenants du long-ter­misme. Mais selon eux, nous ne devons aider les gens vivant actuel­le­ment que dans la mesure où cela garan­tit l’exis­tence des per­sonnes futures. Cette logique n’est pas sans rap­pe­ler celle qui conduit les entre­prises à se pré­oc­cu­per de la san­té men­tale de leurs employés. Pour les entre­prises, les per­sonnes n’ont pas de valeur en elles-mêmes. En revanche, une bonne san­té men­tale est impor­tante parce qu’elle est pro­pice à la maxi­mi­sa­tion des pro­fits, puisque les per­sonnes en bonne san­té ont ten­dance à être plus pro­duc­tives. Les entre­prises se sou­cient des gens dans la mesure où cela leur pro­fite.

Pour les long-ter­mistes, la mora­li­té et l’é­co­no­mie sont presque indis­so­ciables : toutes deux sont des jeux de chiffres visant à maxi­mi­ser quelque chose. Dans le cas des entre­prises, vous vou­lez maxi­mi­ser le pro­fit, alors que dans le cas de la mora­li­té, vous vou­lez maxi­mi­ser « les per­sonnes heu­reuses ». Il s’agit essen­tiel­le­ment d’avoir le capi­ta­lisme pour éthique.

Musk a expli­ci­te­ment décla­ré que l’a­chat de Twit­ter concer­nait « l’a­ve­nir de la civi­li­sa­tion ». Cela ren­voie à sa concep­tion par­ti­cu­lière de la phi­lan­thro­pie et à l’i­dée qu’aus­si odieux, pué­ril, inap­pro­prié ou mes­quin que soit son com­por­te­ment — aus­si des­truc­teur ou embar­ras­sant que soient ses actions dans le pré­sent —, en cher­chant à influen­cer l’a­ve­nir à long terme, il a une chance d’être consi­dé­ré par toutes ces « per­sonnes heu­reuses » dans les futures simu­la­tions infor­ma­tiques comme ayant fait plus de bien, glo­ba­le­ment, que n’im­porte quelle per­sonne dans l’his­toire de l’hu­ma­ni­té jus­qu’à pré­sent. À côté, le Mahat­ma Gand­hi, Mère Tere­sa et Mar­tin Luther King Jr. sont de petits joueurs.

Si vous vous deman­dez pour­quoi Musk veut colo­ni­ser Mars, le long-ter­misme vous offre une réponse : parce que Mars est un trem­plin pla­né­taire vers le reste de l’u­ni­vers. Pour­quoi veut-il bran­cher nos cer­veaux sur des ordi­na­teurs via des puces neu­ro­nales ? Parce que cela pour­rait « déclen­cher la pro­chaine étape de l’é­vo­lu­tion humaine ». Pour­quoi veut-il régler le pro­blème du chan­ge­ment cli­ma­tique ? Est-ce à cause de tous les dom­mages qu’il cause (et cau­se­ra) aux popu­la­tions pauvres du Sud ? Est-ce à cause de l’in­jus­tice et de l’i­né­ga­li­té que la crise cli­ma­tique aggrave ? Appa­rem­ment non. La rai­son en est plu­tôt que Musk ne veut pas ris­quer un scé­na­rio d’emballement du chan­ge­ment cli­ma­tique qui pour­rait anéan­tir la vie humaine avant que nous ayons eu la chance de colo­ni­ser Mars, de nous répandre dans le reste de l’u­ni­vers et de réa­li­ser notre « vaste et glo­rieux » poten­tiel — pour citer le spé­cia­liste du long terme Toby Ord. Au début de l’an­née, Musk a décla­ré que « nous devrions être beau­coup plus pré­oc­cu­pés par l’ef­fon­dre­ment de la popu­la­tion » que par la sur­po­pu­la­tion. Pour­quoi ? Parce que « s’il n’y a pas assez de gens pour peu­pler la Terre, il n’y en aura cer­tai­ne­ment pas assez pour Mars ».

Ce n’est pas pour rien que Musk fait par­tie du conseil consul­ta­tif scien­ti­fique du Future of Life Ins­ti­tute (FLI), au nom gran­diose (« Ins­ti­tut du futur de la vie »), auquel il a fait don de mil­lions de dol­lars ; ou qu’il a don­né des sommes simi­laires au Future of Huma­ni­ty Ins­ti­tute (« Ins­ti­tut du futur de l’humanité ») de Bos­trom (Oxford) et au Centre for the Stu­dy of Exis­ten­tial Risk (« Centre pour l’étude du risque exis­ten­tiel ») de Cam­bridge, dont il est membre du conseil consul­ta­tif scien­ti­fique ; ou qu’il aime pré­tendre que nous vivons dans une simu­la­tion infor­ma­tique et affir­mer que les machines super­in­tel­li­gentes repré­sentent un « risque exis­ten­tiel fon­da­men­tal pour la civi­li­sa­tion humaine ».

Par défi­ni­tion, un risque exis­ten­tiel désigne tout évé­ne­ment sus­cep­tible d’empêcher l’hu­ma­ni­té de sou­mettre com­plè­te­ment la nature et de maxi­mi­ser la pro­duc­ti­vi­té éco­no­mique, deux élé­ments consi­dé­rés comme cru­ciaux par les tenants du long-ter­misme, parce qu’ils pour­raient nous per­mettre de déve­lop­per des tech­no­lo­gies avan­cées et de colo­ni­ser l’es­pace afin de créer un maxi­mum de « per­sonnes heu­reuses » dans des simu­la­tions. (Là encore, il s’agit de capi­ta­lisme sous sté­roïdes.) Bos­trom, qu’E­lon Musk admire, a for­gé cette expres­sion (« risque exis­ten­tiel ») au début des années 2000. Elle est deve­nue l’un des prin­ci­paux sujets de recherche du mou­ve­ment appe­lé « Effec­tive Altruism » (« Altruisme effi­cace »), qui se targue actuel­le­ment d’un finan­ce­ment accor­dé de quelque 46,1 mil­liards de dol­lars et compte des repré­sen­tants à des postes haut pla­cés au sein du gou­ver­ne­ment amé­ri­cain (comme Jason Mathe­ny). La réduc­tion du « risque exis­ten­tiel » est l’un des prin­ci­paux objec­tifs des long-ter­mistes, dont beau­coup sont éga­le­ment des « Altruistes efficaces ».

De leur point de vue, la meilleure façon d’être phi­lan­thrope consiste à ne pas trop se pré­oc­cu­per de la vie des humains actuels, sauf — encore une fois — dans la mesure où cela pour­rait nous aider à faire adve­nir ce futur tech­no-uto­pique inter­ga­lac­tique. Bos­trom a décrit les pires atro­ci­tés de l’his­toire de l’hu­ma­ni­té, notam­ment la Seconde Guerre mon­diale et l’Ho­lo­causte, comme « de simples rides à la sur­face de la grande mer de la vie. Elles n’ont pas affec­té de manière signi­fi­ca­tive la quan­ti­té totale de souf­france ou de bon­heur humain, ni déter­mi­né le des­tin à long terme de notre espèce. »

Plus récem­ment, Bos­trom a décla­ré que « l’al­truisme sans res­tric­tion n’est pas suf­fi­sam­ment cou­rant pour que nous puis­sions nous per­mettre de le gas­piller dans une plé­thore de pro­jets de bien-être à l’ef­fi­ca­ci­té sous-opti­male », tels que l’aide aux pauvres, la réso­lu­tion de la faim dans le monde, la lutte pour l’é­ga­li­té des femmes, contre le racisme, l’é­li­mi­na­tion de l’é­le­vage indus­triel, etc. Il pour­suit : « Si le fait d’augmenter la sécu­ri­té exis­ten­tielle de l’hu­ma­ni­té engendre un béné­fice d’une magni­tude supé­rieure, de plu­sieurs ordres de gran­deur, à celle des contri­bu­tions alter­na­tives, nous ferions bien de nous concen­trer sur cette phi­lan­thro­pie la plus effi­cace » [c’est nous qui sou­li­gnons]. Dans un article de 2019, il sug­gère que nous devrions sérieu­se­ment envi­sa­ger de mettre en place un sys­tème de sur­veillance mon­dial cen­tra­li­sé et inva­sif afin de pro­té­ger la civi­li­sa­tion humaine des terroristes.

En effet, un autre grand long-ter­miste et « altruiste effi­cace », Nick Becks­tead, a écrit dans sa thèse très citée par d’autres long-ter­mistes que, puisque l’a­ve­nir pour­rait être si vaste et que les habi­tants des pays riches sont mieux pla­cés pour influen­cer l’a­ve­nir à long terme que les habi­tants des pays pauvres, il est logique de don­ner la prio­ri­té à la vie des pre­miers sur celle des seconds. En d’autres termes (selon ses mots) :

« sau­ver des vies dans les pays pauvres peut avoir des effets d’en­traî­ne­ment beau­coup plus faibles que sau­ver et amé­lio­rer des vies dans les pays riches. Pour­quoi ? Les pays riches sont net­te­ment plus inno­vants et leurs tra­vailleurs sont beau­coup plus pro­duc­tifs sur le plan éco­no­mique. [Par consé­quent,] il me semble désor­mais plus plau­sible de pen­ser que sau­ver une vie dans un pays riche est net­te­ment plus impor­tant que sau­ver une vie dans un pays pauvre, toutes choses égales par ailleurs. »

En exa­mi­nant le com­por­te­ment d’E­lon Musk au prisme du long-ter­misme, ses déci­sions et ses actions s’avèrent par­fai­te­ment logiques. Certes, il fait des blagues miso­gynes, accuse à tort des per­sonnes de pédo­phi­lie et dif­fuse des infor­ma­tions erro­nées sur le COVID. Certes, il a échan­gé des mes­sages avec Jef­frey Epstein après que celui-ci ait plai­dé cou­pable de tra­fic sexuel de mineurs. Certes, il a plai­san­té en disant qu’il pen­sait que Ber­nie San­ders était mort, s’est moqué du sou­tien au peuple ukrai­nien, etc. (Voir ici pour une liste nauséabonde).

Mais l’a­ve­nir pour­rait bien être façon­né de manière dis­pro­por­tion­née par les déci­sions de Musk — qui sont prises uni­la­té­ra­le­ment, sans aucune pré­ten­tion démo­cra­tique — et étant don­né que l’a­ve­nir pour­rait être énorme (si nous par­ve­nons à colo­ni­ser l’es­pace), tout le bien qui en résul­te­ra (dans le cal­cul des long-ter­mistes) éclip­se­ra tout le mal qu’il a pu faire durant sa vie. La fin jus­ti­fie les moyens, dans ce cal­cul, et lorsque la fin pos­sède lit­té­ra­le­ment une valeur astro­no­mique, asso­ciée à un futur tech­no-uto­pique rem­pli de 10^58 « per­sonnes heu­reuses » vivant dans des simu­la­tions infor­ma­tiques ali­men­tées par toutes les étoiles du super­a­mas de la Vierge, vous pou­vez bien être la pire per­sonne au monde durant votre exis­tence et deve­nir quand même la meilleure per­sonne ayant jamais exis­té dans le grand sché­ma des choses.

Elon Musk convoite le pou­voir. C’est évident. C’est un égo­cen­trique. Mais il sous­crit éga­le­ment, pour autant que je puisse en juger, à une vision glo­bale de l’a­ve­nir galac­tique de l’hu­ma­ni­té et à un cadre moral et éco­no­mique qui explique, mieux que toute autre alter­na­tive, ses actions. Comme je l’ai noté ailleurs :

« [Le long-ter­misme] s’ap­pa­rente à une reli­gion sécu­lière construite autour du culte de la “valeur future », avec sa propre “doc­trine sécu­lière du salut », comme l’é­crit élo­gieu­se­ment l’his­to­rien Tho­mas Moy­ni­han du Future of Huma­ni­ty Ins­ti­tute dans son livre “X‑Risk ». La popu­la­ri­té de cette reli­gion par­mi les riches occi­den­taux — en par­ti­cu­lier l’é­lite socio-éco­no­mique — est logique, puisqu’elle leur dit exac­te­ment ce qu’ils veulent entendre : non seule­ment vous êtes éthi­que­ment excu­sé de ne pas trop vous inquié­ter des menaces sub-exis­ten­tielles que consti­tuent, par exemple, le chan­ge­ment cli­ma­tique non-embal­lé et la pau­vre­té mon­diale, mais cela fait même de vous une meilleure per­sonne mora­le­ment, une per­sonne qui se concentre sur des choses plus impor­tantes — des risques qui pour­raient détruire défi­ni­ti­ve­ment “notre poten­tiel » en tant qu’es­pèce de vie intel­li­gente ori­gi­naire de la Terre. »

Il est pro­fon­dé­ment trou­blant qu’un seul être humain pos­sède autant de pou­voir de déter­mi­ner le cours futur de la civi­li­sa­tion humaine sur Terre. L’o­li­gar­chie et la démo­cra­tie sont incom­pa­tibles. Or, nous vivons dans un monde de plus en plus contrô­lé, dans tous les domaines impor­tants, par des mul­ti­mil­liar­daires irres­pon­sables et avares qui ne rendent de compte à per­sonne. Ce qui est encore plus inquié­tant que le fait qu’E­lon Musk veuille ache­ter Twit­ter, c’est sa moti­va­tion : l’idéologie long-ter­miste, son sys­tème de valeur, sa mora­li­té et sa vision de l’a­ve­nir. En effet, que l’ac­cord soit conclu ou non — et cer­tains indices laissent pen­ser qu’il pour­rait ne pas l’être — il faut s’at­tendre à d’autres prises de pou­voir de ce type, non seule­ment de la part de Musk, mais aus­si d’autres per­sonnes sous le charme de cette nou­velle reli­gion séculière.

Phil Torres

Tra­duc­tion : Nico­las Casaux

Print Friendly, PDF & Email
Total
1
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles connexes