Dans le brouhaha quotidien des crises auxquelles l’humanité est confrontée, nous oublions les nombreuses générations que nous espérons encore à venir. Pas ceux qui vivront dans 200 ans, mais dans 1 000 ou 10 000 ans. J’utilise le mot «espoir» parce que nous faisons face à des risques, appelés risques existentiels, qui menacent d’éradiquer l’humanité. Ces risques ne concernent pas uniquement les grandes catastrophes, mais également les catastrophes susceptibles de mettre fin à l’histoire. Nous sommes dans une position plus privilégiée aujourd’hui.

Les risques autour du Bioterrorisme

L’activité humaine a constamment façonné l’avenir de notre planète. Et même si nous sommes loin de contrôler les catastrophes naturelles, nous développons des technologies qui peuvent aider à les atténuer, ou du moins à les gérer.

Futur imparfait

 Ces risques restent peu étudiés. Il y a un sentiment d’impuissance et de fatalisme à leur sujet. Les gens parlent d’apocalypses depuis des millénaires, mais peu ont essayé de les prévenir. Les humains ont également du mal à traiter des problèmes qui ne se sont pas encore produit.  Si l’humanité disparaît, la perte équivaut au moins à la perte de tous les individus vivants et à la frustration de leurs objectifs. Mais la perte serait probablement beaucoup plus grande que cela. L’extinction humaine signifie la perte de sens générée par les générations passées, la vie de toutes les générations futures et toute la valeur qu’elles auraient pu créer. Si la conscience ou l’intelligence sont perdues, cela pourrait signifier que la valeur elle-même devient absente de l’univers. C’est une énorme raison morale de travailler dur pour empêcher les menaces existentielles de devenir réalité. Et nous ne devons pas échouer une seule fois dans cette poursuite. Au cours du siècle dernier, nous avons découvert ou créé de nouveaux risques existentiels. Des super volcans ont été découverts au début des années 1970.

Guerre nucléaire

Alors que seules deux armes nucléaires ont été utilisées dans la guerre jusqu’à présent à Hiroshima et à Nagasaki au cours de la Seconde Guerre mondiale  et que les stocks nucléaires sont en baisse par rapport au sommet atteint lors de la guerre froide, penser que la guerre nucléaire est impossible est une erreur. En fait, cela pourrait ne pas être improbable. La crise des missiles cubains était sur le point de virer au nucléaire. Si nous supposons un tel événement tous les 69 ans et une chance sur trois que cela devienne une guerre nucléaire, les chances d’une telle catastrophe augmentent d’environ un sur 200 par an. Pire encore, la crise des missiles cubains n’était que le cas le plus connu. L’histoire de la dissuasion nucléaire soviéto-américaine est pleine d’appels intimes et de graves erreurs. Une guerre nucléaire à grande échelle entre grandes puissances tuerait des centaines de millions de personnes, directement ou dans les jours suivants dans une catastrophe inimaginable. 

La véritable menace est l’hiver nucléaire, c’est-à-dire que la suie flotte dans la stratosphère, entraînant un refroidissement et un assèchement du monde sur plusieurs années. Les simulations climatiques modernes montrent que cela pourrait empêcher l’agriculture dans une grande partie du monde pendant des années. Si ce scénario se produisait, des milliards de personnes mourraient de faim, ne laissant que des survivants épars qui pourraient être capturés par d’autres menaces telles que la maladie

Pandémie bioingénierie

Les pandémies naturelles ont tué plus de personnes que les guerres. Toutefois, il est peu probable que les pandémies naturelles constituent une menace existentielle : certaines personnes résistent généralement à l’agent pathogène et la progéniture des survivants serait plus résistante. L’évolution ne favorise pas non plus les parasites qui anéantissent leurs hôtes. C’est pourquoi la syphilis est passée d’un tueur virulent à une maladie chronique se propageant en Europe.  La plupart des travaux sur les armes biologiques ont été effectués par des gouvernements à la recherche de solutions contrôlables, car éliminer l’humanité n’est pas utile d’un point de vue militaire. Mais il y a toujours des gens qui pourraient vouloir faire des choses parce qu’ils le peuvent. D’autres ont des objectifs plus élevés. 

Sur intelligence

L’intelligence est très puissante. Être intelligent est un réel avantage pour les personnes et les organisations. Il faut donc déployer des efforts considérables pour trouver des moyens d’améliorer notre intelligence individuelle et collective. Le problème est que les entités intelligentes parviennent bien à atteindre leurs objectifs, mais si les objectifs sont mal définis, elles peuvent utiliser leur pouvoir pour atteindre intelligemment des objectifs désastreux. Il n’y a aucune raison de penser que l’intelligence elle-même fera que quelque chose se comporte gentiment et moralement. En fait, il est possible de prouver que certains types de systèmes super intelligents n’obéiraient pas aux règles morales, même si elles étaient vraies. Il y a de bonnes raisons de penser que certaines technologies peuvent accélérer les choses beaucoup plus rapidement que les sociétés actuelles ne peuvent le faire. De même, nous ne savons pas à quel point les différentes formes de sur intelligence sont dangereuses, ni quelles stratégies d’atténuation fonctionneraient réellement. Il est très difficile de raisonner sur la technologie future que nous n’avons pas encore ou sur des intelligences plus grandes que nous-mêmes. 

Nanotechnologie

La nanotechnologie est le contrôle de la matière avec une précision atomique ou moléculaire. En soi, cela n’est pas dangereux. Ce serait une très bonne nouvelle pour la plupart des applications. Le problème est que, comme la biotechnologie, l’augmentation du pouvoir augmente également le potentiel d’abus difficiles à défendre. Le risque le plus évident est que la fabrication de précision atomique semble idéal pour la fabrication rapide et bon marché de choses comme des armes. Dans un monde où tout gouvernement pourrait « imprimer » de grandes quantités d’armes autonomes ou semi-autonomes. La course aux armements pourrait devenir très rapide  et donc instable, car une première frappe avant que l’ennemi ne devienne trop important pourrait être tentant. 

> >

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here