En futurologie, un singleton est un ordre mondial hypothétique dans lequel il existe au plus haut niveau une seule agence décisionnelle, capable d'exercer un contrôle efficace et d'empêcher les menaces internes et externes à sa suprématie. Le terme a d'abord été défini par Nick Bostrom[1],[2],[3],[4],[5],[6].
Aperçu
Selon Nick Bostrom, un singleton est un concept abstrait pouvant être implémenté de diverses façons[7] :
« un singleton pourrait être une démocratie, une tyrannie, une unique IA dominante, un solide ensemble de normes mondiales incluant des dispositions efficaces pour leur mise en application, ou même encore un seigneur extraterrestre — ce qui le définit étant simplement qu'il s'agit d'une sorte d'entité capable de résoudre tous les problèmes majeurs de coordination mondiale. Il peut ressembler ou non à une forme familière de gouvernance humaine. »
Selon Bostrom, une superintelligence pourrait former un singleton[8]. Les technologies de surveillance ou de contrôle de la pensée pourraient aussi faciliter l'émergence d'un singleton[1].
Un singleton peut présenter à la fois des risques des avantages. Un singleton pourrait résoudre des problèmes de coordination mondiale qui ne pourraient autrement pas être résolus, ouvrant à des trajectoires de développement civilisationnel autrement inaccessibles. Par exemple, Ben Goertzel, un chercheur spécialisé dans l'intelligence artificielle générale, suggère que les humains pourraient choisir de créer une IA avec « une intelligence et des pouvoirs de surveillance légèrement surhumains », pour protéger la race humaine contre des risques existentiels comme ceux liés aux nanotechnologies, et pour empêcher le développement d'intelligences artificielles dangereuses tant que les problèmes de sécurité ne sont pas résolus[9]. Un singleton pourrait s'imposer des limitations, se contentant par exemple de n'intervenir que pour faire respecter certaines règles[10]. Bostrom suggère aussi qu'un singleton permettrait de contenir les pressions évolutives darwiniennes, empêchant la domination par des agents ne s'intéressant qu'à la reproduction[11].
Bostrom considère également la possibilité d'un régime mondial stable, répressif et totalitaire comme un sérieux risque existentiel[12]. La stabilité même d'un singleton rend l'émergence d'un mauvais singleton particulièrement catastrophique, puisque celui-ci ne peut jamais être défait. Bryan Caplan écrit que « peut-être qu'une éternité de totalitarisme serait pire que l'extinction »[13].
De même, Hans Morgenthau soutient que le développement des armes, des moyens de transport et de communications rend « la conquête du monde techniquement possible, et ils permettent techniquement de maintenir le monde dans cet état conquis ». Cette absence était selon Morgenthau la raison pour laquelle les anciens grands empires, quoique vastes, n'ont pas réussi à achever leurs conquêtes, et ont parfois échoué à conserver les territoires acquis. Il affirme que la technologie défait les barrières géographiques et climatiques, et que « Aujourd'hui, aucun obstacle technologique ne s'oppose à un empire mondial », car « la technologie moderne permet d'étendre le contrôle de l'esprit et de l'action à tous les coins du globe, quelles que soient la géographie et la saison »[14].
↑(en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN978-0-19-967811-2) :
« a singleton could be democracy, a tyranny, a single dominant AI, a strong set of global norms that include effective provisions for their own enforcement, or even an alien overlord—its defining characteristic being simply that it is some form of agency that can solve all major global coordination problems. It may, but need not, resemble any familiar form of human governance. »
↑(en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN978-0-19-967811-2)
↑(en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN978-0-19-967811-2) :
« One could imagine a singleton whose existence is invisible (e.g. a superintelligence with such advanced technology or insight that it could subtly control world events without any human noticing its interventions); or a singleton that voluntarily imposes very strict limitations on its own exercise of power (e.g. punctiliously confining itself to ensuring that certain treaty-specified international rules—or libertarian principles—are respected). »
↑Nick Bostrom (2004). "The Future of Human Evolution". Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy (Ria University Press: Palo Alto, California): 339-371.
↑(en) Nick Bostrom et Milan M. Ćirkovic, Global catastrophic risks, Oxford university press, (ISBN978-0-19-857050-9), « The totalitarian threat » :
« perhaps an eternity of totalitarianism would be worse than extinction »
↑Politics Among Nations: The Struggle for Power and Peace, 4e édition, New York: Alfred A. Knopf, 1967, p 358-365. Extraits traduits depuis l'anglais : « the conquest of the world technically possible, and they make it technically possible to keep the world in that conquered state », « Today no technological obstacle stands in the way of a world-wide empire », « modern technology makes it possible to extend the control of mind and action to every corner of the globe regardless of geography and season. »