s
19 708 Pages

Singularité technologique
15 listes différentes changements de paradigme pour histoire de l'humanité, inséré dans un graphique à échelle logarithmique, montrant un croissance exponentielle. Les listes ont été préparées, entre autres, de Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, Musée américain d'histoire naturelle et Université de l'Arizona et compilé par Ray Kurzweil.

en futurologie, un singularité technologique est un point, conjecturé dans le développement d'une civilisation dans laquelle la les progrès technologiques Il accélère au-delà de la capacité de comprendre et de prédire les êtres humains. la singularité peut, plus particulièrement, reportez-vous à l'avènement d'une intelligence supérieure à l'homme (aussi artificiel), Et aux progrès technologiques qui, en cascade, on suppose qu'il découlerait d'un tel événement, à l'exception qui ne réagit pas à une importante augmentation artificielle des facultés intellectuelles de chaque individuel. Si une singularité pourrait jamais, il est une question de débat.

Vue d'ensemble de la Singularité

Home Concept

Bien qu'il soit communément admis que le concept de singularité née au cours des 20 dernières années du XXe siècle, il en fait né en la cinquantaine XXe siècle:

Une conversation, centrée sur l'jamais l'accélération des progrès de la technologie et le changement des modes de vie des êtres humains, ce qui donne l'apparence de l'approche d'une certaine singularité essentielle dans l'histoire de la course au-delà duquel, les angoisses des êtres humains, comme nous les connaissons, ils ne peuvent pas continuer. »

(Stanislaw Ulam, Mai 1958, se référant à une conversation avec John von Neumann)

Cette citation a souvent été extrapolée hors contexte et appliquée au même von Neumann, peut-être à cause de la grande réputation et de l'influence de ces derniers.

en 1965, le statisticien I. J. Good décrit un concept encore plus comme la signification contemporaine singularité, dans lequel il a inclus l'avènement de l'intelligence surhumaine:

Disons une machine ultraintelligent est définie comme une machine qui peut bien surpasser toutes les activités intellectuelles de tout homme si habile qu'il est. Depuis la conception de ces machines est l'une de ces activités intellectuelles, une machine ultraintelligent pourrait concevoir des machines encore mieux; Par conséquent, il y aurait une « explosion de l'intelligence », et l'intelligence de l'homme serait laissé loin derrière. Ainsi, la première machine à ultraintelligent est la dernière invention que l'homme aura besoin de faire. »

Plus tôt, en 1954, l'écrivain de science-fiction Fredric Brown, dans l'histoire très court la réponse, Il a anticipé le concept de singularité technologique imaginer la construction d'un « super-ordinateur galactiques » qui est demandé à la première question, après le pouvoir, si Dieu existe; Le supercalculateur répondrait « Maintenant ».

La singularité vingeana

Le concept de singularité technologique tel qu'il est connu aujourd'hui est crédité au mathématicien et romancier Vernor Vinge. Vinge a commencé à parler de la singularité dans années quatre-vingt, et il a recueilli ses pensées dans le premier article sur le sujet 1993, avec l'essai [1] Singularité technologique.[1] Depuis lors, cela est devenu l'objet de nombreuses histoires et écrits futuristes et la science-fiction.

L'essai Vinge contient la déclaration, souvent citée, que « dans les trente ans, nous aurons les moyens technologiques pour créer une intelligence surhumaine. Peu de temps après, l'ère des êtres humains se terminera. »

La singularité de Vinge est communément et à tort interprété comme l'affirmation selon laquelle le progrès technologique va croître tous »infini, comme cela se produit dans un singularité mathématique. En fait, le terme a été choisi comme une métaphore, prenant de la physique et non mathématiques: à l'approche de la singularité, les modèles de prévision de l'avenir deviennent moins fiables, tout comme les modèles de la physique deviennent inefficaces à proximité, à par exemple, un singularité gravitationnelle.

Le Singularity est souvent considérée comme la fin de la civilisation humaine et la naissance d'une nouvelle civilisation. Dans son essai, se demande pourquoi Vinge l'ère humaine devrait prendre fin, et fait valoir que les humains seront transformés au cours de la singularité dans une forme supérieure d'intelligence. Après la création d'une intelligence surhumaine, selon Vinge, les gens vont, par comparaison, une forme de vie inférieure.

On ne sait pas ce que l'on entend, selon Vinge, de nouvelles formes de civilisation. Vinge a écrit une histoire sur les machines de l'homme les plus intelligents et la façon dont ils conçoivent le monde. Son éditeur lui a dit que personne ne peut être en mesure d'écrire une telle histoire, parce que comprendre comment un observateur de l'homme plus intelligent voit le monde est impossible pour l'homme lui-même. A une époque où l'homme va construire une machine qui sera en mesure de devenir plus intelligent, il va commencer une nouvelle ère, qui sera vécue par un autre point de vue: une époque qui ne sera pas possible de se qualifier a priori comme bon ou mauvais, mais ce sera simplement différent.

La loi du retour accéléré Kurzweil

icône Loupe mgx2.svg Le même sujet en détail: Loi du retour accéléré.

L'analyse historique des progrès technologiques montre que l'évolution de la technologie fait suite à une exponentielle et non processus linéaire car il aurait tendance à penser. Dans son essai, La loi du retour accéléré,[2] Ray Kurzweil Il propose une généralisation de La loi de Moore qui forme la base des croyances de nombreuses personnes au sujet de la singularité. La loi de Moore décrit un modèle de croissance exponentielle de la complexité des circuits intégrés semi-conducteurs. Kurzweil étend cette option pour inclure des technologies beaucoup plus anciennes aux circuits intégrés et de l'étendre à l'avenir. Il croit que la croissance exponentielle de la loi de Moore continuera au-delà de l'utilisation de circuits intégrés, avec l'utilisation des technologies qui conduiront la singularité.

La loi décrit par Ray Kurzweil a changé à bien des égards la perception de la loi de Moore par le public. Il est une croyance commune (mais à tort) que la loi de Moore fait des prédictions qui se rapportent à toutes les formes de la technologie, alors qu'en réalité il ne concerne que les circuits semi-conducteurs. De nombreux futurologues utilisent encore la « loi de Moore » pour décrire des idées telles que celles présentées par Kurzweil. La réalisation de prévisions à long terme, au moins partiellement correct, sur l'endroit où être en mesure d'obtenir la technologie, il est pratiquement impossible. Trop souvent, nous pensons des progrès technologiques comme quelque chose qui se déroule d'une manière linéaire, selon ce qui est la progression intuitive en ligne.

Pour exprimer le concept en termes mathématiques, on pourrait penser à représenter cette vitesse avec une courbe exponentielle. Toutefois, cela ne serait toujours pas exact; une tendance exponentielle, est en fait correct, mais seulement pour de courtes périodes de temps: si l'on prend en compte, par exemple, une période de 100 ans, une courbe exponentielle, n'est pas correct. En général les journalistes établissent leurs prévisions, lors de l'examen du futur en extrapolant l'évolution actuelle de la vitesse pour déterminer ce que vous pouvez vous attendre dans les dix ou cent ans. C'est ce que appelle Ray Kurzweil vue linéaire intuitive.

Qu'est-ce que Kurzweil appelle la loi du retour accéléré Vous pouvez être schématisée comme suit:

  • développement applique des commentaires positifs, comme meilleure méthode dérivée d'une phase de progrès. Ces résultats positifs sont la base pour le développement ultérieur;
  • Par conséquent, le taux de progression d'un processus évolutif augmente de façon exponentielle avec le temps. Au fil du temps, l'ampleur des informations qui sont incluses dans le processus de développement augmente;
  • par conséquent, le gain en termes de technologie augmente de façon exponentielle;
  • dans un autre cycle de rétroaction positive, un processus évolutif particulier, ils sont utilisés comme un tremplin pour de nouveaux progrès. Cela provoque un deuxième niveau de croissance exponentielle et le processus de développement exponentiel lui-même croît de façon exponentielle;
  • le développement biologique est également l'un de ces développements;
  • développement technologique fait partie de cette évolution. En effet, la première technologie qui a généré l'espèce a constitué la base pour le développement de la technologie suivante: le développement technologique est une conséquence et une poursuite du développement biologique;
  • un paradigme particulier (= méthode) (comme par exemple l'augmentation du nombre de transistors sur des circuits intégrés afin de rendre les ordinateurs les plus puissants) garantit une croissance exponentielle jusqu'à ce qu'il épuise son potentiel; Il arrive après un changement qui permet une croissance exponentielle de continuer.

Six fois Kurzweil

Si vous appliquez ces principes à l'évolution de la Terre, vous pouvez voir qu'ils participent au processus de développement qui a eu lieu:[3]

  • Le millésime: la physique et la chimie, des informations sur les installations nucléaires. Vous pouvez le comparer avec la création de la cellule, des combinaisons d'acides aminés dans les protéines et des acides nucléiques (ARN, ADN par la suite), à ​​savoir l'introduction du paradigme de la biologie.
  • période II: biologie, information dans l'ADN. Par conséquent, l'ADN a fourni une méthode « numérique » pour enregistrer les résultats des expériences de développement.
  • Epoch III: le cerveau, l'information configurations neuronales. L'évolution de l'espèce a combiné la pensée rationnelle.
  • Epoch IV: la technologie, l'information dans les projets matériel et logiciel. Cela a changé de façon décisive le paradigme de la biologie à la technologie.
  • époque V: la fusion entre la technologie et l'intelligence humaine, la technologie a maîtrisé les méthodes de la biologie (y compris l'intelligence humaine). Qu'est-ce qui va se passer sera de commutation intelligence biologique à une combinaison de l'intelligence biologique et non biologique.
  • ère VI: l'univers se réveille, l'intelligence humaine largement étendu (la plupart du temps non organique) se répand dans l'univers.

Examiner le calendrier de ces étapes, vous pouvez voir comment le processus accélère en permanence. L'évolution des formes de vie, par exemple, a plusieurs millions d'années pour la première étape (par exemple. Les cellules primitives), mais après toujours a accéléré plus. Maintenant, la « technologie biologique » est devenu trop lent par rapport à la technologie de l'homme, qui utilise ses propres résultats pour aller de l'avant d'une manière beaucoup plus rapide que ce qu'ils peuvent faire la nature.

Les courbes de croissance asymptotique

quelques-uns[Qui?] prendre une croissance technologique toujours plus rapide viendra avec le développement d'un intelligence surhumaine, que ce soit directement l'amélioration de l'esprit humain (peut-être avec le cybernétique), Ou la construction AIs. Ces intelligences surhumaines seraient vraisemblablement en mesure d'inventer des façons de se donner les moyens encore plus rapide, conduisant à un effet de rétroaction qui surpassent l'intelligence pré-existante.

Il suffit d'avoir une intelligence artificielle au même niveau que l'homme, présumer plus[Qui?], Il pourrait produire le même effet, si la loi de Kurzweil se poursuit indéfiniment. Tout d'abord, il est supposé, un tel esprit doit être égale à celle de l'homme. Dix-huit mois plus tard, il serait deux fois plus vite. Trois ans plus tard, il serait quatre fois plus rapide, et ainsi de suite. Mais étant donné que les intelligences artificielles sont accélérés, à ce moment-là, la conception des ordinateurs, chaque étape suivante prendrait dix-huit mois subjectif et proportionnellement moins de temps réel à chaque étape. Si la loi de Kurzweil continue d'appliquer sans changement, chaque étape prendrait la moitié du temps. En trois ans (36 mois = 18 + 9 + 4,5 + 2,25 + ...) la vitesse de l'ordinateur, en théorie, atteindrait l'infini. Cet exemple illustre, et en tout cas, beaucoup de futurologues conviennent que l'on ne peut supposer que la loi de Kurzweil est également valable pendant la singularité, ou il peut rester vrai littéralement pour toujours, car il serait nécessaire de produire, de cette façon, une intelligence vraiment infinie.

Une confirmation possible all'inattuabilità d'une telle singularité technologique, sur les limites du développement de l'intelligence durable, née il y a quelque temps par un cosmologiste britannique de renom Martin Rees, qui a fait valoir que la dimension organique actuelle du cerveau humain, à la fois en fait déjà la limite supérieure de la capacité de l'animal au maximum de développer des concepts intelligents, au-delà duquel l'information à travers les synapses prendrait trop de temps pour être le raisonnement de l'évolution constructive et complète, et serait limitée à l'accumulation de concepts destinés à la mémoire à long terme.[citation nécessaire] Pour clarifier, un cerveau qui a été deux fois celle d'un être humain, stockerait deux fois plus de données que possible, mais à deux fois le temps et à la moitié de la vitesse de l'apprentissage, (et ainsi de suite de façon exponentielle), ce qui, en fait, négatif progrès. Si ce théorème a été appliqué également aux systèmes informatiques évolués donc, nous aussi ici une limite physique supérieure, au-delà duquel la distance physique entre les processeurs et la vitesse hypothétique résultant du traitement de données d'origine, seraient soumis à des limites qui, bien qu'élevé, point culminant au plus bas dans un super-mémoire massif plutôt que d'un super-ordinateur avec l'intelligence infinie.

Les implications sociales de la singularité technologique

Selon de nombreux chercheurs[Qui?], développement technologique conduisant à singularites aura des effets importants sur de nombreux aspects de notre vie quotidienne, tant au niveau individuel et social. Au niveau politique, la promotion de la technologie permet de créer des formes alternatives d'association à l'État moderne: même sans tenir compte de la colonisation d'autres planètes (perspective analysée de toute façon par de nombreux transhumanistes, y compris Ray Kurzweil), Il existe déjà des plans concrets pour la création de communautés autonomes de libertaire dans les eaux non-territoriales - comme Seasteading Fondation Patri Friedman (petit-fils du Prix Nobel Milton Friedman).

D'autres chercheurs - y compris le fondateur de 'Institut d'intelligence artificielle générale de la recherche Ben Goertzel[4] et co-fondateur de iLabs Gabriele Rossi[5] - envisager explicitement la possibilité d'une « société dans la société », il vit donc « virtuellement » dans les relations entre ses participants et ne se limite pas à un espace physique spécifique (une version extrême de ce qui se passe déjà en chemin primitif, avec second Life et réseaux sociaux).

L'approche de la singularité changera finalement l'économie et la justice[6]. La disponibilité des EAE va révolutionner le marché du travail, l'introduction, en plus des questions éthiques souvent citées, les nouveaux défis de production[7]; l'extension radicale de la vie, nécessitera des changements dans tous les secteurs concernés, de soins de santé à l'assurance[8]. Enfin - il réalise un rêve qui avait déjà Norbert Wiener, père de Cybernétique - la croissance exponentielle de la connaissance de la réalité et l'amélioration des systèmes d'experts permettra un remplacement progressif de la justice humaine avec une justice automatique plus efficace et objective[9].

Les critiques

Il existe deux principaux types de critique à l'attente de la singularité: ceux qui doutent que la singularité est probable ou même possible, et ceux qui se demandent s'il est souhaitable ou non plutôt être considéré comme dangereux et d'opposition autant que possible.

La possibilité et la probabilité de la singularité

quelques-uns[Qui?] Ils estiment qu'une singularité technologique a peu de chances de réalisation. Ironie du sort se réfèrent à Détracteurs comme « prendre dans le ciel nerds».

La plupart des spéculations sur la singularité présument la possibilité d'une intelligence artificielle supérieure à l'homme. Il est certain que de créer une intelligence artificielle similaire est possible. Beaucoup croient que les progrès pratiques dans l'intelligence artificielle n'ont pas encore prouvé de façon empirique. Voir l'article sur 'intelligence artificielle Pour plus de détails sur le débat.

quelques-uns[Qui?] Ils font valoir que la rapidité des progrès technologiques augmente. la croissance exponentielle des changements technologiques peut être linéaire ou flex ou pourrait commencer à aplatir une courbe qui permet une croissance limitée.

l'écrivain Roberto Vacca Il se concentre notamment sur l'affirmation de Kurzweil sur la « exponentielle » de « progrès tous les aspects de l'information », la lutte contre l'absence de progrès fait suite à une loi exponentielle[10].

L'opportunité et l'unicité de la sécurité

Nous avons souvent spéculé, dans la science-fiction et d'autres genres, que l'IA avancée pourrait probablement avoir des objectifs qui ne coïncident pas avec ceux de l'humanité et pourrait menacer leur existence. Il est concevable, bien que peu probable, qu'une AI (intelligence artificielle) Super-intelligent, tout simplement éliminer la race humaine intellectuellement inférieurs, et les humains seraient incapables de l'arrêter. Ceci est l'un des problèmes majeurs qui concernent aussi bien les partisans de la singularité que ses critiques, et a fait l'objet d'un article Bill Joy apparu sur Wired Magazine, intitulé Pourquoi l'avenir ne pas besoin de nous.[11]

certains critiques[Qui?] Ils disent que les technologies de pointe sont tout simplement trop dangereux pour nous de lui permettre de provoquer une singularité, et de proposer que nous travaillons pour l'empêcher. Peut-être le promoteur le plus célèbre de ce point de vue est Theodore Kaczynski, Unabomber, qui a écrit dans son « manifeste » que l'AI pourrait donner le pouvoir aux classes supérieures de la société de « décider simplement d'exterminer la masse de l'humanité ». Par ailleurs, si l'IA n'a pas été créé, Kaczynski affirme que les humains « réduire au niveau des animaux domestiques » après qu'il y aura un progrès technologique suffisante. Une partie des écrits de Kaczynski ont été inclus soit dans l'article Bill Joy que, dans un livre récent Ray Kurzweil. Il faut noter que non seulement Kaczynski est opposé à la singularité, mais elle est luddite et beaucoup de gens sont opposés à la singularité sans opposition à la technologie moderne comme les Luddites.

Bien sûr, des scénarios comme ceux décrits par Kaczynski sont également considérés comme indésirables par les tenants de la singularité. De nombreux partisans de la singularité, cependant, ne croit pas que ceux-ci sont si probables et sont plus optimistes quant à l'avenir de la technologie. D'autres pensent que, quels que soient les dangers que la singularité prend naissance, il est tout simplement inévitable, nous devons aller de l'avant sur le plan technologique, car nous avons pas d'autre voie à suivre.

Les partisans bienvenus intelligence artificielle, et en particulier l'Institut Singularity, reconnaissent que la singularité est potentiellement très dangereux et de travailler pour le rendre plus sûr en créant semences AI qui agira envers les humains et bienveillamment éliminer les risques existentiels. Cette idée est si naturel Trois lois de la robotique Asimov, qui empêchent la logique d'un robot avec l'intelligence artificielle pour agir malicieusement envers les humains. Cependant, dans l'une des histoires de Asimov, malgré ces lois, les robots finissent par causer des dommages à un seul être humain à la suite de la formulation de loi zéro. La structure théorique de l'intelligence artificielle Friendly est actuellement conçu par Singolaritiano Eliezer Yudkowsky.

Un autre point de vue, bien que moins fréquente, est que l'intelligence artificielle finira par dominer ou détruire la race humaine, et que ce scénario est souhaitable. Prof. Dr. Hugo de Garis est le plus connu promoteur de ce point de vue.

L'avis des techno-individualistes est que chaque individuel doit être en mesure d'augmenter artificiellement toutes les facultés peuvent (intellectuelles et autres), afin de répondre à la fois la singularité des deux élites puissance. Selon eux, le investissements et la recherche et le développement de la technologie devraient permettre aux individus, non autorité, et la caste dirigeante ne connaît pas les perspectives. Fondamentale, pour eux, est la force de la pleine liberté communication entre les individus (entre individualisme, transhumanisme, Théorie de la Swarm - l'intelligence essaimage).

organisations

L'Institut Singularity pour l'intelligence artificielle (Singularity Institute), un but non lucratif de recherche et de l'éducation, a été créé pour travailler sur certains amélioration cognitive (i.e. une singularité bénéfique). Ils mettent l'accent sur l'intelligence artificielle amicale, car ils croient qu'un généraliste d'intelligence artificielle est plus probable peut augmenter considérablement la capacité cognitive avant que l'intelligence humaine peut être augmentée de manière significative par neurotechnologies ou par thérapie génique somatique.

La singularité dans l'imaginaire et dans la culture moderne

Vous pouvez trouver des traces de l'idée d'un moment où un nouveau type de machines remplacera l'homme déjà dans les écrits de Samuel Butler

Que faire si la technologie continue d'évoluer beaucoup plus vite que les règnes animal et végétal? Il remplacerait à la suprématie de la planète? Tout comme le règne végétal a lentement développé à partir du minéral, et à son tour le règne animal a repris du végétal, de la même façon, ces derniers temps un tout nouveau royaume est né, que nous avons vu, jusqu'à présent, que ce un jour considéré comme le prototype antédiluvienne d'une nouvelle course ... Nous confions les machines, jour après jour, de plus en plus de puissance, et en leur fournissant, à travers les mécanismes les plus variés et ingénieux, les capacité d'autorégulation et de l'autonomie d ' l'action de fournir pour eux ce que l'intelligence a été pour l'humanité. »

(Samuel Butler, 1855)

ainsi que le concept des hommes inféodée aux machines

Les machines sont utilisées l'homme aussi longtemps pour être servi, et de mettre leurs propres conditions de cet accord de prêt [...]. Combien d'hommes vivent aujourd'hui dans l'esclavage que les machines? Combien passent toute leur vie, du berceau à la mort, aux soins jour et nuit les machines? Pensez au nombre toujours croissant d'hommes, ils réduits en esclavage, ou qui se dévouent corps et âme au royaume des progrès mécanique est pas évident que les machines prennent le dessus sur nous? [...] Il y a probablement plus d'hommes engagés dans le traitement des machines qui traitent leur propre espèce? »

(Samuel Butler, 1871 Erewhon)

Vous pouvez trouver des concepts similaires à ceux qui ont trait au développement post-singularité dans la description point oméga telle que formulée par Pierre Teilhard de Chardin.

En plus des histoires originales Vernor Vinge qui a été le pionnier des premières idées sur la singularité, plusieurs autres auteurs de science-fiction ont écrit des histoires qui ont la singularité comme thème central. Les auteurs de la note incluent Charles Stross, Greg Egan et Rudy Rucker.

Le jeu d'ordinateur Alpha Centauri de Sid Meier aussi présente quelque chose qui ressemble à une singularité, appel « Montée à la Transcendance », comme le thème principal en elle.

Le concept de singularité est également utilisé par Isaac Asimov dans son compte La dernière question.

Les références à la notion de singularité peut être retracée dans le film transcendance, de 2014 Johnny Depp.

notes

  1. ^ (FR) Vernon Vinge, La venue Singularité technologique: Comment survivre dans le post-humain était (PDF), Dans Vision-21 Interdisciplinary Science et ingénierie à l'ère du Cyberespace, Actes d'un colloque co-parrainé par le Centre de recherche NASA Lewis et l'Institut aérospatial de l'Ohio et a tenu à Westlake, dans l'Ohio, 1993, p. 11-22. Récupéré le 8 Juin, ici à 2015.
  2. ^ Ray Kurzweil, La loi du retour accéléré, kurzweilai.net, 7 mars 2001. Récupéré le 8 Juin, ici à 2015.
  3. ^ Raymond Kurzweil, La singularité est proche, Viking Press, 2005.
  4. ^ «La diminution Rareté va nous permettre d'une approche optimale (Meta) Société?
  5. ^ La loi dans la société de semi-Immortalité
  6. ^ Transvision 2010
  7. ^ R. Hanson, « Si les téléchargements sont d'abord »
  8. ^ Lombardia Dossier, Le Journal Juillet 2010
  9. ^ Monsieur Juillet 2010
  10. ^ Roberto Vacca, « Comment arrêter le temps et le remplir avec de bonnes idées », 2016
  11. ^ Bill Joy, Pourquoi l'avenir ne pas besoin de nous., Wired, en Avril an 2000. Récupéré le 8 Juin, ici à 2015.

bibliographie

  • Damien Broderick. Spike: Comment nos vies sont rapidement transformées par le développement des technologies Forge; 2001. ISBN 0-312-87781-1.
  • Raymond Kurzweil, La Singularité est proche, Apogée, 2008. ISBN 978-88-503-2504-7.
  • Antonella Canonico et Gabriele Rossi, Semi-Immortalité. L'extension indéfinie de la vie, Lampi Impression 2007. ISBN 978-88-488-0640-4.

Articles connexes

liens externes

en italien

en anglais