Skip to content

Technological Singularity

Unter dem Begriff technologische Singularität werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein hypothetischer zukünftiger Zeitpunkt verstanden, an dem künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft und sich dadurch rasant selbst verbessern und neue Erfindungen machen würde, wodurch der technische Fortschritt irreversibel und derart beschleunigt würde, dass die Zukunft der Menschheit nach diesem Ereignis nicht mehr vorhersehbar wäre. Die erste Superintelligenz wäre also die letzte Erfindung, die die Menschheit zu machen hat, da spätere weitestgehend von Maschinen entwickelt würden.[1]

Populär wurde der Begriff durch das 2005 erschienene Buch The Singularity Is Near: When Humans Transcend Biology (deutscher Titel: „Menschheit 2.0: Die Singularität naht“) des US-amerikanischen Computerpioniers und Autors Raymond Kurzweil,[1][2] der das Datum der Singularität auf das Jahr 2045 schätzt.[1]

Der prognostizierte Zeitpunkt der Singularität wurde von Zukunftsforschern mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten.[3]

Der Begriff ist eng verbunden mit den Theorien und Ideen des Transhumanismus und des Posthumanismus. Einige ihrer Vertreter gehen davon aus, dass sich durch den damit verbundenen technologischen Fortschritt die Dauer der menschlichen Lebenserwartung maßgeblich steigern bzw. sogar biologische Unsterblichkeit erreichen lässt.[4][5]

Inhalt der Theorie

Der Erwartung einer technologischen Singularität liegt die Beobachtung zugrunde, dass sich Technik und Wissenschaft seit Anbeginn der Menschheit immer rascher weiterentwickeln und viele zahlenmäßig beschreibbare Phänomene wie Wissens- und Wirtschaftsentwicklung einem mindestens exponentiellen Wachstum folgen. Dazu zählt insbesondere die Rechenleistung von Computern, worauf Gordon Moore 1965 hinwies (Mooresches Gesetz). Seit etwa 1940 verdoppelt sich die für 1.000 US-Dollar erhältliche Rechenleistung in kürzer werdenden Zeitintervallen, zuletzt (Stand 2009 oder früher) alle 18 Monate, bisher insgesamt um zwölf dezimale Größenordnungen. Diesem rasanten technischen Fortschritt stehe die konstante Leistungsfähigkeit des menschlichen Gehirns bezüglich bestimmter Fähigkeiten gegenüber. Hans Moravec bezifferte die Rechenleistung des Gehirns zunächst auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich lag eine Grafikkarte für 800 Euro im Juli 2019 bei einer Leistung von 11 Teraflops.[6] Auch wenn man der menschlichen Denkfähigkeit eine höhere Rechenleistung zuordne, sei demnach die technologische Singularität nur eine Frage der Zeit.

Anthony Berglas wagt am Beispiel der Spracherkennung einen groben Vergleich der Rechenleistung von Mensch und Computer. Mit Stand von 2012 würden Desktopcomputer für eine Spracherkennung auf menschlichem Niveau ausreichen. Im menschlichen Gehirn machen bekannte Regionen, die zur Spracherkennung verwendet werden, vermutlich jedoch nur 0,01 % des Gesamtgehirns aus. Ließe sich die restliche menschliche Intelligenz ebenso gut in Algorithmen umsetzen, fehlten nur wenige Größenordnungen, bis Computer die Denkfähigkeit von Menschen erreichen.[7] An der Stelle geht Berglas nicht darauf ein, welche über das bloße Identifizieren der gesprochenen Wörter hinausgehende Funktionalität die in diesem Vergleich genannten Hirnregionen bieten.

Als weitere Grundbedingung für eine Singularität kommt neben der reinen Rechenleistung die starke künstliche Intelligenz hinzu, die nicht speziell für eine Aufgabe programmiert werden muss. Eine starke künstliche Intelligenz mit mehr Rechenleistung als das menschliche Gehirn wäre eine sogenannte Superintelligenz. Würde sie sich selbst verbessern, käme es zu einem rasanten technischen Fortschritt, dem die Menschen verstandesmäßig nicht mehr folgen könnten. Ein starkes KI-System muss nicht viele Gemeinsamkeiten mit dem Menschen haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und in seinen Entwicklungsstadien ebenfalls nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt.[8]

Entwicklung der Theorien

Erste Erwähnungen (1958–1970)

Die erste bekannte Erwähnung des Konzepts einer technologischen Singularität geht auf Stanisław Ulam zurück, der sich im Mai 1958 folgendermaßen zu einer Unterhaltung mit John von Neumann äußerte:

„Ein Gespräch drehte sich um die stete Beschleunigung des technischen Fortschritts und der Veränderungen im Lebenswandel, die den Anschein macht, auf eine entscheidende Singularität in der Geschichte der Menschheit hinauszulaufen, nach der die Lebensverhältnisse, so wie wir sie kennen, sich nicht fortsetzen könnten.“[9]

1965 beschrieb der Statistiker I. J. Good ein Konzept, das der heute vorherrschenden Bedeutung von Singularität insofern noch näher kam, als es die Rolle künstlicher Intelligenz mit einbezog:

„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“

Auch die 1970 erschienene wirtschaftliche Trendanalyse Future Shock von Alvin Toffler bezog sich auf die Singularität.

Vernor Vinge und Ray Kurzweil

Ray Kurzweil (2006)

In den 80er Jahren begann der Mathematiker und Autor Vernor Vinge von einer Singularität zu sprechen, 1993 veröffentlichte er seine Ideen in dem Artikel Technological Singularity.[10] Daraus stammt auch die häufig zitierte Prognose, dass wir „innerhalb von 30 Jahren über die technologischen Mittel verfügen werden, um übermenschliche Intelligenz zu schaffen. Wenig später ist die Ära der Menschen beendet.“

Vinge postuliert, dass übermenschliche Intelligenz, unabhängig davon, ob durch kybernetisch erweiterte menschliche Intelligenz oder durch künstliche Intelligenz erreicht, wiederum noch besser dazu in der Lage sein wird, ihre Intelligenz zu steigern. „Wenn Fortschritt von übermenschlicher Intelligenz vorangetrieben wird“, so Vinge, „wird dieser Fortschritt deutlich schneller ablaufen.“ Diese Art von Rückkopplung soll zu enormem Fortschritt in sehr kurzer Zeit führen (Intelligenzexplosion).

In dem 2001 veröffentlichten Artikel The Law of Accelerating Returns stellt Ray Kurzweil die These auf, dass das Mooresche Gesetz nur ein Spezialfall eines allgemeineren Gesetzes ist, nach dem die gesamte technologische Evolution verläuft.[11] Er glaubt, dass das durch das Mooresche Gesetz beschriebene exponentielle Wachstum sich auch in den Technologien fortsetzen wird, die die heutigen Mikroprozessoren ablösen werden, und letztendlich zur Singularität führen wird, die er als „technischen Wandel“ definiert, der „so schnell und allumfassend ist, dass er einen Bruch in der Struktur der Geschichte der Menschheit darstellt.“

Technologien

Zukunftsforscher spekulieren über verschiedene Technologien, die zum Eintreten einer Singularität beitragen könnten. Allerdings herrscht keine Einigkeit darüber, wann und ob diese Technologien überhaupt verwirklicht werden können.

Eine künstliche Intelligenz mit der Fähigkeit, sich selbst zu verbessern, wird als „Seed AI“ bezeichnet. Viele Anhänger der Singularität meinen, eine Seed AI sei die wahrscheinlichste Ursache einer Singularität.

Viele Anhänger der Singularität halten die Nanotechnologie für eine der größten Bedrohungen der Zukunft der Menschheit (Grey Goo). Aus diesem Grund fordern einige, dass molekulare Nanotechnologie nicht vor Auftreten einer Seed AI praktiziert wird. Das Foresight Institute vertritt dagegen die Meinung, dass ein verantwortungsvoller Umgang mit dieser Technologie auch in Präsingularitätszeiten möglich sei und die Realisierung einer für die Menschheit positiven Singularität dadurch beschleunigt werden könne.

Neben künstlicher Intelligenz und Nanotechnologie wurden auch andere Technologien mit der Singularität in Zusammenhang gebracht: Direkte Gehirn-Computer-Schnittstellen, die zu dem Bereich Augmented Intelligence gezählt werden, könnten zu verbessertem Gedächtnis, umfangreicherem Wissen oder größerer Rechenkapazität unseres Gehirns führen. Auch Sprach- und Handschrifterkennung, leistungssteigernde Medikamente und gentechnische Methoden fallen in diesen Bereich.

Als alternative Methode zur Schaffung künstlicher Intelligenz wurde, in erster Linie von Science-Fiction-Autoren wie Roger Zelazny, die Methode des Mind Uploading vorgeschlagen. Anstatt Intelligenz direkt zu programmieren, wird hier der Aufbau eines menschlichen Gehirns per Scan in den Computer übertragen. Die dazu nötige Auflösung des Scanners, die benötigte Rechenkraft und das erforderliche Wissen über das Gehirn machen das in der Präsingularitätszeit jedoch eher unwahrscheinlich.

Daneben wurde noch die Emergenz intelligenten Verhaltens aus einem hinreichend komplexen Computernetzwerk, sogenannte Schwarmintelligenz, in Betracht gezogen, beispielsweise von George Dyson in dem Buch Darwin Among the Machines.

Die potenzielle Leistungsfähigkeit von Quantencomputern – sollten sie je auf viele Qbits skalierbar sein – ist immens. Gleichzeitig sind Quantencomputer schwer zu programmieren, weil erstens jede Operation alle 2n überlagerten Zustände tangiert und zweitens die Rechnung nicht verfolgt werden kann: Nur am Ende der Rechnung, nach dem Kollaps der Wellenfunktion, ergeben sich n Bits als Ergebnis. Dieses Paradoxon ließ Michael Nielsen auf dem Singularity Summit spekulieren, dass erst die künstlichen Intelligenzen jenseits der Singularität in der Lage sein könnten, Quantencomputer sinnvoll zu benutzen, dass dann aber eine zweite Singularität eintreten könnte, nach der auf Quantencomputern ausgeführte Intelligenzen für ihre Programmierer ebenso unfassbar agierten, wie die klassischen KIs für uns Menschen.[12]

Auswirkungen

Die technologische Singularität begrenze den menschlichen Erfahrungshorizont, so die Vertreter der Hypothese. Die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen könnten damit vom menschlichen Bewusstsein zu keinem gegenwärtigen Zeitpunkt erfasst werden, da sie von einer Intelligenz bestimmt würden, die der menschlichen fortwährend überlegen wäre. Die Evolution könnte aus dem Bereich der Biologie in den der Technik wechseln.

Etliche Befürworter aus den Reihen des Trans- und Posthumanismus sehnen die technologische Singularität herbei. Sie vertreten die Ansicht, sie sei der Endpunkt, auf den die Evolution zwangsläufig hinauslaufen werde. Letztlich erhoffen sie die Erschaffung übermenschlicher Wesen, die eine Antwort auf den Sinn des Lebens liefern oder das Universum einfach nur in einen lebenswerteren Ort verwandeln. Eine Gefahr sehen sie in dieser höheren Intelligenz nicht, denn gerade weil sie höher entwickelt sei, verfüge sie über ein dem Menschen überlegenes, friedfertiges ethisches Bewusstsein.

Laut Ray Kurzweil wird die Geschwindigkeit der durch technischen Fortschritt verursachten Veränderung in verschiedenen Lebensbereichen in den 2040er Jahren so schnell sein, dass es ohne die Erhöhung der eigenen Intelligenz durch intelligente Technologien nicht mehr möglich sei, ihr zu folgen.[13] Schlussendlich werde die technologische Singularität eine Auswirkung auf alle Lebensbereiche haben und die Menschheit in die Lage versetzen, all ihre physischen Bedürfnisse zu befriedigen.[14]

Kritiker betonen indes, dass das Eintreten einer technologischen Singularität verhindert werden müsse. Eine überlegene Intelligenz gehe nicht zwangsläufig mit einer friedfertigen Gesinnung einher und die entstehende Superintelligenz könne die Menschheit mühelos ausrotten. Sie sehen bereits im Streben nach einer technologischen Singularität einen Fehler, denn Sinn und Zweck von Technologie sei es gerade, den Menschen das Leben zu erleichtern; für sich selbst denkende Technologie verstoße gegen diesen Zweck und sei daher nicht erstrebenswert.

Das Thema maschinell eigenständiger, ethischer Ziel- und Wertefindung im Rahmen von Superintelligenz und technologischer Singularität wird als Wertgebungsproblem diskutiert.

Kritische Beurteilung

Die Theorie der technologischen Singularität wird von verschiedenen Seiten kritisiert.

Ein Kritikpunkt sind fehlerhafte Datenauslegung und damit mangelnde Wissenschaftlichkeit. Das Mooresche Gesetz werde in die Zukunft extrapoliert, obwohl die bisherige Steigerung der Rechenleistung auf Verkleinerung der Computerschaltkreise beruhe, die physikalisch begrenzt sei. Zudem sind die Leistungsangaben lediglich theoretische Höchstwerte, die sich ebenfalls exponentiell von praktischen Werten entfernen, da die Speicherbandbreite viel langsamer wächst (Memory Wall). Das Gehirn speichert Daten nicht separat von Schaltkreisen zu ihrer Verarbeitung. Zwar bilden Perzeptrons (einfache neuronale Netze) den menschlichen Wahrnehmungsprozess mit wenigen Nervenzellen nach. Allerdings steht bereits in verschiedenen Projekten wie dem Human Brain Project die Simulation eines kompletten Gehirns in Aussicht.

Ein Kritikpunkt war die stagnierende Forschung im Gebiet starker KI. Trotz jahrzehntelanger Forschung zeichnete sich lange kein Durchbruch ab.[15] Das wirtschaftliche Interesse am Thema war schon in den 1970er Jahren erloschen und hatte sich der schwachen KI – hochspezialisierten Problemlösern für Einzelaufgaben – zugewandt. Jordan Pollack dämpfte die Erwartungen raschen Fortschritts in dieser Richtung: „Having worked on AI for 30 years, I can say with certainty that Moore’s law doesn’t apply to software design.“[16] Dieser Kritikpunkt ist in den letzten Jahren durch Durchbrüche wie zum Beispiel DeepMinds Sieg im Go gegen Lee Sedol[17] geschwächt worden.

Andere Kritik äußert Zweifel am Singularitätsbegriff. So habe es in der Geschichte der Menschheit viele Zeitpunkte gegeben, zu denen die Welt, in der wir heute leben, völlig unvorstellbar gewesen wäre. Begrenze man die Definition der Singularität auf „überschreitet die Grenze unseres Vorstellungsvermögens“, so sei die angesprochene Singularität nichts Einmaliges, sondern ein immer wieder stattfindendes Ereignis.

Schließlich gibt es Kritik an der Originalität der Theorie. Für den Science-Fiction-Schriftsteller Ken MacLeod etwa ist die Idee der technologischen Singularität nichts weiter als die technisierte Neuauflage des theologischen Begriffs der Lehre von den Hoffnungen auf Vollendung der Welt (der sog. Eschatologie), ähnlich auch bei Jaron Lanier.[18] Verschiedentlich wird die Konzeption der technologischen Singularität als eine technische Variation des Übermenschen eingeordnet.[19] Thomas Wagner sieht sogar den Wunsch nach Gottwerdung des Menschen.[20] So schreibt Kurzweil:[2]

Wenn wir die gesamte Materie und Energie des Weltalls mit unserer Intelligenz gesättigt haben, wird das Universum erwachen, bewußt werden – und über phantastische Intelligenz verfügen. Das kommt, denke ich, Gott schon ziemlich nahe.

Ray Kurzweil

Quelle