See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Technologische Singularität – Wikipedia

Technologische Singularität

aus Wikipedia, der freien Enzyklopädie

In der Futurologie bezeichnet der Begriff Technologische Singularität den Zeitpunkt, ab dem der technische Fortschritt so schnell abläuft, dass ihn ein durchschnittlicher Mensch ohne Hilfsmittel nicht mehr begreifen kann.

Ausgangspunkt für die Theorie der technologischen Singularität ist die These, dass sich Technik und Wissenschaft seit Anbeginn der Menschheit immer rascher weiterentwickeln und viele zahlenmäßige Entwicklungen wie Bevölkerungs-, Wissens-, und Wirtschaftsentwicklung einem raschen exponentiellen Wachstum zu folgen scheinen. Dazu zählt auch die Rechenleistung von Computern: Laut einer Prognose Raymond Kurzweils verdoppelt sich die für 1.000 US-Dollar erhältliche Rechenleistung jedes Jahr. Dem rasanten technischen Fortschritt steht die scheinbar konstant bleibende Leistungsfähigkeit des durchschnittlichen menschlichen Geistes gegenüber. Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Nach diesem Modell ist es nur eine Frage der Zeit, bis die Rechenleistung von Computern die Rechenleistung des menschlichen Gehirns überflügelt. Das bloße Übertreffen der Rechenleistung sagt jedoch nichts darüber aus, wie und zu welchem Zweck die technische Mehrleistung verwendet wird. Als weitere Grundbedingung für eine Singularität kommt daher die starke künstliche Intelligenz hinzu, ein künstliches System, das kreativ über Probleme nachdenken kann. Laut Theorie ist eine starke künstliche Intelligenz mit mehr Rechenleistung als das menschliche Gehirn eine sogenannte Superintelligenz, also intelligenter als der Mensch selbst, und kann damit Technik und Wissenschaft noch schneller vorantreiben, wenn es überhaupt einen Zusammenhang zwischen technischem und wissenschaftlichem Fortschritt und Intelligenz gibt. Vielleicht könnte sie dadurch weitere künstliche Systeme schaffen, die noch intelligenter sind; es käme zu einer Rückkopplung und einem derart rasanten technischen Fortschritt, dass die Menschen verstandesmäßig nicht mehr folgen können.

Neben künstlicher Intelligenz werden auch andere Technologien gehandelt, die zu einer technologischen Singularität führen könnten: Technische Implantate mit Gehirn-Computer-Schnittstellen oder Gentechnik könnten die Leistungsfähigkeit des menschlichen Geistes derart steigern, dass Menschen ohne diese Ausrüstung der Entwicklung nicht mehr folgen könnten. Diese Szenarien werden in der Futurologie unter dem Begriff Augmented Intelligence (engl. „erweiterte Intelligenz”) geführt.

Inhaltsverzeichnis

[Bearbeiten] Geschichte

[Bearbeiten] Frühe Erwähnungen

Die erste bekannte Erwähnung des Konzepts einer Singularität geht auf Stanislaw Ulam zurück, der sich im Mai 1958 folgendermaßen zu einer Unterhaltung mit John von Neumann äußerte:

„Ein Gespräch drehte sich um den sich stets beschleunigenden technologischen Fortschritt und um die Veränderungen in der Art und Weise menschlichen Lebens, die den Anschein machen, auf eine unumgängliche Singularität in der Geschichte der Menschheit hinauszulaufen, nach der das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann.“

1965 beschrieb der Statistiker I. J. Good ein Konzept, das der heute vorherrschenden Bedeutung von Singularität insofern noch näher kam, als es die Rolle künstlicher Intelligenz mit einbezog:

„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“

Auch die 1970 erschienene wirtschaftliche Trendanalyse Future Shock von Alvin Toffler bezog sich auf die Singularität.

[Bearbeiten] Vernor Vinge

In den 80er Jahren begann der Mathematiker und Autor Vernor Vinge von einer Singularität zu sprechen, 1993 veröffentlichte er seine Ideen in dem Artikel Technological Singularity. Daraus stammt auch die häufig zitierte Prognose, dass wir „innerhalb von 30 Jahren über die technologischen Mittel verfügen werden, um übermenschliche Intelligenz zu schaffen. Wenig später ist die Ära der Menschen beendet.“ Vinge schreibt, dass übermenschliche Intelligenz, unabhängig davon, ob durch kybernetisch erweiterte menschliche Intelligenz oder durch künstliche Intelligenz erreicht, wiederum noch besser dazu in der Lage sein wird, ihre Intelligenz zu steigern. „Wenn Fortschritt von übermenschlicher Intelligenz vorangetrieben wird“, so Vinge, „wird dieser Fortschritt deutlich schneller ablaufen.“ Diese Art von Rückkopplung soll zu enormem Fortschritt in sehr kurzer Zeit führen.

[Bearbeiten] Ray Kurzweil

In dem 2001 veröffentlichten Artikel The Law of Accelerating Returns stellt Raymond Kurzweil die These auf, dass das Mooresche Gesetz nur ein Spezialfall eines allgemeineren Gesetzes ist, nach dem die gesamte technologische Evolution verläuft.

Betrachtet man die Entwicklung von mechanischen Rechenmaschinen, über Röhren und Transistoren bis zum heutigen Mikroprozessor, so zeige dies eine doppelt exponentielle Steigerung der Leistungsfähigkeit. Die Rechenleistung pro 1000 Dollar verdoppelte sich in den Jahren 1910 bis 1950 im Abstand von drei Jahren (mechanische Rechenmaschinen), von 1950 bis 1966 etwa alle zwei Jahre und jetzt etwa jährlich. Ray Kurzweil glaubt, dass das durch das Mooresche Gesetz beschriebene exponentielle Wachstum sich auch in den Technologien fortsetzen wird, die die heutigen Mikroprozessoren ablösen werden, und letztendlich zur Singularität führen wird, die er als „technischen Wandel“ definiert, der „so schnell und allumfassend ist, dass er einen Bruch in der Struktur der Geschichte der Menschheit darstellt.“

[Bearbeiten] Technologien

Zukunftsforscher erwägen verschiedene Technologien, die für die Herbeiführung einer Singularität eine Rolle spielen könnten. Über die Reihenfolge, in der diese Technologien Wirklichkeit werden könnten, besteht keine Einigkeit, ebenso wenig über die Verwirklichbarkeit der meisten Ideen.

[Bearbeiten] Künstliche Intelligenz

Eine künstliche Intelligenz, die die Fähigkeit besitzt, sich rekursiv zu verbessern und so das Stadium menschlicher Intelligenz zu erreichen und zu überschreiten, wird als Seed AI bezeichnet. Viele Anhänger der Singularität sind der Meinung, dass eine Seed AI die wahrscheinlichste Möglichkeit ist, eine Singularität herbeizuführen. Das Singularity Institute for Artificial Intelligence wurde zu diesem Zweck gegründet.

[Bearbeiten] Nanotechnologie

Die möglichen Gefahren von molekularer Nanotechnologie sind auch vielen Menschen bekannt, die nicht an Futurologie und Transhumanismus interessiert sind. Viele Anhänger der Singularität halten von Menschen kontrollierte Nanotechnologie für eine der größten Bedrohungen der Zukunft der Menschheit (Grey Goo). Aus diesem Grund fordern einige, dass molekulare Nanotechnologie nicht vor Auftreten einer Seed AI praktiziert wird.

Von dem Foresight Institute wird dagegen die Meinung vertreten, dass ein verantwortungsvoller Umgang mit dieser Technologie auch in Präsingularitätszeiten möglich ist und die Realisierung einer für die Menschheit positiven Singularität dadurch beschleunigt werden kann.

[Bearbeiten] Andere Technologien

Neben künstlicher Intelligenz und Nanotechnologie wurden auch andere Technologien mit der Singularität in Zusammenhang gebracht: Direkte Gehirn-Computer-Schnittstellen, die zu dem Bereich Augmented Intelligence gezählt werden, könnten zu verbessertem Gedächtnis, umfangreicherem Wissen oder größerer Rechenkapazität unseres Gehirns führen. Auch Sprach- und Handschrifterkennung, leistungssteigernde Medikamente und gentechnische Methoden können hierzu gezählt werden.

Als alternative Methode zur Schaffung künstlicher Intelligenz wurde, in erster Linie von Science-Fiction-Autoren wie Roger Zelazny, die Methode des Mind Uploadings vorgeschlagen. Anstatt Intelligenz direkt zu programmieren, wird hierbei der Aufbau eines menschlichen Gehirns per Scan in den Computer übertragen. Die dazu nötige Auflösung des Scanners, die benötigte Rechenkraft und das erforderliche Wissen über das Gehirn machen dies in der Prä-Singularitäts-Zeit jedoch eher unwahrscheinlich.

Daneben wurde noch die Emergenz intelligenten Verhaltens aus einem hinreichend komplexen Computernetzwerk, so genannte Schwarmintelligenz, in Betracht gezogen, beispielsweise von George Dyson in dem Buch Darwin Among the Machines.

[Bearbeiten] Auswirkungen

Singularitäten im mathematisch-physikalischen Sinne sind Punkte, ab denen die gewohnten Gesetzmäßigkeiten nicht mehr zutreffen. Ebenso wird die technologische Singularität als Zeitpunkt gehandelt, ab dem das menschliche Verständnis der Welt nicht mehr zutrifft. Heute selbstverständliche Grundprinzipien wie die biologische Evolution könnten außer Kraft treten und die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen können schlicht nicht festgemacht werden, weil sie von einer Intelligenz bestimmt würden, die der menschlichen ständig weiter überlegen sein würde.

Einige sehnen die technologische Singularität herbei. Sie vertreten die Meinung, dies sei genau das Ziel, auf das die Evolution hinauslaufe. Letztlich erhoffen sie die Erschaffung übermenschlicher Wesen, die eine Antwort auf den Sinn des Lebens liefern oder das Universum einfach nur in einen lebenswerteren Ort verwandeln. Eine Gefahr sehen sie in dieser höheren Intelligenz nicht, denn gerade weil sie höher entwickelt sei, verfüge sie über ein dem Menschen überlegenes, friedfertiges ethisches Bewusstsein.

Andere meinen, das Eintreten einer technologischen Singularität müsse verhindert werden. Intelligenz habe mit Friedfertigkeit nichts zu tun und die entstehende Superintelligenz könne die Menschheit mühelos ausrotten. Sie sehen bereits im Streben nach einer technologischen Singularität einen logischen Fehler, denn Sinn und Zweck von Technologie sei es gerade, den Menschen das Leben leichter zu machen; für sich selbst denkende Technologie verstoße gegen diese Definition und sei daher prinzipiell nicht erstrebenswert.

[Bearbeiten] Kritik

Die Theorie der technologischen Singularität wird von vielen verschiedenen Seiten kritisiert. Ein Kritikpunkt sind fehlerhafte Datenauslegung und damit mangelnde Wissenschaftlichkeit. So wird beispielsweise als Beleg für die exponentielle Steigerung der Rechenleistung gerne das Mooresche Gesetz herangezogen – dieses sagt aber zunächst einmal überhaupt nichts über die Rechenleistung irgendeines Computersystems aus. Weitere Kritik richtet sich gegen die Annahme, der Technologiefortschritt werde sich weiterhin im bekannten Maße beschleunigen. Kritiker merken an, dass die derzeitige Steigerung der Rechenleistung auf eine Verkleinerung der Computerschaltkreise zurückgeht; diese sei jedoch physikalisch begrenzt und das Erreichen dieser Grenze könne mit einem Knick in der Leistungskurve einhergehen. Der technologische Fortschritt hänge zudem von zahlreichen weiteren Faktoren ab. So würden etwa wirtschaftlich nicht rentable Forschungsgebiete erfahrungsgemäß vernachlässigt und explodierende Forschungs- und Entwicklungskosten könnten ganze Technologiezweige schnell aus dem Rennen werfen.

Der wohl wichtigste Kritikpunkt spricht jedoch die stagnierende Forschung im Gebiet starke künstliche Intelligenz an. Trotz jahrzehntelanger Forschung zeichnet sich hier nicht einmal ein kleiner Durchbruch ab. Das wirtschaftliche Interesse am Thema ist bereits in den 1970er Jahren erloschen und hat sich der vielversprechenderen schwachen Intelligenz – hochspezialisierten Problemlösern für Einzelaufgaben – zugewandt. Zwar bilden Perzeptronen den menschlichen Wahrnehmungsprozess mit wenigen Nervenzellen nach, die Simulation eines kompletten Gehirns steht jedoch noch in den Sternen. Die Funktionsweise des menschlichen Gehirns selbst ist noch nicht ausreichend verstanden; ohne dieses Wissen, so die Argumentation, sei jedoch an eine ausgereifte Computer-Gehirn-Schnittstellen nicht zu denken, von technischen Intelligenzerweiterungen oder der genetischen Zucht eines Genies ganz zu schweigen.

Andere Kritik äußert Zweifel am Singularitätsbegriff. So habe es in der Geschichte der Menschheit viele Zeitpunkte gegeben, zu denen die Welt, in der wir heute leben, völlig unvorstellbar gewesen wäre. Begrenze man die Definition der Singularität auf „überschreitet die Grenze unseres Vorstellungsvermögens“, so sei die angesprochene Singularität nichts einmaliges, sondern ein immer wieder einmal stattfindendes Ereignis.

Schließlich gibt es Kritik an der Originalität der Theorie. Für den Science-Fiction-Schriftsteller Ken MacLeod etwa ist die Idee der technologischen Singularität nichts weiter als die technisierte Neuauflage der Eschatologie.

[Bearbeiten] Organisationen

Das Singularity Institute for Artificial Intelligence (SIAI) ist eine gemeinnützige Bildungs- und Forschungsorganisation, die sich der Erforschung und Umsetzung von freundlicher künstlicher Intelligenz (Friendly AI) gewidmet hat. Gegründet wurde diese Institution von Eliezer Yudkowsky, Brian Atkins und Sabine Atkins.

Die Acceleration Studies Foundation (ASF) will die Aufmerksamkeit von Wirtschaft, Wissenschaft und Technik auf den sich beschleunigenden technologischen Fortschritt lenken. Dazu wird alljährlich die an der Stanford University stattfindende Konferenz Accelerating Change abgehalten. Zudem betreibt die Organisation Acceleration Watch, eine futurologische Informationswebsite, die aktuelle Entwicklungen im Licht des zunehmenden technologischen Wandels betrachtet.

[Bearbeiten] Prominente Vertreter

[Bearbeiten] Literatur

[Bearbeiten] Siehe auch

[Bearbeiten] Weblinks

[Bearbeiten] Deutsch

[Bearbeiten] Englisch


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -