zur Navigation springen

Dreyklufts Netzwelt : Trotz Niederlage beim Go: Keine Angst vor Künstlicher Intelligenz

vom

Ein Computer schlägt einen menschlichen Go-Spieler. Werden uns die Maschinen eines Tages töten, fragt unser Kolumnist.

von
erstellt am 15.Mär.2016 | 18:43 Uhr

Technikskeptiker und -gegner kaprizieren sich beim Internet gerne auf das Thema Datenschutz. Der gläserne Mensch, der durch US-Konzerne ausgebeutet werde, ist das Szenario. Beliebt ist bei manchen Maschinenstürmern auch die angebliche Gefährlichkeit elektromagnetischer Strahlung von Mobilfunk- und WLAN-Netzen.

In diesen Tagen gewinnt eine weitere Angst an Popularität. Computer, genauer gesagt deren Künstliche Intelligenz (KI), könnten die ganze Menschheit zerstören.

Aktueller Auslöser ist der 4:1 Erfolg des Google-Computers „AlphaGo“ gegen den menschlichen Go-Champion Lee Sedol. Go gilt als komplexer als Schach, das Spielen auf Top-Niveau verlangt deshalb auch viel Intuition - eine Fähigkeit, bei der Menschen sich bislang überlegen fühlten.

Die „Süddeutsche Zeitung“ veröffentlichte am Dienstag ein Interview mit Jaan Tallinn (hier kostenpflichtig nachzulesen). Der entwickelte einst Skype mit und beschäftigt sich heute mit dem Studium existenzieller Risiken am Centre for the Study of Existential Risk der Universität Cambridge.

Laut Tallinn werden künstlich intelligente Computer dann gefährlich, wenn sie begreifen, dass sie eine physische Existenz haben - einschließlich eines Aus-Knopfs. Denn dann könnten Computer den Ehrgeiz entwickeln, ihr Ausschalten zu verhindern, um ihre programmierte Aufgabe zu erfüllen – notfalls auf Kosten der Menschheit.

Bestätigt fühlen kann sich Tallinn durch Äußerungen weiterer prominenter KI-Kritiker.  Darunter sind der Oxford-Philosophie-Professor Nick Bostrom, der Multi-Unternehmer Elon Musk (Tesla, SpaceX) und der Astrophysiker Stephen Hawking.

Wird solch ein freundlicher Terminator die Menschheit auslöschen? Eher nicht.
Wird solch ein freundlicher Terminator die Menschheit auslöschen? Eher nicht. Foto: EPA/Kim Hee-Chul
 

„Die eigentliche Gefahr ist nicht eine KI, die bösartig wird, sondern eine KI, die extrem kompetent ist, aber völlig gleichgültig gegenüber den Menschen“, sagte Tallinn der SZ.  Es werde aber kein Terminator auf uns Jagd machen: „Die wahrscheinlichsten Szenarien für die Auslöschung der Menschheit sind nicht besonders dramatisch. Da gibt es keinen heldenhaften Kampf. Das kann ganz schnell gehen.“

Mag sein. Wahrscheinlicher ist aus meiner Sicht, jenseits der Fachdiskussion, dass hier eine Technikangst genährt wird, die für unseren Wohlstand gefährlicher ist als das Risiko.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Diskutieren Sie mit.

Leserkommentare anzeigen