Buterin fordert zweijährige weltweite Pause für KI
Foto: Muhammad Alimaki/Shutterstock
Vitalik Buterin von Ethereum plädiert für eine Verlangsamung der Entwicklungen im Bereich der künstlichen Intelligenz. Er warnt vor gravierenden Problemen, wenn die Fortschritte ungebremst und unkontrolliert erfolgen.
Ethereum-Gründer warnt vor KI
Vor wenigen Tagen verwies Vitalik Buterin, der Gründer von Ethereum (ETH), auf eine ältere Aussage aus dem Jahr 2023. Darin forderte er ein „defensives Akzelerationismus“ (d/acc), das die Entwicklung von künstlicher Intelligenz (KI) verlangsamen soll.
Buterin schlägt vor, weltweit verfügbare Rechenressourcen vorübergehend zu begrenzen, um die KI-Entwicklung zu entschleunigen. Dies soll der Menschheit mehr Zeit geben, sich auf die möglichen Folgen vorzubereiten. Eine Produktionspause für Computerhardware von bis zu zwei Jahren könnte die globale Rechenkapazität um 99 % reduzieren. Buterin ist überzeugt, dass dies eine wirksame Methode wäre, um Zeit zu gewinnen.
Mit seinem Vorschlag stellt sich Buterin gegen das Konzept des „effektiven Akzelerationismus“ (e/acc), das auf uneingeschränkte technologische Innovation setzt – ein Ansatz, der derzeit in der Industrie vorherrscht, wo KI-Entwicklungen fast unkontrolliert vorangetrieben werden.
Während der vorgeschlagenen Hardwarepause fordert Buterin die Einführung von Mechanismen, die eine rechtliche Verantwortlichkeit für den Einsatz von KI sicherstellen. Eine seiner Ideen ist ein spezieller Chip, der die Nutzung eines Geräts nur dann ermöglicht, wenn wöchentlich drei Unterschriften internationaler Behörden eingeholt werden.
Sorgen über KI-Superintelligenz
Künstliche Superintelligenz ist bislang ein theoretisches Konzept. Sie würde die Intelligenz aller Menschen übertreffen und könnte in Komplexität und Reichweite eine neue Dimension erreichen. Laut Buterin könnte eine solche Superintelligenz bereits in fünf Jahren Realität sein, ohne dass ihre Auswirkungen vollständig verstanden werden. Dies hält er für äußerst riskant.
Buterin ist nicht der Einzige, der Bedenken äußert. Bereits 2023 warnte Elon Musk vor den Gefahren von KI und forderte klare Gesetze und strenge Regulierungen. Im selben Jahr unterzeichnete Musk gemeinsam mit Tausenden von Forschern und Experten einen offenen Brief, in dem sie ein Moratorium für die Entwicklung von KI-Systemen forderten, einschließlich OpenAIs ChatGPT.