Jenseits der LLM-Ära: David Silvers Suche nach wahrer Superintelligenz

22

David Silver, der Kopf hinter dem bahnbrechenden AlphaGo, glaubt, dass die aktuelle Entwicklung der künstlichen Intelligenz grundsätzlich fehlerhaft ist. Während die Tech-Welt derzeit von Large Language Models (LLMs) besessen ist, argumentiert Silver, dass der Rückgriff auf von Menschen erzeugte Daten eine Sackgasse auf dem Weg zu echter Superintelligenz sei.

Mit seinem neuen Projekt Ineffable Intelligence versucht Silver, die Branche von der „Mimikry“ weg und hin zu einem Modell des autonomen, sich selbst tragenden Lernens zu bewegen.

Das Problem der „fossilen Brennstoffe“ von LLMs

Der aktuelle KI-Boom wird größtenteils durch LLMs vorangetrieben – Systeme, die auf riesigen Datensätzen aus menschlichem Text, Code und Büchern trainiert werden. Silver betrachtet diese Methode als von Natur aus begrenzt. Er beschreibt menschliche Daten als eine „Art fossiler Brennstoff“ : eine unglaubliche Abkürzung, die einen anfänglichen Schub bietet, aber letztendlich endlich und nicht erneuerbar ist.

Das Kernproblem besteht darin, dass LLMs aus dem lernen, was Menschen bereits getan haben. Sie spiegeln eher die menschliche Intelligenz wider als unabhängige Entdeckungsmotoren. Silver geht davon aus, dass eine KI, wenn sie auf menschliche Daten beschränkt ist, niemals das kollektive Wissen ihrer Schöpfer übertreffen kann.

„Systeme, die selbst lernen, kann man sich wie einen erneuerbaren Kraftstoff vorstellen – etwas, das einfach lernen und lernen und lernen kann für immer und ohne Grenzen“, erklärt Silver.

Um dies zu veranschaulichen, verwendet Silver ein Gedankenexperiment: Wenn Sie ein leistungsstarkes LLM in einer Welt veröffentlichen würden, in der jeder glaubt, die Erde sei flach, würde die KI zu einem Experten für „Flacherde“ werden. Ohne die Fähigkeit, mit der Realität zu interagieren oder eigene Experimente durchzuführen, bleibt es in den Vorurteilen und Einschränkungen seiner Trainingsdaten gefangen.

Der Weg zur Superintelligenz: Reinforcement Learning

Anstatt der KI mehr Text zuzuführen, setzt Silver verstärkt auf Reinforcement Learning (RL). Dies ist der Prozess, bei dem eine KI durch Versuch und Irrtum lernt und mit einer Umgebung interagiert, um bestimmte Ziele zu erreichen. Dies war der Mechanismus, der es AlphaGo ermöglichte, das Go-Spiel zu meistern – nicht durch das Lesen von Strategiebüchern, sondern durch das Spielen von Millionen von Spielen gegen sich selbst.

Silvers Vision für Ineffable Intelligence besteht darin, dieses Konzept aus den „begrenzten Welten“ von Spielen wie Go in die immense Komplexität der realen Welt zu übertragen. Seine Strategie beinhaltet:

  • Simulierte Umgebungen: Platzierung von KI-Agenten in hochentwickelten Simulationen, wo sie interagieren, zusammenarbeiten und Hypothesen testen können.
  • Autonome Entdeckung: Schaffung von „Superlearnern“, die nicht nur Informationen verarbeiten, sondern aktiv neue wissenschaftliche, wirtschaftliche oder technologische Prinzipien entdecken.
  • Skalierung der Intelligenz: Aufbau von Systemen, die ihre Intelligenz skalieren können, ohne an „menschliche Prioritäten“ (die vorgefassten Meinungen und Vorurteile, die menschlichen Daten innewohnen) gebunden zu sein.

Sicherheit und die Ausrichtungsherausforderung

Ein wichtiges Anliegen im Wettlauf um Superintelligenz ist die Ausrichtung der KI : Sicherstellen, dass eine Maschine, die intelligenter ist als der Mensch, für die Menschheit von Nutzen bleibt.

Kritiker befürchten, dass eine KI, die durch reines Ausprobieren lernt, „optimale“ Lösungen finden könnte, die zwar effizient, aber moralisch katastrophal sind. Silver und seine Unterstützer, darunter Lightspeed Ventures, argumentieren jedoch, dass sein Ansatz tatsächlich sicherer sein könnte.

Durch die Entwicklung dieser Agenten im Rahmen kontrollierter Simulationen können Forscher entstehendes Verhalten in Echtzeit beobachten. Sie können sehen, wie ein Agent mit „geringeren Intelligenzen“ umgeht oder mit widersprüchlichen Zielen umgeht, bevor die Technologie jemals in der realen Welt eingesetzt wird. Dies ermöglicht einen proaktiven statt eines reaktiven Sicherheitsansatzes.

Eine Mission mit hohen Einsätzen

Das Ausmaß der Ambitionen von Silver spiegelt sich in der finanziellen Unterstützung von Ineffable Intelligence wider. Das Startup hat sich bereits 1,1 Milliarden US-Dollar an Startkapital gesichert und eine Bewertung von 5,1 Milliarden US-Dollar erreicht. Dies ist eine außergewöhnliche Zahl für ein in Europa ansässiges KI-Unternehmen und unterstreicht den Glauben der Branche an Silvers „Reinheit der Vision“.

Trotz des enormen Reichtums, der auf dem Spiel steht, behält Silver eine philanthropische Haltung bei. Er hat sich dazu verpflichtet, alle Erlöse aus Ineffable Intelligence an wohltätige Organisationen mit großer Wirkung zu spenden, da er das Streben nach Superintelligenz als eine große Verantwortung für die Zukunft der Menschheit betrachtet.


Fazit: Während die aktuelle KI-Landschaft von Modellen dominiert wird, die menschliches Wissen nachahmen, geht David Silver davon aus, dass der nächste Intelligenzsprung von Maschinen kommen wird, die lernen, sich völlig selbstständig zurechtzufinden und die Welt zu verstehen.