Kommt die Künstliche Superintelligenz schon in 2025?

Zum Wochenstart ein neues Kapitel in der Debatte darüber, wann die KI den Menschen endgültig überflügeln dürfte: Zwei prominente Experten haben ehrgeizige Zeitpläne vorgestellt, wann die von Fachleuten „Allgemeine Künstliche Intelligenz“, kurz AGI, genannte, Superintelligenz erreicht sein könnte. 

Warum ist das ganze interessant? Zum einen, weil einer der Akteure Sam Altman (Bild) ist – als CEO von ChatGPT-Erfinder OpenAI der Betreiber des leistungsfähigsten GenAI-Modells. Zum anderen, weil es zuletzt eher so schien, als würde die KI-Evolution an Fahrt verlieren. Die Fortschritte in der Entwicklung großer Sprachmodelle waren erkennbar geringer als in den Ausbaustufen zuvor – etwa von ChatGPT 4 zu 4o.

Das neueste ChatGPT-Modell „Orion“, das OpenAI gerade entwickelt, wird bereits entsprechend kritisiert, obwohl es noch nicht einmal auf dem Markt ist.

Altman: Alle wissenschaftlichen Durchbrüche für AGI sind da

OpenAI-Chef Altman sagte in einem Interview am US-Gründerzentrum „Y Combinator“ allerdings, er erwarte, dass AGI bereits 2025 Realität werden könnte. Wer viel Zeit hat, hier gibt es den Talk als 45-minütigen Podcast:

Er betonte, dass der technologische Weg klar vor uns liege und keine grundlegenden wissenschaftlichen Durchbrüche mehr erfordere. Es ginge eigentlich „nur noch“ um Ingenieurarbeit. So klar hatte sich Altman bisher noch nie positioniert.

Eine ähnliche Vision teilte neulich Dario Amodei, CEO des OpenAI-Konkurrenten Anthropic: Der mögliche Zeithorizont für AGI laut ihm ist, wenn alles klappe, das Jahr 2026.

Was an der AGI-Debatte für uns wichtig ist

Für unsere tägliche Arbeit mit GenAI ist die Debatte um die Superintelligenz zweitrangig, weil die Systeme für fast alle Aufgaben leistungsfähig genug ist. Eher fehlt es zurzeit an Rechenkapazität.

Interessant ist die Diskussion allerdings aus Gründen der Regulatorik, da sich die Frage stellt, wie streng wir Menschen eine mögliche Superintelligenz kontrollieren müssen – wenn wir sie überhaupt akzeptieren.

Weltweit warnen Forscher seit langem davor, AGI zu entwickeln – viele fordern sogar ein Verbot entsprechender Experimente. Hauptgrund sei die Unreife von uns Menschen, sagte etwa Holger Hoos, Professor an der RWTH und einer der wichtigsten deutschen KI-Experten, bereits vor einem Jahr in einem Videotalk: Wenn wir AGI jetzt erreichten, „dann sind wir als Gesellschaft nicht bereit, damit auch nur annähernd verantwortungsvoll umzugehen.“ 

Unklar ist, ob eine AGI in Europa überhaupt zugelassen würde: Die EU hat zumindest mit dem AI Act bereits ein sehr umfassendes Gesetzeswerk geschaffen, mit dem KI-Lösungen verboten werden können, die gegen Grundrechte verstoßen, und daher ein inakzeptables Risiko für Menschen darstellen würden.

Nach oben scrollen