Manchmal verändert sich die Welt nicht durch neue Geräte oder sichtbare Erfindungen, sondern durch Systeme, die still im Hintergrund arbeiten. Foundation Models - die großen lernenden Maschinen hinter Tools wie ChatGPT, Claude oder Gemini - sind längst zu einer unsichtbaren Infrastruktur geworden. Sie schreiben, analysieren, übersetzen, entscheiden : leise, aber überall.
Die entscheidende Frage lautet also nicht mehr, ob wir diese Systeme nutzen, sondern wie. Wie gestalten wir eine Zukunft, in der maschinelle Intelligenz uns nicht nur effizienter macht, sondern neue Räume für Urteilskraft, Kreativität und Verantwortung öffnet?
Foundation Models markieren einen Wendepunkt. Sie sind nicht nur ein neues Werkzeug, sondern eine neue Schicht unserer Wirklichkeit. Während frühere Technologien Aufgaben ergänzten, übernehmen diese Modelle inzwischen ganze Denkprozesse – sie strukturieren Wissen, Sprache und Entscheidungen.
Laut dem Bericht The State of Foundation Models 2025 von Innovation Endeavors nutzt heute jede achte arbeitende Person weltweit regelmäßig KI-basierte Systeme. 90 % dieses Wachstums fanden allein in den letzten sechs Monaten statt. Gleichzeitig verlieren Modelle in rasanter Geschwindigkeit an Aktualität. Kleinste Teams schaffen mit dieser Dynamik Unternehmen, die Milliarden wert sind.
Doch es geht um mehr als Effizienz. Die Frage ist, wer die Systeme kontrolliert, die unsere Sprache, Daten und Entscheidungen prägen – und wie wir sicherstellen, dass sie unserem Verständnis von Verantwortung und Sinn dienen.
Foundation Models verändern die Welt nicht durch laute Revolutionen, sondern durch leise Umbrüche im Hintergrund. Sie greifen in Entscheidungsprozesse, Kommunikation und Wissensstrukturen ein – und verschieben dabei, oft unbemerkt, unser Verständnis von Verantwortung und Gestaltung.
Je komplexer die Modelle werden, desto schwieriger ist es, ihre Funktionsweise zu verstehen. Entscheidungen entstehen in tiefen neuronalen Schichten, die sich kaum nachvollziehen lassen – selbst von Fachleuten. Vertrauen kann nur entstehen, wenn Systeme überprüfbar bleiben: durch offene Dokumentation, ethische Richtlinien und gemeinsame Standards. Ohne Nachvollziehbarkeit wird Technologie zur Blackbox – und Vertrauen zur Illusion.
Foundation Models speichern und reproduzieren das Wissen ganzer Gesellschaften – mitsamt Vorurteilen, Ungleichgewichten und kulturellen Lücken. Die Qualität ihrer Ergebnisse hängt unmittelbar von den Daten ab, aus denen sie lernen. Wer über die Zukunft dieser Systeme spricht, muss also auch über die Zukunft unserer Wissensbasis sprechen: Wer liefert sie, wer kuratiert sie, wer profitiert davon? Datenqualität ist nicht nur eine technische, sondern eine kulturelle Aufgabe.
Technologie entwickelt sich nicht im luftleeren Raum – sie folgt den Werten derer, die sie gestalten. Wer sie nur konsumiert, verliert Einfluss auf ihre Richtung. Zukunftsgestaltung bedeutet, Prinzipien, Ethik und Ziele bewusst in Systeme einzuschreiben. Das ist kein technisches Detail, sondern eine kulturelle Aufgabe. Foundation Models werden nur dann zu Werkzeugen des Fortschritts, wenn sie auf einem klaren Wertefundament stehen.
Während sich technologische Entwicklungen in Wochen überschlagen, passen sich Organisationen und Institutionen in Jahren an. Diese Asymmetrie erzeugt Druck: Strategien veralten, Entscheidungswege werden zu langsam, Lernprozesse zu träge. Wer zukunftsfähig bleiben will, braucht Strukturen, die Wandel nicht nur aushalten, sondern einplanen – agil, experimentell und lernorientiert. Stabilität entsteht dann nicht trotz Veränderung, sondern durch sie.
Mit jeder neuen Generation von Systemen verschiebt sich die Grenze zwischen menschlicher und maschineller Intelligenz. Maschinen erkennen Muster, Menschen geben ihnen Bedeutung. Die Zukunft liegt nicht im Ersatz, sondern in der Ergänzung. Der produktive Raum entsteht dort, wo Technologie menschliche Kreativität erweitert, statt sie zu überlagern – wo Zusammenarbeit nicht Hierarchie, sondern Resonanz bedeutet.
In unserem neuen „Dialog“ sprechen wir mit Susanne Peick vom polis Magazin für Urban Development & der polis Convention über aktuelle Themen rund um Stadtentwicklung und Zukunft des urbanen Raums.
Im Rahmen des #nxtKNOWLEDGE Forums sprach Christopher Peterka über das Thema „Führung 2030 – Der Mensch als Algorithmus“. Im Mittelpunkt stand die Frage, wie sich Führung verändert, wenn Organisationen zunehmend datenbasiert denken und handeln – und warum Empathie dabei zur entscheidenden Kennzahl wird.
Der Vortrag zeigte, dass die Zukunft von Führung nicht allein durch Technologie geprägt wird, sondern durch die Fähigkeit, menschliche Werte in systemische Prozesse zu integrieren. Empathie wird damit nicht zum Gegensatz von Effizienz, sondern zu ihrem Maßstab.