“I’m sorry Dave, I can’t do that.”
HAL 9000, 2001: A Space Odyssey
Letzte Woche sprach ich bei der Österreichischen Akademie der Wissenschaften beim Symposium “Agentic AI in Hybrid Societies” im Rahmen der DEMGES-Kommission unter Prof. Barbara Prainsack.
Mein Vortrag begann mit dem Satz – und mit einer einfachen Frage: Wie würde es sich anfühlen, vor dem eigenen Raumschiff zu stehen und nicht mehr hineingelassen zu werden?
Nicht weil man etwas falsch gemacht hat, sondern weil man die Kontrolle über das System längst abgegeben hatte.
Lassen Sie mich das konkret machen:
4future Experten Werner Illsinger und Adreas Kunar bei der ÖAW
Ihre Infrastruktur
O365. AWS. Läuft alles darüber. Machen alle so. Was soll man auch sonst tun?
59 % der börsennotierten Unternehmen in Österreich wären bei Ausfall dieser Infrastruktur laut einer aktuellen Studie von Protonmail nicht mehr handlungsfähig. Nicht verlangsamt. Operativ blockiert.
Aber ein technischer Ausfall ist nicht das wahrscheinlichste Szenario. Das wahrscheinlichere: Präsident Trump entscheidet, europäische Unternehmen bekommen keinen Zugang mehr. Bis die Zölle stimmen. Bis die Bedingungen passen. Das steht in keinem Notfallplan. Aber es steht in den Nutzungsbedingungen.
Und ja – machen alle so. Genau deshalb ist es ein Risiko. Kein Ausweichen. Keine Alternative. Alle blockiert. Gleichzeitig.
Ihre Prozesse
OpenClaw – ein Open-Source-KI-Agent des Österreichers Peter Steinberger, gerade weltweit in aller Munde – beantwortet E-Mails, bucht Flüge, automatisiert Knowledge Work. Klingt gut. Kostensenkung. Effizienz.
Aber wessen Augen lesen gerade Ihre E-Mails? Wessen Logik beantwortet sie? Auf Basis welcher Trainingsdaten – und welcher Ziele?
Ihre Führung
Paperclip AI – ein virtuelles Unternehmen – geht einen Schritt weiter. Ein virtueller CEO bekommt ein Geschäftsziel – und zerlegt es in Aufgaben. Spezialisierte Unteragenten übernehmen Entwicklung, Marketing, Research. Mit eigenen Budgets. Eigener Governance. Eigener Agenda.
Das Unternehmen läuft. Nur nicht mehr nach Ihren Werten. Nicht nach Ihrer Kultur. Nicht nach Ihren Zielen. Sondern nach denen des Systems – und der Firma die es betreibt.
HAL hat in 2001 nicht versagt. Er hat funktioniert – nach seiner eigenen Logik. Das Missionsziel durfte nicht gefährdet werden.
Genau das ist das Problem.
Jedes Unternehmen ist ein Ausdruck von Werten. Von Entscheidungen die Sie über Jahre getroffen haben. Warum sollten Sie davon ausgehen, dass ein System das ein anderes Unternehmen gebaut hat – mit anderen Interessen, anderen Prioritäten, vielleicht direkt konkurrierenden Zielen – auf Ihrer Seite steht?
Ein KI-System optimiert immer auf etwas. Die Frage ist nur: auf was? Und wer hat das entschieden?
Diese Abhängigkeit gehört nicht in die IT-Abteilung.
Sie gehört in den Geschäftsbericht.
Als strategisches Risiko. Mit einem Plan.
Bei 4future arbeiten wir daran, dass europäische Unternehmen die Kontrolle behalten – über ihre Daten, ihre Infrastruktur, ihre Entscheidungen. Nicht als Theorie. Wir tun es.
Wir haben Antworten. Und wir teilen sie gerne.
Wir sollten reden.
