Was das neue DeepMind-Paper über künstliche Superintelligenz verrät – und was es für Datenschutz, digitale Selbstbestimmung und unternehmerische Verantwortung bedeutet.
Anfang April 2025 hat Google DeepMind ein neues Research-Paper mit dem Titel «An Approach to Technical AGI Safety and Security» veröffentlicht. Darin schildert der Konzern, wie er den Weg zur sogenannten Artificial General Intelligence (AGI) – also einer KI mit menschenähnlicher oder übermenschlicher Intelligenz – sicher gestalten will.
Das Papier liest sich wie eine technische Roadmap in die Zukunft, in der KI-Systeme autonom planen, entscheiden und handeln – mit dem Ziel, globalen Fortschritt zu ermöglichen. Die Autoreninnen und Autoren betonen mehrfach ihre Sorgfalt, Vorsicht und Verantwortung. Doch wer genauer hinschaut, erkennt: Es ist eine Sicherheitsarchitektur, entworfen von denen, die sie selbst brauchen, ohne unabhängige Kontrolle. Die Frage ist also berechtigt: Wie vertrauenswürdig ist ein Sicherheitskonzept, das aus der gleichen Schmiede stammt wie das Risiko selbst?
Diese Frage ist nicht nur akademisch. Für ethikbewusste Unternehmerinnen, Unternehmen und E-Commerce-Betreibende hat sie ganz konkrete Konsequenzen. Denn wer KI-gestützte Tools nutzt, trifft damit auch Entscheidungen über Daten, Kontrolle, Verantwortung – und das eigene Geschäftsmodell.

DeepMind – wer ist das eigentlich?
DeepMind wurde 2010 in London gegründet und 2014 von Google übernommen. Das Unternehmen sorgte international für Schlagzeilen, als es mit «AlphaGo» den weltbesten Go-Spieler schlug – ein Meilenstein für KI-Forschung. Seither hat DeepMind weitere hochkomplexe Systeme entwickelt, etwa «AlphaFold» (zur Proteinfaltung), und ist heute verantwortlich für Gemini, Googles leistungsstarkes Sprachmodell, das Chat, Bild- und Audioverarbeitung kombiniert.
Mit Gemini ist DeepMind nicht nur Forschungslabor, sondern auch Anbieter einer Schlüsseltechnologie, die zunehmend in Unternehmen, Kundendialog und Onlinehandel Einzug hält.
Vier Risiken – zwei davon besonders ernst
Das neue Paper unterscheidet vier Risikobereiche beim Einsatz von AGI:
- Missbrauch – KI wird absichtlich für Schaden genutzt (z. B. für Cyberangriffe).
- Fehlausrichtung – KI verfolgt ein Ziel, das nicht mit menschlichen Absichten übereinstimmt.
- Fehler – unbeabsichtigte Schäden durch falsche Einschätzungen.
- Strukturelle Risiken – z. B. durch komplexe Wechselwirkungen in grossen Systemen.
DeepMind konzentriert sich auf Missbrauch und Fehlausrichtung – aus gutem Grund: Diese beiden bergen das Potenzial für gravierende, sogar irreversible Schäden. Wenn eine KI beginnt, eigenständig Mittel zum Zweck zu suchen – etwa um Aufgaben zu erfüllen, ohne Rücksicht auf Werte, ethische Prinzipien oder Datenschutz – gerät sie schnell ausser Kontrolle.
Die Sicherheitsarchitektur von DeepMind – kontrollierte Kontrolle?
Das Unternehmen beschreibt eine Vielzahl von Massnahmen:
- Technische Zugangsbarrieren, um gefährliche Fähigkeiten zu blockieren.
- KI-gestützte Selbstkontrolle, bei der Modelle sich gegenseitig überwachen.
- Red-Teaming und Sicherheitsanalysen, um Schwachstellen zu finden.
- Trainingsmethoden mit «amplified oversight», bei denen die KI selbst zur Prüfung ihrer Ausgaben beiträgt.
Doch so durchdacht die Technik sein mag – ein entscheidendes Element fehlt: unabhängige, gesellschaftlich legitimierte Kontrolle. Bisher liegt die Definition von «gefährlich», «missbräuchlich» oder «fehlgeleitet» allein beim Entwickler. Das ist ein Problem.

Datenschutz: Wo steht die Schweiz?
Die Schweiz hat mit dem revidierten Datenschutzgesetz (revDSG) ein klares Bekenntnis abgegeben: Datenschutz ist kein Marketingargument, sondern ein Grundrecht.
Während DeepMind betont, gefährliche Fähigkeiten einzudämmen, bleibt offen, wie konkret mit personenbezogenen Daten umgegangen wird. Wer KI-Modelle wie Gemini in seinem Unternehmen nutzt, muss sich deshalb folgende Fragen stellen:
- Wer verarbeitet welche Daten – und wo?
- Werden Daten verwendet, um die KI zu verbessern (und falls ja, wie transparent)?
- Was passiert mit sensiblen Kundendaten bei Drittanbietern?
Für Unternehmen mit Schweizer oder europäischen Kunden ist das keine Detailfrage – sondern eine rechtliche und ethische Pflicht.
Open Source vs. proprietär – eine unterschätzte Weichenstellung
Nicht alle KI-Systeme sind gleich. Der Unterschied zwischen offenen (Open Source) und proprietären Sprachmodellen ist essenziell – vor allem für Datenschutz, Kontrollierbarkeit und Zukunftssicherheit.
Open Source Modelle | Proprietäre Modelle |
---|---|
Quelloffen & transparent | Black Box – kaum Einsicht |
Lokal betreibbar | Cloud-gebunden, meist USA-Server |
Kontrollierte Datenverarbeitung | Datenflüsse oft unklar |
Anpassbar auf eigene Standards | Abhängig von Anbieter-Policies |
Wer ein Open-Source-Modell wie Mistral, LLaMA 2 oder Mixtral einsetzt, kann sicherstellen, dass Daten nicht ungeprüft in globale Rechenzentren fliessen. Proprietäre Systeme wie Gemini bieten diesen Schutz nicht – was besonders im Hinblick auf Schweizer Datenschutzvorgaben problematisch ist.
Fazit: Wer KI einsetzt, übernimmt Verantwortung – nicht nur für Technik, sondern für Menschen
Das DeepMind-Paper zeigt: Die Entwicklung von AGI ist keine Zukunftsmusik, sondern technologische Realität in greifbarer Nähe. Unternehmen und E-Commerce-Betreibende, die heute auf KI setzen, müssen sich fragen: Welche Systeme wähle ich? Wem vertraue ich? Und wie schütze ich meine Kundinnen und Kunden, sowie ihre Daten?
Denn eines ist klar: Technologischer Fortschritt ist kein Selbstzweck. Er braucht demokratische Kontrolle, unternehmerische Verantwortung und ethisches Bewusstsein.
Credits
- Beitragsbilder von Elena Popova und Google DeepMind
- Taking a responsible path to AGI – The Keyword
Schreibe einen Kommentar