Ein verantwortungsvoller Weg zu AGI?

·

·

Was das neue DeepMind-Paper über künstliche Superintelligenz verrät – und was es für Datenschutz, digitale Selbstbestimmung und unternehmerische Verantwortung bedeutet.

Anfang April 2025 hat Google DeepMind ein neues Research-Paper mit dem Titel «An Approach to Technical AGI Safety and Security» veröffentlicht. Darin schildert der Konzern, wie er den Weg zur sogenannten Artificial General Intelligence (AGI) – also einer KI mit menschenähnlicher oder übermenschlicher Intelligenz – sicher gestalten will.

Das Papier liest sich wie eine technische Roadmap in die Zukunft, in der KI-Systeme autonom planen, entscheiden und handeln – mit dem Ziel, globalen Fortschritt zu ermöglichen. Die Autoreninnen und Autoren betonen mehrfach ihre Sorgfalt, Vorsicht und Verantwortung. Doch wer genauer hinschaut, erkennt: Es ist eine Sicherheitsarchitektur, entworfen von denen, die sie selbst brauchen, ohne unabhängige Kontrolle. Die Frage ist also berechtigt: Wie vertrauenswürdig ist ein Sicherheitskonzept, das aus der gleichen Schmiede stammt wie das Risiko selbst?

Diese Frage ist nicht nur akademisch. Für ethikbewusste Unternehmerinnen, Unternehmen und E-Commerce-Betreibende hat sie ganz konkrete Konsequenzen. Denn wer KI-gestützte Tools nutzt, trifft damit auch Entscheidungen über Daten, Kontrolle, Verantwortung – und das eigene Geschäftsmodell.

Google Deepmind

DeepMind – wer ist das eigentlich?

DeepMind wurde 2010 in London gegründet und 2014 von Google übernommen. Das Unternehmen sorgte international für Schlagzeilen, als es mit «AlphaGo» den weltbesten Go-Spieler schlug – ein Meilenstein für KI-Forschung. Seither hat DeepMind weitere hochkomplexe Systeme entwickelt, etwa «AlphaFold» (zur Proteinfaltung), und ist heute verantwortlich für Gemini, Googles leistungsstarkes Sprachmodell, das Chat, Bild- und Audioverarbeitung kombiniert.

Mit Gemini ist DeepMind nicht nur Forschungslabor, sondern auch Anbieter einer Schlüsseltechnologie, die zunehmend in Unternehmen, Kundendialog und Onlinehandel Einzug hält.

Vier Risiken – zwei davon besonders ernst

Das neue Paper unterscheidet vier Risikobereiche beim Einsatz von AGI:

  1. Missbrauch – KI wird absichtlich für Schaden genutzt (z. B. für Cyberangriffe).
  2. Fehlausrichtung – KI verfolgt ein Ziel, das nicht mit menschlichen Absichten übereinstimmt.
  3. Fehler – unbeabsichtigte Schäden durch falsche Einschätzungen.
  4. Strukturelle Risiken – z. B. durch komplexe Wechselwirkungen in grossen Systemen.

DeepMind konzentriert sich auf Missbrauch und Fehlausrichtung – aus gutem Grund: Diese beiden bergen das Potenzial für gravierende, sogar irreversible Schäden. Wenn eine KI beginnt, eigenständig Mittel zum Zweck zu suchen – etwa um Aufgaben zu erfüllen, ohne Rücksicht auf Werte, ethische Prinzipien oder Datenschutz – gerät sie schnell ausser Kontrolle.

Die Sicherheitsarchitektur von DeepMind – kontrollierte Kontrolle?

Das Unternehmen beschreibt eine Vielzahl von Massnahmen:

  • Technische Zugangsbarrieren, um gefährliche Fähigkeiten zu blockieren.
  • KI-gestützte Selbstkontrolle, bei der Modelle sich gegenseitig überwachen.
  • Red-Teaming und Sicherheitsanalysen, um Schwachstellen zu finden.
  • Trainingsmethoden mit «amplified oversight», bei denen die KI selbst zur Prüfung ihrer Ausgaben beiträgt.

Doch so durchdacht die Technik sein mag – ein entscheidendes Element fehlt: unabhängige, gesellschaftlich legitimierte Kontrolle. Bisher liegt die Definition von «gefährlich», «missbräuchlich» oder «fehlgeleitet» allein beim Entwickler. Das ist ein Problem.

The ethics of advanced AI assistants

Datenschutz: Wo steht die Schweiz?

Die Schweiz hat mit dem revidierten Datenschutzgesetz (revDSG) ein klares Bekenntnis abgegeben: Datenschutz ist kein Marketingargument, sondern ein Grundrecht.

Während DeepMind betont, gefährliche Fähigkeiten einzudämmen, bleibt offen, wie konkret mit personenbezogenen Daten umgegangen wird. Wer KI-Modelle wie Gemini in seinem Unternehmen nutzt, muss sich deshalb folgende Fragen stellen:

  • Wer verarbeitet welche Daten – und wo?
  • Werden Daten verwendet, um die KI zu verbessern (und falls ja, wie transparent)?
  • Was passiert mit sensiblen Kundendaten bei Drittanbietern?

Für Unternehmen mit Schweizer oder europäischen Kunden ist das keine Detailfrage – sondern eine rechtliche und ethische Pflicht.

Open Source vs. proprietär – eine unterschätzte Weichenstellung

Nicht alle KI-Systeme sind gleich. Der Unterschied zwischen offenen (Open Source) und proprietären Sprachmodellen ist essenziell – vor allem für Datenschutz, Kontrollierbarkeit und Zukunftssicherheit.

Open Source ModelleProprietäre Modelle
Quelloffen & transparentBlack Box – kaum Einsicht
Lokal betreibbarCloud-gebunden, meist USA-Server
Kontrollierte DatenverarbeitungDatenflüsse oft unklar
Anpassbar auf eigene StandardsAbhängig von Anbieter-Policies

Wer ein Open-Source-Modell wie Mistral, LLaMA 2 oder Mixtral einsetzt, kann sicherstellen, dass Daten nicht ungeprüft in globale Rechenzentren fliessen. Proprietäre Systeme wie Gemini bieten diesen Schutz nicht – was besonders im Hinblick auf Schweizer Datenschutzvorgaben problematisch ist.

Fazit: Wer KI einsetzt, übernimmt Verantwortung – nicht nur für Technik, sondern für Menschen

Das DeepMind-Paper zeigt: Die Entwicklung von AGI ist keine Zukunftsmusik, sondern technologische Realität in greifbarer Nähe. Unternehmen und E-Commerce-Betreibende, die heute auf KI setzen, müssen sich fragen: Welche Systeme wähle ich? Wem vertraue ich? Und wie schütze ich meine Kundinnen und Kunden, sowie ihre Daten?

Denn eines ist klar: Technologischer Fortschritt ist kein Selbstzweck. Er braucht demokratische Kontrolle, unternehmerische Verantwortung und ethisches Bewusstsein.

Credits


Kategorien

Beliebte Tags

AI blockchain ecommerce ethics events Magento marketing Metaverse NFTs privacy security SEO shopify socialmedia update WooCommerce WordPress


Der englischsprachige Podcast von Openstream. Discover how memes, AI, and digital culture shape our world, challenge norms, and redefine what it means to be human.

spotify-podcast-badge
Listen on Apple Podcast