Open Source AI – Fluch oder Segen?

·

·

Obwohl ich mir vorgenommen hatte, dieses Jahr dem achten Winterkongress der Digitalen Gesellschaft persönlich beizuwohnen, musste ich am Samstag, den ersten März die Welt auf Flugmodus stellen und etwas Zeit in den eigenen vier Wänden verbringen.

Rund 500 Menschen zog es dieses Jahr ins Casinotheater Winterthur. Mit über dreissig Vorträgen bot der Winterkongress wieder ein grosses Spektrum für Hacker, Programmiererinnen, Aktivisten und alle Interessierten.

Der Winterkongress ist die wichtigste Veranstaltung für digitale Freiheitsrechte in der Schweiz. Sie ist nicht-kommerziell und wird von und für die Community veranstaltet. Zu dieser zählen sich auch Mitglieder von Behörden, der Wissenschaft, der Politik und Medienschaffende, die sich am Winterkongress mit der interessierten Öffentlichkeit austauschen.

Alle bisher fertig nachbearbeiteten Vortragsaufzeichnungen sind online verfügbar. Noch fehlende Videos werden laufend ergänzt. In diesem Artikel fasse ich einen spannenden Vortrag von Rechtsanwalt und IT-Rechtsexperten Prof. Dr. Simon Schlauri zusammen, den ich mir vor Ort zu Gemüte geführt hätte.

Simon Schlauri ist Rechtsanwalt in St. Gallen und Zürich und trägt den schönen Beinamen «Spezialist für Informations- und Kommunikationsrecht». Dazu kombiniert er reichlich Erfahrung aus IT- und Telekom-Industrie und garniert das Ganze mit einer Titularprofessur an der Universität Zürich. Wenn also jemand den Überblick über die rechtlichen und regulatorischen Aspekte von Open Source und KI hat, dann er.

Das Hauptthema: «Open Source Artificial Intelligence». Also: Was gilt eigentlich als «Open Source», wenn wir über KI-Systeme sprechen? Und muss eine KI überhaupt (oder gar unbedingt) «open» sein? Simon Schlauri hat bei diesen Fragen mit auf eine Reise genommen – quer durch verschiedene Definitionen, Streitpunkte und rechtliche Perspektiven.

Was heisst überhaupt «Open Source» für KI?

  • Bisherige Vorstellung von Open Source:
    Bei klassischer Software ist die Sache relativ einfach: Der Quellcode muss frei zugänglich sein, die Software darf beliebig genutzt, verändert und geteilt werden. Man kann quasi jede Code-Zeile anschauen und verstehen, was das Programm tut.
  • Spezialfall KI:
    Bei KI-Systemen genügt jedoch nicht nur der Blick in den Quellcode. Warum? Weil der eigentliche „Zauber“ in den trainierten Modellen liegt – und da kommt es auf viel mehr an als nur den Code.
  • OSI-Definition (Open Source Initiative):
    Die OSI schlägt vor, dass für eine «Open Source AI» zumindest
    1. der komplette Quellcode des Systems verfügbar ist,Informationen über die verwendeten Trainingsdaten offengelegt werden (aber nicht zwingend die Daten selbst!),die Modellparameter (Weights, Gewichte, Konfigurationen) der KI öffentlich zugänglich sind.
    Achtung: Die Trainingsdaten selbst müssen nach dieser Definition nicht veröffentlicht werden. Es reicht, wenn man genau erläutert, welche Daten verwendet wurden und wie.
  • Die Gegenposition:
    Es gibt einige Stimmen, die sagen: «Sorry, aber ohne die echten Trainingsdaten ist das doch gar kein ‚richtiges‘ Open Source!». Denn nur wer die realen Daten kennt, kann (zum Beispiel) Bias, Halluzinationen oder Urheberrechtsverletzungen entdecken.

Warum überhaupt Daten zurückhalten?

Simon Schlauri erklärt, dass viele Firmen die Trainingsdaten gar nicht preisgeben können – oder wollen. Das hat verschiedene Gründe:

  1. Rechtliche Grenzen: Urheberrechte und Persönlichkeitsrechte verbieten womöglich, alle Daten öffentlich zu machen.
  2. Verfügbarkeit: Grosse Modelle fressen Datenmengen, die längst über «freie» Quellen hinausgehen. Wer weiss, in welche Archive, Social-Media-Sammlungen und Bibliotheken die grossen KI-Labore schon geklettert sind.
  3. Geschäftsgeheimnisse: Für viele Unternehmen sind Daten das neue Gold. Das rückt man nicht so einfach raus.

«Greenwashing» vs. Transparenz

Wenn also nur Code und Modellgewichte öffentlich sind, kann man sich als Unternehmen schick mit dem Label «Open Source» schmücken, ohne wirklich alles offenzulegen. Dagegen wird der Vorwurf des «Open Washing» laut: Nach dem Motto «Wir nennen es offen, aber eigentlich habt ihr keine Chance, in die Blackbox Trainingsdaten zu gucken.»

Um dieses Problem zu lösen, schlägt beispielsweise der CEO von NextCloud ein Ampelsystem vor, bei dem man genau abfragt:

  1. Ist der Quellcode offen?
  2. Sind die trainierten Modelle / Modellgewichte frei verfügbar?
  3. Sind auch die Trainingsdaten offengelegt?

Je mehr Kriterien erfüllt sind, desto «grüner» die Einstufung. Das soll Klarheit schaffen, wie offen eine KI wirklich ist.

Und was ist mit Sicherheit?

Hier ist das klassische Open-Source-Argument: Nur wenn alle in den Code (und ideally in die Daten) gucken können, lassen sich Sicherheitslücken und schädliche «Hintertürchen» schnell finden. Auf der anderen Seite steht die Angst, dass eine frei verfügbare «Super-KI» für üble Zwecke missbraucht werden könnte. Auch Lawrence Lessig (der Mann hinter Creative Commons) hat hier Bedenken geäussert: Wenn ein mächtiges Modell erst einmal in der Wildnis ist, kann es jeder nutzen – auch für unerfreuliche Dinge.

Die EU und ihre KI-Verordnung

Spannend ist, dass die EU in ihrer geplanten KI-Verordnung bereits Ausnahmen für Open-Source-Systeme vorsieht. In Europas Ansatz werden KI-Anwendungen nach ihrem Risiko sortiert:

  • Unacceptable Risk – wird verboten (z. B. massenhaftes Gesichtserkennungssystem à la Social Scoring).
  • High Risk – da gibt’s strikte Regeln (z. B. KI-Systeme in Medizin, Justiz oder Personalwesen).
  • Limited Risk – da reicht oft transparente Kennzeichnung («Achtung: Dieses Bild ist KI-generiert»).
  • Minimal Risk – keine grossartigen Vorgaben.

Für Open-Source-KI gibt es – zumindest bei den niedrigeren Risikostufen – Ausnahmen von manchen Pflichten, etwa was Dokumentationspflichten oder EU-Vertreter angeht, weil man ja eh vieles offenlegt (zumindest Code und Modellgewichte). Die Trainingsdaten müssen dafür jedoch auch nach EU-Sicht nicht unbedingt öffentlich sein.

Kurz: Wohin steuert Open Source AI?

Simon Schlauri stellt in seinem Vortrag klar:

  • Wir haben eine lebhafte Diskussion darüber, ob und wie man «Open Source AI» definieren soll.
  • Die Daten bleiben häufig der wunde Punkt.
  • Trotzdem sollte man nicht zulassen, dass ein paar grosse Konzerne (und vielleicht ein paar Regierungen) die volle Kontrolle über diese mächtige Technologie übernehmen.

Die Frage lautet also: Wollen wir eine Welt, in der jeder mitsprechen und -entwickeln kann (Open Source) – oder eine Welt, in der nur wenige Mächtige über KI bestimmen (Closed Source)?

Stichwort Haftung: Wer haftet, wenn die KI Quatsch erzählt oder fatale Fehler macht? Bei gewöhnlicher Software hat man klare Regeln (Produkthaftung, Verträge etc.). Bei KI wird’s schwieriger: Man muss die Sorgfalt beim Training, beim Datenhandling und beim Einsatz beurteilen. Ob letztlich der Hersteller, der Anwender oder niemand «dran» ist, hängt oft von Details ab – und von künftigen Regelungen wie dem EU AI Act.

Fazit

Simons Vortrag hat eindrucksvoll gezeigt, dass «Open Source AI» kein einfaches Schwarz-Weiss-Spiel ist. Open Source bei KI heisst mehr als nur Code auf GitHub hochladen. Es geht um Fragen nach Daten, Transparenz, Sicherheit, Urheberrecht und Haftung.

Und gerade weil KI so mächtig ist, sollten wir uns heute darum kümmern, wie «offen» sie in Zukunft sein soll – damit am Ende nicht nur ein paar Tech-Riesen oder Staaten das Rennen machen. Ob ein Ampelsystem, strengere Definitionen oder neue Lizenzmodelle: Die Diskussion ist in vollem Gange. Eines steht fest: Die Zukunft von Open Source AI wird uns alle betreffen – Zeit, ein Wörtchen mitzureden.

Beitragsbild von VOLLTOLL / Manuel Lopez.


Kategorien

Beliebte Tags

AI blockchain ecommerce ethics events Magento marketing Metaverse NFTs privacy security SEO shopify socialmedia update WooCommerce WordPress


Der englischsprachige Podcast von Openstream. Discover how memes, AI, and digital culture shape our world, challenge norms, and redefine what it means to be human.

spotify-podcast-badge
Listen on Apple Podcast