Ja, dieser Argumentation, an der durchaus etwas dran ist, sind die Gerichte bislang weitestgehend gefolgt. Dennoch sind m.E. weder LLMs noch Musik- oder Bildgenerierungsmodelle in der Lage, wirklich neue Dinge zu erschaffen.
Was sie tun, ist, Muster in ihrem riesigen Korpus an Trainingsmaterial zu finden, die sie gewissermaßen als eine Art Bauplan oder Vektor abspeichern. Auf Anfrage können sie diese Vektoren wiedergeben und/oder mit anderen solcher Vektoren kombinieren. Daraus ergibt sich dann eine Art Collage, die im Vergleich zum Ausgangsmaterial durchaus etwas neues sein kann und nicht unbedingt direkte Teile aus dem Ausgangsmaterial enthalten muss. Der Grad der "Neuheit" ist jedoch durch die verfügbaren Vektoren begrenzt, die sich aus dem Trainingmaterial ergeben. Der kreative Teil, nämlich die Nutzeranfrage, kann damit nur auf zugegeben sehr viele, jedoch trotzdem nur auf begrenzt viele Arten aus den vorhandenen Vektoren umgesetzt werden.
In einem menschlichen Sinne ist dies insgesamt wohl eher kein kreativer Prozess, sondern viel eher ein statistischer, da das Ergebnis stets auf Grundlage der verfügbaren Muster in Kombination mit einer Wahrscheinlichkeitsrechnung hinsichtlich der Anfrage des Nutzers entsteht. Die KI-Modelle selbst sind nicht in der Lage, etwas von sich aus hinzuzufügen. Wäre es anders, wären die Ergebnisse weitestgehend unbrauchbar, denn sie wären für Menschen unverständlich (sie würden nicht in unsere Welt passen). Diese Modelle haben somit über das Erkennen von Mustern und deren Reproduktion und/oder Kombination mit anderen Mustern hinaus keinerlei Verständnis von den dargestellten Dinge, jedenfalls keines, das menschlichem Verständnis auch nur nahekommen würde.
Das Problem bei all dem ist, dass diese Modelle vielen Menschen die Lebensgrundlage entziehen. Das ist in sich natürlich schon ein wesentliches Problem, jedoch heißt es auch, das künftig umso weniger menschliche Werke entstehen werden. Das wiederum bedeutet, das man sich über kurz oder lang in einen Teufelskreis aus reproduzierten oder kombinierten, jedoch stets bereits vorhandenen Mustern begibt - dann gibt es tatsächlich nichts neues mehr unter der Sonne; nur noch millionenfache "Remixes" von schon Vorhandenem.
Ich denke also, dass es insgesamt durchaus auch eine Diskussion darüber sein sollte, ob und inwieweit Kultur etwas wichtiges und schützenswertes ist. LLMs und dergleichen emulieren Kultur lediglich. Sie selbst sind zu keiner schöpferischen Leistung in der Lage und schränken die Kreativität ihrer Nutzer durch einen begrenzten Satz an möglichen Kombinationen aus gelernten Mustern ein. Es kann daraus Neues entstehen, aber nur in den Grenzen der zugrundeliegenden Logik. Fraglich ist dann eben, ob hierdurch nicht etwas sehr Wesentliches verloren geht bzw. ob sich die Menschen damit abfinden möchten, das Kultur mehr und mehr wie Pop-Musik gehandhabt wird: stets einer vordefinierten Logik folgend, die der Kreativität enge Grenzen setzt.
Yes, I agree. Explicitly excluding AI training in your terms of use or license probably won't deter most companies, but I think it wouldn't hurt to include this as an addition, since a clear contractual prohibition would likely:
For example, when selling a book, you could require explicit consent (checkbox opt-in or similar) to strengthen enforceability. Enforcement would still be difficult, of course, but an explicit clause might at least have a certain deterrent effect and, if necessary, create additional leverage in court, I think.