Fast so, als wäre das ein tatsächlicher Anwendungsfall für ~~KI~~ ~~LLM~~ Machine Learning: Man hat eine (nahezu) bias-freie Aufzeichnung von Daten, aus der das Modell zukünftige Werte ableiten kann.
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
Naja, das ist quasi der Anwendungsfall für ML. Eine große Datenmenge verarbeiten und dann aus diesen Daten die warscheinlichsten Szenarien für bestimmte Parameter berechnen. Das ist Wettervorhersage.
Ich habe noch überlegt, ob ich das /s
dahinter packe, weil ja, wie du sagst ist das eben der Anwendungsfall.
Ich habs vermutet, aber man kann sich leider nie ganz sicher sein.
Riecht eigentlich mehr nach Markov chains als nach regression von nicht linearen lösungsräumen.
Wenn meine inputmenge derart gigantisch ist sollte ich über bayessche Modelle doch viel genauer und effektiver zum Ziel kommen.
doof nur, daß wir heftig in ein nicht-lineares system eingreifen, das sich bis nach ende der anreicherung der atmosphäre mit treibhausgasen mehr und mehr chaotisch verhalten wird, so daß sich aus den bisherigen daten immer unzuverlässiger das wetter extrapolieren lassen wird. aber viel computer hilft bestimmt.
Wir messen ja weiterhin, da kan auch alle halbe Jahr das Model neu trainiert werden.
Aber das Trainieren der KI ging ganz ohne CO2? Interessant.
Da steht einmal "ohne Supercomputer" und einmal "mit weniger CO2", hab ich ein "0 CO2" uebersehen?