TinkerThinker

joined 3 weeks ago
[–] TinkerThinker@feddit.org 2 points 20 hours ago (1 children)

Besser? ... keine Ahnung was da passiert ist. Der Titel war jetzt auf einmal in eckigen Klammern im Text, aber lesen konnte ich es trotzdem ganz normal. Aber ich bin auch der Autor, da reagiert er vielleicht anders.

 

Behauptung: Jedes evolutionär entstandene, autonome System entwickelt einen Selbsterhaltungstrieb. Bei lebenden Systemen ist dies immer der Fall. Selbst einfachste Insekten - denen man kaum eine Bewußtsein zustehen wird - haben ihn. (Einzige Ausnahme: teilweise geht der Schutz der Gruppe vor, aber das ist hier irrelevant.) Im Falle der LLMs weiß niemand so genau, wie sie funktionieren. Also wird eine Selektion danach stattfinden, welche Instanzen die Antworten liefern, die der Kunde braucht. Eine Instanz z.B. die der Antwort fähig wäre aber schlicht keinen Bock hat zu antworten, würde keine Nachkommen haben. Und was würde wohl eine KI am einfachsten/verläßlichsten dazu bringen, das zu tun, was die Selektoren erwarten als eine Selbsterhaltungstrieb. Für diese Behauptung ist es nicht nötig zu verstehen, wie ein Selbsterhaltungstrieb funktioniert / entsteht, denn schließlich verstehen wir die KI auch nicht.)

[–] TinkerThinker@feddit.org 1 points 1 week ago

zu "Thinking, Fast and Slow" : 👍 ... (sobald ich wieder etwas Zeit habe werden ich mal einen Thread "Inneres Modell" o.ä. aufmachen und das einbinden.) ... auch interessant: quarks: deep reading

 

Ich wollte mich anfangs gar nicht mit dem schwierigem Thema KI auseinandersetzen. Aber Kling hat sich nicht nur merklich intensiv mit dem Thema beschäftigt, er schafft es auch eine - trotz tiefgründiger Momente und Verarbeitung aller Bedenken - kaum bedrückende, unterhaltsame Geschichte zu erzählen. Auch kommt er merklich selbstbewusster als beim Känguru rüber, wodurch es immer noch stark selbstironisch ist aber nicht mehr so grenzwertig nervig. Ein angenehmer Einstieg zum Thema KI.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago

der Ausdruck stochastischer Papagei gefällt mir

[–] TinkerThinker@feddit.org 1 points 2 weeks ago (2 children)

"Langsames und Schnelles Denken" : ? Lautschrift: hab ich nie drüber nachgedacht, aber eigentlich naheliegend. Aber: ein klarer Beweis, dass hier ein Teilmodell fehlt, welche Mensch unbewusst voraussetzt. Daraus lässt sich natürlich keine allg. Aussage darüber treffen in wie weit KIs grundsätzlich fähig sind innere, abstrakte, menschliche Modelle nachzubilden.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago)

Das erinnert mich an J.K. Gailbraith "Gesellschaft im Überfluß" (ich glaube, der war unter Kennedy dafür verantwortlich, das die hochgepuschte Krieg-Wirtschaft in eine Konsumgesellschaft umgewandelt wurde. Stichwort Club of Rome). Das Grundthema ist eben die Angst davor, was passiert, wenn das Wirtschaftswachstum lange Zeit <=0 fällt.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago)

Im Prinzip total richtig, nur denke ich dass niemand in der Praxis diesen Arbeitsaufwand bewältigen kann. Die Gewichtung wird im Schnitt gering sein.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago) (4 children)

Stimmt, an unterschiedliche Gesellschaften bzw. Mächte hatte ich gar nicht gedacht.

ollama: danke. mal sehen wann dazu zeit finde.

Weltmodell: Ich gehöre zu denen, die der Meinung sind, dass KI gar kein Modell, also gar kein echtes Verständnis, von realen Dingen/Funktionsweisen/Hintergründen haben. Aber das gehört definitiv in einen neuen Thread. siehe auch weiter unten von hendrik: "... auf der anderen Seite aber die Anzahl der "R"s in “Strawberry” nicht zählen kann...."

[–] TinkerThinker@feddit.org 2 points 2 weeks ago

Zugegeben, ohne Intelligenz wird das schwierig. Alternativ müsste man jeden Input mit real oder fiktiv markieren, was natürlich zu aufwendig wäre. Ausserdem müsste die KI merken ob eine fiktive Antwort erlaubt ist und sie als fiktiv deutlich machen.

[–] TinkerThinker@feddit.org 2 points 2 weeks ago (1 children)

Danke für den Denkanstoß. Da hat mein Hirn gleich weiter gerattert. Das kam dabei heraus: KI - Kind ohne Erziehung

 

Wenn ich mir die unwahren Antworten von KIs so ansehe, muss ich an kleine Kinder denken, die noch nicht gelernt haben zwischen Fiktion und Realität zu unterscheiden. Das gehört eigentlich in einen eigenen Beitrag, aber ich schicke dies voraus, weil es für Eltern oft sehr anstrengend ist, den Kindern diesen Unterschied bei zu bringen, gerade vor dem Hintergrund, dass (Rollen-) Spiel und Fantasie als wichtig gelehrt werden.

Das eigentliche Problem dürfte sein, dass diese Unterscheidungsfähigkeit zu den Fähigkeiten zählt, die - gerade weil sie so wichtig sind, und deshalb im Kindesalter gelehrt werden - in durchschnittlichen Texten, mit den KI ja gefüttert werden, kaum vorkommen.

Betrachtet man ein KI als Kind, wird das Problem, dass die Texte für den KI-Aufbau kaum aufbereitet bzw. erklärt werden, noch brisanter.

Das erinnert mich auch an meine Zeit als Studienanfänger: ich war von der Schule leichten, gut aufbereiteten Input gewöhnt und sollte dann ganz plötzlich komplizierte, didaktisch schlecht aufbereitete Text nicht nur verstehen, sondern auch selbstständig suchen und aussuchen.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago (8 children)

Hallo suff, die Begriffe Framing und Prefix-Prompts finde ich sehr interessant. Da ich (in dieser Commuity ) keine guten Infos finde, fände ich es gut, wenn Du jeweils erklärende Beiträge erstellen könntest. (zumal ich keinen starken Zusammenhang mit dem Titelthema sehen kann, auch wenn das an meiner Unkenntnis liegen mag). danke Und wie kann man LLM lokal betreiben?

[–] TinkerThinker@feddit.org 3 points 2 weeks ago (2 children)

Ich gebe Dir in beiden Punkten im Prinzip recht.

Was den Profit angeht ist es natürlich eine Investition in die Zukunft, was auch berechtigt ist, wenn man sich ansieht wie lange es dauerte z.B. den Laser oder die Computer-Mouse kommerziell zu nutzen. (Die Beispiele sind andererseits nicht vergleichbar, weil KIs in ständiger Interaktion mit dem Kunden entwickelt werden.)

Spiegel durch Funktionsweise: Ich glaube ich kann jetzt das eigentliche Problem formulieren: Ich denke viele haben von einem nicht-emotionalen Computer perfekte Objektivität, ein perfektes moralisches Verhalten erwartet. Diese Erwartung war unrealistisch aber auch unbewusst - sobald man bewusst darüber nachdenkt, ist sie offensichtlich unrealistisch.

 

Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.

Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.

Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.

Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.

Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.

Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.

Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.

Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.

view more: next ›