this post was submitted on 02 Dec 2025
10 points (91.7% liked)

Künstliche Intelligenz

238 readers
10 users here now

Community für Austausch zum Thema Künstliche Intelligenz.

#ai #ki #artificial-intelligence

Wikipedia: "Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von Intelligenz mangelt. "

Anwendungen:

Verwandte Communities:

IT Communities:

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Bitte beachtet die Regeln von Feddit.org.

Attribution

  • Das Banner zeigt ein Symbolbild für Künstliche Intelligenz. Image by Gerd Altmann on Pixabay
  • Das Icon zeigt ein von marv99 mit Image Creator erzeugtes Logo.

founded 1 year ago
MODERATORS
 

Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.

Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.

Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.

Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.

Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.

Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.

Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.

Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.

top 21 comments
sorted by: hot top controversial new old
[–] hendrik@palaver.p3x.de 3 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Ich glaube auch ehrlich gesagt nicht, dass KI zur Zeit überhaupt entwickelt wird um das Leben der Menschen zu bereichern... Es geht vielmehr darum Geld von Investoren anzuwerben. Zuerst mit dem Wettrennen um Superintelligenz. Und nun investieren alle in KI, egal ob es einen konkreten Nutzen hat oder nicht. Also das hat es vielleicht auch irgendwie?! Aber OpenAI und Co sind ja total unprofitabel. Ich denke solange sie ihren Umsatz nicht mit den Nutzern machen, ist es auch recht nebensächlich was mir das Produkt bringt. Also kann ihnen ja egal sein ob es mich anlügt oder nicht, da sie das Geld eh auf eine ganz andere Art machen... Maßgeblich mit Zukunftsversprechen.

Ein Spiegel der Gessellschaft ist es auch bereits durch die Funktionsweise. Zumindest zum Teil. Es lernt Texte die aus der Gesellschaft kommen und soll solche Texte imitieren. Dementsprechend kann es gängige Stereotypen reproduzieren, Fakten und Mehrheitenmeinungen wiedergeben und Texte schreiben die beliebig wie Wikipedia-Artikel bis Sci-Fi Roman oder Geschwurbel aussehen. Ähnlich zu dem mit dem es gefüttert wurde.

[–] TinkerThinker@feddit.org 3 points 2 weeks ago (1 children)

Ich gebe Dir in beiden Punkten im Prinzip recht.

Was den Profit angeht ist es natürlich eine Investition in die Zukunft, was auch berechtigt ist, wenn man sich ansieht wie lange es dauerte z.B. den Laser oder die Computer-Mouse kommerziell zu nutzen. (Die Beispiele sind andererseits nicht vergleichbar, weil KIs in ständiger Interaktion mit dem Kunden entwickelt werden.)

Spiegel durch Funktionsweise: Ich glaube ich kann jetzt das eigentliche Problem formulieren: Ich denke viele haben von einem nicht-emotionalen Computer perfekte Objektivität, ein perfektes moralisches Verhalten erwartet. Diese Erwartung war unrealistisch aber auch unbewusst - sobald man bewusst darüber nachdenkt, ist sie offensichtlich unrealistisch.

[–] hendrik@palaver.p3x.de 2 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Das stimmt sicherlich. Irgendwie sind wir immer geneigt in KI etwas hineinzuinterpretieren. Seien es menschliche Emotionen und ein Bewusstsein. Oder Objektivität, mathematische Fähigkeiten... weil es irgendwie auf Computern läuft. Oder Fakten, bloß weil die Form und Sprache einem Wikipedia-Artikel entspricht... In Wirklichkeit funktionieren Large Language Models aber ganz anders als ein menschliches Gehirn oder ein Computer zu einem Resultat kommen würde. Manchmal kann man ja auch als Laie solche Dinge beobachten, wenn KI mehrseitige Ausführungen zu wirklich komplizierten Dingen ausführen kann, auf der anderen Seite aber die Anzahl der "R"s in "Strawberry" nicht zählen kann. Und da gibt es unzählige Beispiele, wie unintuitiv KI ist. Ich denke das größte Problem für die Praxis ist, dass KI nach wie vor zu viel erfindet, konfabuliert und das alles schlecht bis gar nicht steuerbar ist. Das ist dann problematisch für viele Anwendungen die irgendetwas mit Fakten zu tun haben. Mit anderen Einschränkungen von Intelligenz könnte man vielleicht besser umgehen. Es ist schon etwas sehr einzigartiges und halt "Künstlich", und weder menschliche Intelligenz, noch Taschenrechner...

Und Investition in die Zukunft... Ich bin mal gespannt ob die Größenordnung dann nachher zu dem Ergebnis passt. Also es sind ja Billionen an Dollar investiert. Ich glaube die Menschheit baut aktuell alle 2 Wochen ein neues Rechenzentrum irgendwo auf der Welt extra für KI. Und einzelne Unternehmen haben mehr Wert als andere ganze Industriezweige. Also letztendlich wird KI eine ganze Menge Leistung erbringen müssen um die Investition in der Größenordnung zu Berechtigen. Zur Zeit sehe ich das noch nicht so ganz. Und es gibt berechtigte Zweifel ob der aktuelle Ansatz von KI bis hin zu menschlicher Intelligenz skaliert oder wo es mich ernsthaft als Programmierer ablösen könnte, oder mir mehr als nur einzelne Teilaufgaben abnimmt. Bisher wurde KI explosionsartig besser, aber soweit ich weiß fehlt da noch der große Wurf um Probleme wie die "Halluzinationen" anzugehen, oder weitere große Fortschritte mit der Intelligenz zu machen, nachdem nun schon viel Trainingsmaterial abgegrast wurde und viel aus der grundlegenden Idee hinter dieser speziellen Form der KI-Modelle herausgekitzelt wurde... Ich kann aber auch nicht in die Zukunft sehen. Vielleicht passiert das, womöglich sind die Versprechungen aus Silicon Valley auch total überzogen. Ich denke aber der aktuelle Wachstumskurs könnte wirtschaftlich unhaltbar sein, wenn ich mal 2 Billionen durch ein Jahresgehalt von 100000 Dollar teile, müsste KI soetwas wie mehr als 20 Millionen Jobs auf dem Gehaltsniveau übernehmen. Und das bevor die Investoren-Gelder ausbleiben. Ich halte das für unrealistisch. Es gibt aber auch Meinungen wie die von Goldman Sachs, die sagen KI wird in den nächsten 5 Jahren 300 Millionen Jobs übernehmen. Wir werden sehen... Es ist letztendlich sehr viel Konjunktiv für echt viel Geld. Und meiner Meinung nach mehr Spekulation als Investition.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago)

Das erinnert mich an J.K. Gailbraith "Gesellschaft im Überfluß" (ich glaube, der war unter Kennedy dafür verantwortlich, das die hochgepuschte Krieg-Wirtschaft in eine Konsumgesellschaft umgewandelt wurde. Stichwort Club of Rome). Das Grundthema ist eben die Angst davor, was passiert, wenn das Wirtschaftswachstum lange Zeit <=0 fällt.

[–] sp3ctre@feddit.org 2 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Gibt sicherlich unzählige Möglichkeiten, was eine KI dazu bringt Falschinformationen rauszurücken. Mit falschen Informationen gefüttert, Bugs, geldgierige und/oder politisch motivierte Betreiber. Ich bin mir sicher, dass man über das Thema noch so einige Doktorarbeiten sehen wird.

Aber hier wird auch ne Menge aufgemacht. Geht's hier darum, ob der Output von z.B. ChatGPT einen "Spiegel der Gesellschaft" darstellt?

[–] hendrik@palaver.p3x.de 2 points 2 weeks ago* (last edited 2 weeks ago) (2 children)

Ich denke der Großteil des Grundes warum Falschinformationen herauskommen ist auch, dass auch nicht wirklich zwischen Fakt und Fiktion getrennt wird... Also KI funktioniert ja so, dass ein großer Haufen Text reinkommt, von Wikipedia bis Reddit, Fachbücher bis Science-Fiction Romane. Und daraus reimt sich KI dann etwas zusammen. Ob auf meine Frage an den Chatbot dann ein Wikipedia Artikel oder ein nette erfundene Kurzgeschichte herauskommt, sucht sich die KI selbstständig aus und da hat sie freie Hand. Beherrschen tut sie alle Genres mit denen sie gefüttert wurde. Und manchmal ist es ja auch schwer zu entscheiden ob Kreativität und Dinge ausschmücken gefragt ist oder eher nicht... Dazu kommen noch ein paar technische Schwierigkeiten. Wie z.B. dass KI beim Training belohnt wird Antworten zu geben. Das bietet den Anreiz sich Antworten auszudenken. Und es ist nicht so leicht das andersherum zu machen ohne dass die KI dann lernt oft mit "weiß nicht" durchzukommen, oder Anwendungsfälle wie Sachen ausschmücken, kombinieren oder kreative Antworten geben kaputt gemacht werden.

[–] TinkerThinker@feddit.org 2 points 2 weeks ago (1 children)

Danke für den Denkanstoß. Da hat mein Hirn gleich weiter gerattert. Das kam dabei heraus: KI - Kind ohne Erziehung

[–] hendrik@palaver.p3x.de 1 points 2 weeks ago* (last edited 2 weeks ago)

Ha, stimmt. Ja manchmal wenn ich KI irgendetwas machen lasse komme ich mir auch so vor als hätte ich einer 6-Jährigen den Auftrag gegeben den Zeitungsartikel für mich zusammenzufassen und dann kommt eine ziemlich abenteuerliche Interpretation heraus. Mit dem Unterschied, dass bei KI alles sprachlich perfekt und hochgestochen klingt und mit Inbrunst vorgetragen wird.

[–] sp3ctre@feddit.org 1 points 2 weeks ago (1 children)

Das wird wohl definitiv Einfluss haben. Ich finde aber auch interessant, dass man auch leicht verleitet wird anzunehmen, dass die KI halt einfach das ganze Internet und alle Bibliotheken gleichermaßen aufgesogen hat zum Trainieren. Dabei steht dem Ersteller des Modells ja auch noch frei, welche Inhalte er wie gewichtet oder ob er was auslässt, verändert oder wie auch immer.

Wenn die Frage jetzt gewesen wäre, ob die Outputs von z.B. ChatGPT ein Spiegel der Gesellschaft wären, würde ich es so pauschal erstmal verneinen, weil es nicht repräsentativ für eine ganze Gesellschaft sein kann, wenn nur eine Person bestimmt, womit die KI gefüttert wird. Aber ich bin mir auch nicht sicher, ob ich den Thread hier richtig erfasse.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago)

Im Prinzip total richtig, nur denke ich dass niemand in der Praxis diesen Arbeitsaufwand bewältigen kann. Die Gewichtung wird im Schnitt gering sein.

[–] DonPiano@feddit.org 1 points 2 weeks ago

KI ist Temu fuers Denken.

[–] suff@piefed.social 1 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Schön dass KI zur breiteren Wahrnehmung von Framing (d.h. Variationen von Wahr und Falsch) führt. Ein anderes Wort dafür ist der Hegemon: Wer ihm widerspricht muss gute Gründe liefern, anders als jene, die weder Tabus brechen, Unwahrheiten behaupten noch sonst irgendwas Verwerfliches äußern.

Jeder muss klar sein, dass Betreiber Vorauseilende Prefix-Prompts³ verwenden, die vor die Nutzerprompts gesetzt werden und einerseits Missbrauch abwenden oder inzwischen auch zur Mehrnutzung anregen sollen. Politischer Wille findet dort unter Umständen auch einen Ansatz.

Deepseek konnte anfangs noch Anti-Chinesische Texte generieren und übertragen bis ein Stichwort die Löschung der gesamten Antwort auslöste (habe seitdem nicht nochmal Deepseek benutzt). Inzwischen dürfte das wohl auch durch Prefix-Prompts umgangen werden.²

Zur Einschätzung der Technologie° (Technologiefolgenabschätzung) empfehle ich, die LLM-Modelle lokal zu betreiben und zu befragen, ohne Prefix-Prompts. Ich weiß allerdings nicht, ob inzwischen schon mit (politischen) Prefixen trainiert wird, wodurch (intensiver) vorgeprägte Modelle entstehen.


Ergänzungen
²) Prefix-Prompts können mit bestimmten Angriffen umgangen oder abgefragt werden.
³) Auch "SuperPrompt", "KI-Beschränkung", "System Prompt"
°) Zur Einschätzung empfehle ich eine Rede vom Kybernetiker Fritz von Foerster. Kurz: Rechnersysteme antworten nur auf die Eingabe und das möglichst immer gleich. Diese Vorhersehbarkeit ist langfristig wichtig, niemand will einen unzuverlässigen Taschenrechner. LLMs haben ein so breites Anwendungsgebiet, dass sich diese Feststellung erst spät auskristallisieren wird. Andererseits scheint die Anwendung unvorhersehbarer Systeme seit der Grundlagenkrise der mathematik eine Art Regress zu sein, der zumindest schon jetzt zur effizienteren Muster-Erkennung/-Erzeugung (unter dem Vorbehalt einer Fehlertoleranz) führte. Regress in dem Sinne, dass falls man Modelle in analoge bspw. optische Komponenten gießt, hat man es mit nichtdeterministischen Elementen zu tun, die in die bisher deterministische "Rechner"-Arithmetik einfließen. Je nachdem wie Fehlertolerant wir sein wollen.


Sicher, die prominentesten Modelle (auch DeepSeek) wurden überwiegend mit US-Amerikanischen Verbrauchermeinungen aus Internetforen und Kommentarspalten gefüttert und sind entsprechend gefärbt. Bei wissenschaftlichen Veröffentlichungen (die immer noch als mehrspaltige PDF vorliegen), ist wiederum das Training 1. seltener und 2. methodisch falsch abgelaufen.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago (2 children)

Hallo suff, die Begriffe Framing und Prefix-Prompts finde ich sehr interessant. Da ich (in dieser Commuity ) keine guten Infos finde, fände ich es gut, wenn Du jeweils erklärende Beiträge erstellen könntest. (zumal ich keinen starken Zusammenhang mit dem Titelthema sehen kann, auch wenn das an meiner Unkenntnis liegen mag). danke Und wie kann man LLM lokal betreiben?

[–] suff@piefed.social 1 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Im Titel habe ich Spiegel der Gesellschaft gelesen und gleich an die Diskussion darüber gedacht, welche Großmacht im KI-Wettrennen gewinnen wird, und ihr Mindset unter die Leute bringt.

Das wird gefährlich, wenn die Mindsets inkompatibel sind und so die Gesellschaft spalten. Mindset, Framing, Hegemon, Weltanschauung, Deutungshoheit und Propaganda bedeuten alle ungefähr das gleiche in unterschiedlichen Kontexten.

Die Grenze zwischen Sprach- und Weltmodell ist fließend. Beide können mit Systemprompts vor Nutzerprompts voreingestellt werden. Das lässt sich nachahmen, indem man als Nutzer die Modelle selbst betreibt.

LLMs kann man leicht (auch ohne Grafikkarte) selbst betreiben. (Trainieren ist aufwendiger.) Mit ollama und der Modelldatei kann man ohne Internetverbindung Prompts direkt ohne Zensur abgeben. Auf dem eigenen Rechner würfelt ollama daraufhin eine Antwort mit den Wahrscheinlichkeiten des Modells und der Eingabe. Anleitungen gibt es im Netz.

Hast du eine konkretere Frage?

[–] TinkerThinker@feddit.org 1 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Stimmt, an unterschiedliche Gesellschaften bzw. Mächte hatte ich gar nicht gedacht.

ollama: danke. mal sehen wann dazu zeit finde.

Weltmodell: Ich gehöre zu denen, die der Meinung sind, dass KI gar kein Modell, also gar kein echtes Verständnis, von realen Dingen/Funktionsweisen/Hintergründen haben. Aber das gehört definitiv in einen neuen Thread. siehe auch weiter unten von hendrik: "... auf der anderen Seite aber die Anzahl der "R"s in “Strawberry” nicht zählen kann...."

[–] suff@piefed.social 1 points 2 weeks ago* (last edited 1 week ago) (1 children)

Weltmodell: Ich halte es eben für fließend. Modelle sind nie ganz vollständig. Aber wer Lückentexte in Kontaxten ausfüllen kann, weiß mehr als nur die Grammatik.

Strawberry: Langsames und Schnelles Denken. Außerdem gibt es eine einfache Erklärung: Worte werden schon zu Lautschrift umgewandelt bevor sie das Modell zu "sehen" bekommt.

[–] TinkerThinker@feddit.org 1 points 2 weeks ago (1 children)

"Langsames und Schnelles Denken" : ? Lautschrift: hab ich nie drüber nachgedacht, aber eigentlich naheliegend. Aber: ein klarer Beweis, dass hier ein Teilmodell fehlt, welche Mensch unbewusst voraussetzt. Daraus lässt sich natürlich keine allg. Aussage darüber treffen in wie weit KIs grundsätzlich fähig sind innere, abstrakte, menschliche Modelle nachzubilden.

[–] suff@piefed.social 1 points 1 week ago (1 children)

Daniel Kahneman: Thinking, Fast and Slow teilt das Denken in zwei Systeme auf: Logik und Intuition. Ich denke, den intuitiven Teil hat man nun mit KI gut implementiert.

Perplexity.ai erkennt inzwischen ungefähr, wann es angebracht ist, logisch zu denken und entwirft zunächst ein Python Skript, das es ausführt und dessen Resultate es schließlich für die Antwort verwendet. Vielleicht gibt es inzwischen schon Unterstützung für Prolog und SAT-Solver..?

[–] TinkerThinker@feddit.org 1 points 1 week ago

zu "Thinking, Fast and Slow" : 👍 ... (sobald ich wieder etwas Zeit habe werden ich mal einen Thread "Inneres Modell" o.ä. aufmachen und das einbinden.) ... auch interessant: quarks: deep reading

[–] suff@piefed.social 1 points 2 weeks ago (1 children)

Hier eine Sammlung von geleakten "Prefix-Prompts", oder "System Prompts"

https://github.com/asgeirtj/system_prompts_leaks

[–] TinkerThinker@feddit.org 1 points 2 weeks ago

Danke! 👍