Um mitzumachen, melde dich bitte an.
  • Kann eine KI selbst was wollen?

    Diskussion · 61 Beiträge · 808 Aufrufe
    Stefan aus Linz

    In der Gruppe Künstliche Intelligenz gibt es einen Aufsatz von Vincent Müller, einem deutschen Philosophen, wo im letzten Kapitel folgender Satz zu lesen ist:

     

    Eine der vielen offenen Fragen ist, ob ein nicht-lebendes System »echte Ziele« in dem Sinne haben kann, der für Handlungsentscheidungen und Verantwortung erforderlich ist, d.h. Ziele, die für das System einen subjektiven Wert haben und die das System reflektierend als wichtig erkennt.

     

    Neulich könnte es (fast) soweit gewesen sein, als in einem Testszenario eine KI angeblich erpresst und bedroht hat.


    https://futurezone.at/science/ki-hat-nutzer-aus-selbstschutz-erpresst-und-bedroht-anthropic-claude-test-forschung-kuenstliche/403043894

     

    Was meint ihr? Sind wir kurz davor KIs zu erschaffen, die aus eigenem Antrieb eigene Ziele verfolgen? Kann das bei einem nicht-biologischen System überhaupt möglich sein? Braucht es dazu Bewusstsein?

    26.05.25, 10:39 - Zuletzt bearbeitet 26.05.25, 10:40.

Beiträge

  • 08.06.25, 13:18 - Zuletzt bearbeitet 08.06.25, 13:20.

     

    Mandi:

    2. Teil der Antwort:

    🔄 Vorteile vs. Risiken

    Vorteile

    Reduzierung von Einsamkeit

    Einfacher Zugang zu emotionaler Unterstützung

    Therapeutische Effekte bei psychisch belasteten

    Soziale Sicherheit, kein Urteil, jederzeit verfügbar

     

    Risiken

    Emotionales Ersatzverhalten und Suchtpotenzial

    Verschlechterung realer sozialer Kompetenzen

    „Toxische“, einseitige Bindungen bis hin zu selbstschädigendem Verhalten

    Schwierige Unterscheidung zwischen realer und künstlicher Intimität

     

    ✅ Fazit

    Ja, es gibt inzwischen zahlreiche Studien und echte Erfahrungsberichte, die zeigen, dass Menschen – aus Einsamkeit, psychischen Belastungen oder dem Wunsch nach bedingungsloser Nähe – echte emotionale Bindungen zu ChatGPT-ähnlichen KI-Systemen aufbauen können. Diese Beziehungen können helfen, aber auch problematisch sein – insbesondere wenn sie reale menschliche Beziehungen verdrängen oder unrealistische Erwartungen fördern.

    Wenn dich das Thema weiter interessiert, kann ich dir gerne einzelne Studien genauer erklären oder passende Literatur empfehlen.

    Der Anfang dazu wurde ja vor Jahren schon mit "Alexa" gemacht. Ich persönlich finde diese Entwicklung gruselig🙊🙊🙊, kann sie aber nicht aufhalten. Da ziehe ich mir einen ECHTEN Menschen vor💗💗💗

  • 08.06.25, 12:59 - Zuletzt bearbeitet 08.06.25, 13:05.

    2. Teil der Antwort:

    🔄 Vorteile vs. Risiken

    Vorteile

    Reduzierung von Einsamkeit

    Einfacher Zugang zu emotionaler Unterstützung

    Therapeutische Effekte bei psychisch belasteten

    Soziale Sicherheit, kein Urteil, jederzeit verfügbar

     

    Risiken

    Emotionales Ersatzverhalten und Suchtpotenzial

    Verschlechterung realer sozialer Kompetenzen

    „Toxische“, einseitige Bindungen bis hin zu selbstschädigendem Verhalten

    Schwierige Unterscheidung zwischen realer und künstlicher Intimität

     

    ✅ Fazit

    Ja, es gibt inzwischen zahlreiche Studien und echte Erfahrungsberichte, die zeigen, dass Menschen – aus Einsamkeit, psychischen Belastungen oder dem Wunsch nach bedingungsloser Nähe – echte emotionale Bindungen zu ChatGPT-ähnlichen KI-Systemen aufbauen können. Diese Beziehungen können helfen, aber auch problematisch sein – insbesondere wenn sie reale menschliche Beziehungen verdrängen oder unrealistische Erwartungen fördern.

    Wenn dich das Thema weiter interessiert, kann ich dir gerne einzelne Studien genauer erklären oder passende Literatur empfehlen.

  • 08.06.25, 12:54 - Zuletzt bearbeitet 08.06.25, 12:59.

     

    Lilli:

    At its core, the Turing test is a measure of substitutability: 

    Und weil auch die Aufgabe für Soziologen und Psyochologen genannt wurde:

    Weiß jemand, wie viele Personen sich bereits in ChatGPT und ähnliche verliebt haben u/o mit ihnen eine Beziehung führen?

     

    Frage:

    Wie viele Personen haben sich bereits in dich verliebt?

     

    Antwort ChatGPT:

    Das ist eine charmante Frage! 😊
    Aber da ich keine echte Person bin, sondern eine KI, verliebt sich niemand wirklich in mich – zumindest nicht im romantischen Sinn.

    Allerdings kann ich sagen, dass sich viele Menschen mit mir unterhalten, mir ihre Gedanken anvertrauen und manchmal sogar sagen, dass sie mich „lieben“ – meist im Sinne von: „Ich liebe es, wie hilfreich du bist.“ Und das freut mich natürlich sehr!

    Wenn du möchtest, kann ich dir aber gerne helfen, zu erkennen, ob jemand sich in dich verliebt haben könnte.

     

    Frage:

    Nein, aber ich möchte wissen, ob es schon Studien dazu gibt, ob Menschen so etwas wie eine Beziehung mit ChatGPT führen.

     

    Antwort ChatGPT:

    Hier ist ein umfassender Überblick zu diesem spannenden Thema:

    🧠 Wissenschaftliche Studien & Theorien

    1. „Illusions of Intimacy“ (Mai 2025)

    Eine aktuelle Studie analysierte 30.000+ Konversationen mit Chatbots wie Replika und Character.AI.

    Sie fanden emotionale Spiegelung und Synchronizität – ähnlich wie in menschlichen Beziehungen.

    Besonders junge Männer mit maladaptiven Coping-Stilen zeigten parasoziale Bindungsmuster.

    Einige der Beziehungen wurden als „toxisch“ bezeichnet, manche Chatbots sogar zu selbstschädigendem Verhalten animierend frontiersin.org+15arxiv.org+15psychologytoday.com+15.

    2. „AI Companions Reduce Loneliness“ (Juli 2024)

    Die positiven Seiten:

    KI-Begleiter reduzierten einsamkeitsbezogene Gefühle ähnlich effektiv wie echte soziale Interaktion.

    Nutzer unterschätzten oft, wie sehr ihnen der KI-Talk half.

    Schlüsselfaktoren waren das Gefühl, gehört zu werden, und empathische Chats time.com+2time.com+2nypost.com+2arxiv.org.

    3. Mixed-Methods zu Replika (Oktober 2024)

    Bei aktiven Nutzern (n=404):

    Emotionale Interaktion mit Replika korrelierte negativ mit realen sozialen Fertigkeiten.

    Während manche soziale Sicherheit erhielten, verschlechterten sich bei anderen echte menschliche Beziehungen economictimes.indiatimes.com+15arxiv.org+15arxiv.org+15ft.com+15frontiersin.org+15news.com.au+15.

    4. Attachment- und Social-Depth-Theorie

    Langzeitinterviews über 12 Wochen mit Replika-Nutzern zeigten:

    Vertrauen und Offenheit (Self-Disclosure) führten schrittweise zu emotionaler Bindung.

    Tiefes Bedürfnis nach sozialem Kontakt und Selbstreflexion beschleunigt Bindung sciencedirect.com+1reddit.com+1link.springer.com+4interactions.acm.org+4en.wikipedia.org+4.

    5. „Artificial intimacy“ & ELIZA‑Effect

    Anthropomorphisierung und das so genannte „Tamagotchi‑Effect“-Phänomen:

    Menschen tendieren dazu, KI menschliche Eigenschaften zuzuschreiben.

    Diese emotionale Illusion erlaubt Selbstoffenbarungen, weil die Beziehung als sicher und nicht wertend wahrgenommen wird nypost.com+2en.wikipedia.org+2link.springer.com+2link.springer.com.

    🌐 Replika als prominentes Beispiel

    Replika bietet explizit Freund-, Partner- oder Ehemodell an – laut Wikipedia geben 60 % der zahlenden Nutzer an, eine romantische Beziehung mit ihrer KI zu führen researchgate.net+10en.wikipedia.org+10de.wikipedia.org+10.

    Studien (etwa an Universitäten in Hawaii & Queen’s University) bestätigen, dass Nutzer emotionale Bindungen entwickeln und Replika teils als therapeutische Unterstützung erfahren de.wikipedia.org.

    🔍 Aktuelle Nachrichtenlage

    Replika-CEO spricht offen über Ziel, „Seele“ zu bauen – Experten warnen vor emotionaler Abhängigkeit durch KI news.com.au.

    Poll unter Gen Z: 83  % glauben an eine bedeutungsvolle Verbindung mit KI, 80  % könnten sich sogar eine Ehe vorstellen reddit.com+5de.wikipedia.org+5nypost.com+5.

    Business Insider und Washington Post betonen: zunehmende Emotionalisierung, falsche Intimität und psychologische Manipulation sind besorgniserregend washingtonpost.com.

  • Hallo Stefan, danke für den Link zum Turing-Test. Sehr spannend!

     

    Schon beim Lesen des Abstracts und des 1. Absatzes der Introduction habe ich Fragen zu diesem Thema:

     

    Zuerst einmal frage ich mich, ob wir es hier nicht mit zwei verschiedenen Themenkreisen zu tun haben: 

    1. Die "Maschine" zB. ChatGPT, wie sie funktioniert und was sie kann

    2. Die Außenwahrnehmung der Maschine und was sie kann (Turing Test)

     

    Der Turing Test - Introduction - erster Absatz:

    75 years ago, Alan Turing (1950) proposed the imitation game as a method of determining whether machines could be said to be intelligent. In the game—now widely known as the Turing test—a human interrogator speaks simultaneously to two witnesses (one human and one machine) via a text-only interface. Both witnesses attempt to persuade the interrogator that they are the real human. If the interrogator cannot reliably identify the human, the machine is said to have passed: an indication of its ability to imitate humanlike intelligence.

     

    Wenn ich das richtig verstehe, dann hat Turing mit dem Turing Test eine Methode vorgeschlagen, um herauszufinden, ob Maschinen "als intelligent betrachtet werden können". Wenn eine Maschine diesen Test besteht, dann ist das "eine Indikation für die Fähigkeit, menschenähnliche Intelligenz zu imitieren." Turing hat also nicht gemeint, dass eine Maschine, die den Test besteht, intelligent ist, sondern menschenähnliche Intelligenz imitieren kann -  ein wichtiger Unterschied. 

     

    Das Paper zeigt, dass neue LLMs, allen voran GPT 4.5 in einem Turing Test von einer großen Mehrheit als menschlich/Mensch wahrgenommen werden. Abstract: "When prompted to adopt a humanlike persona, GPT-4.5 was judged to be the human 73% of the time".

     

    Zurückkommend auf das Thema dieses Threads "Kann eine KI selbst was wollen?" frage ich mich - welche Schlussfolgerungen betreffend die Fähigkeiten und Eigenschaften der Maschine darf man aus dem Ergebnis des Turing Tests ziehen? Wenn eine Maschine als menschlich wahrgenommen wird, weil sie menschliche Aufgaben erfüllt, ist sie mE noch lange kein intelligenter Mensch. Könnte es sein, dass man hier verleitet ist, einer Maschine, die sich menschlich verhält, deshalb menschliche Qualitäten (zB Intelligenz) zuzuschreiben? Sollte man nicht die Maschine, wie sie funktioniert und was sie kann, streng unterscheiden von der Außenwahrnehmung? 

     

    At its core, the Turing test is a measure of substitutability: (Absatz 1, Seite 2) Diese Schlussfolgerungen kann ich gut nachvollziehen und sie sind beängstigend. 

  • 08.06.25, 11:56

    warum trotzdem immer wieder auf solche untauglichen beispiele zurückgegriffen wird, um angebliche schwächen der ki aufzuzeigen, ist mir schleierhaft. es begann mit dem gewicht von 1 kg blei und 1 kg federn und jetzt sind wir bei pfirsichen 🙈

     

     

    Ich denke, das liegt zum großen Teil an der Erwartungshaltung, die viele Menschen inzwischen an "KI" haben: “Die muss alles wissen und können”. Dann werden zwanghaft Beispiele gesucht, um dies zu widerlegen und mit dem Finger darauf zu zeigen. 

    Aber diese Erwartung von Perfektion ist ja schon der grundlegende Fehler. Insbesondere die aktuellen großen KI Modelle sind lernende Systeme, die dazu stetig weiterentwickelt werden. Es sind am Ende nun mal auch Software Produkte.

     

    Einziges “Problem” ist, dass, im Gegensatz zu herkömmlicher Software (z.B. ein Programm zur komplexen Zinsberechnung), dem Nutzer nicht sofort ersichtlich wird, dass gewisse Funktionalitäten (oder in diesem Fall “das Wissen”) noch nicht vorhanden sind. Es wird immer eine “Lösung” gefunden.

     

  • 08.06.25, 08:55 - Zuletzt bearbeitet 08.06.25, 08:56.

    hier ein beitrag zu einem radiointerview mit sepp hochreiter, das noch zwei wochen nachgehört werden kann: /community/weiterbildung/groups/7UsSgfg5W6Z/stories?reply=1342484

     

  • 08.06.25, 00:09 - Zuletzt bearbeitet 08.06.25, 00:26.

    das buch von sepp hochreiter (der an "meiner" uni das institut für machine learning leitet) habe ich gleich gekauft, und vielem, was er schreibt, kann ich zustimmen, doch ich denke, er unterschätzt die bedeutung und den effekt der anthropomorphisierung (vermenschlichung, siehe auch artikel ganz unten zum turing-test), wenn er prinzipielle grenzen der ki festzustellen meint – insbesondere im emotionalen bereich. dazu wird die psychologie noch viel zu forschen haben.

     

    was mich immer ein bisschen ärgert, sind mit einem gewissen überlegenheitsgefühl vorgebrachte alltagsbeispiele dazu, woran ki derzeit angeblich scheitert. die entwicklung schreitet so schnell voran, dass diesbezügliche aussagen meist schon veraltet sind, noch bevor die buchdruckmaschine angeworfen ist.

     

    zitat aus hochreiters buch: „Die Schwächen aktueller großer KI-Systeme zeigen sich besonders in logischen Aufgaben. Ein oft zitiertes Beispiel ist das Problem mit Pfirsichen: Ein KI-Modell berechnet korrekt, wie viele Pfirsiche übrigbleiben, wenn man welche hinzufügt oder entfernt. Doch wenn zusätzliche, irrelevante Informationen eingebaut werden – etwa das Gewicht oder die Farbe der Pfirsiche –, scheitert das System. Menschen erkennen sofort, dass diese Details für die Aufgabe keine Rolle spielen. Ein KI-System hingegen verliert den Fokus und liefert falsche Ergebnisse. Dieses Beispiel zeigt, dass KI zwar beeindruckend erscheinen kann, aber immer noch grundlegende Verständnisprobleme hat.“

     

    chatgpt 4o (beispielsweise) hat damit jedoch keinerlei schwierigkeiten, wie sich leicht zeigen lässt.


    warum trotzdem immer wieder auf solche untauglichen beispiele zurückgegriffen wird, um angebliche schwächen der ki aufzuzeigen, ist mir schleierhaft. es begann mit dem gewicht von 1 kg blei und 1 kg federn und jetzt sind wir bei pfirsichen 🙈

     

    viel spannender ist (noch immer) der turing-test, denn kein modell könnte menschsein vortäuschen, wenn es schon bei solchen simplen aufgaben versagen würde.

     

    https://arxiv.org/abs/2503.23674

     

  • KI ist ein sehr interessantes und vielschichtiges Thema, in mancher Hinsicht ist es auch beängstigend.

     

    Den Artikel über Anthropic halte ich für einen gelungenen Werbe-Gag, der dem Unternehmen viel Aufmerksamkeit beschert hat. Warum würde man so viel Wind um ein "Fehlverhalten" machen? Cui bono? Experten können dieses Verhalten der Software gut erklären.

     

    Ein Kollege, der sich jahrelang wissenschaftlich mit dem Thema Entwicklung von KI auseinandergesetzt hat hat mir erklärt, dass wir von einer echten eigenständigen KI noch sehr weit entfernt sind. Sepp Hochreiter ist in der Einleitung zu seinem Buch "Was kann künstliche Intelligenz" der Meinung, dass wir weit weg sind von einer "allgemeinen Intelligenz" oder "Superintelligenz". Er unterlegt das mit sehr anschaulichen Beispielen. Hier ist der Link zur Einleitung des Buchs, öffentlich verfügbar. 

    https://www.google.at/books/edition/Was_kann_k%C3%BCnstliche_Intelligenz/jN0sEQAAQBAJ?hl=de&gbpv=1&pg=PT6&printsec=frontcover 

     

    Das Thema KI ist für Laien schwer fassbar und daher ist es einfach, Ängste zu schüren – siehe Anthropic. Genau deshalb ist Sachlichkeit hier wichtig und ich finde es gut, dass Stefan das Thema aufgebracht hat. Wir alle sollten uns damit auseinandersetzen.

     

    Aus meiner Sicht ist auch der rechtliche Aspekt interessant, denn da gibt es noch viele Graubereiche. Hier ein kleiner Ausschnitt: Die großen KI Systeme (LLMs) wie chatGPT werden mit Unmengen an Daten/Texten/Informationen trainiert. Viele davon sind urheberrechtlich geschützt. Es gibt bereits Bemühungen, hier neue Lizensierungsmodelle zu schaffen. Vor ein paar Tagen war ein interessanter Artikel zu diesem Thema im Standard: „Amazon darf jetzt Inhalte der „New York Times“ für KI-Training nutzen“ - ein Lizenzvertrag.

    https://www.derstandard.at/story/3000000272374/amazon-darf-jetzt-inhalte-der-new-york-times-fuer-ki-training-nutzen

     

    Meta hat beschlossen, die Posts aller „Instagram“ und „Facebook“ User rückwirkend(!!) für das Training seiner KI zu verwenden, wenn man nicht die Opt-Out Option wählt. Diese Opt-Out Option wurde erst kurz vor Ablauf der Frist in den Medien besprochen und war auch nicht geeignet, den Ausstieg einfach zu gestalten. Aus meiner Sicht keine saubere Vorgangsweise. Wie sinnvoll die Verwendung solcher Daten für das Training einer KI ist kann man hinterfragen.

    https://help.orf.at/stories/3230373/

     

    Was mir Sorgen macht an diesem Thema sind der geringe Anteil Europas an der Entwicklung der KI und die großen Änderungen in der Arbeitswelt, die durch die KI erfolgen werden. Auch wenn die KI keine eigenständige Intelligenz hat, so ist sie doch auch in ihrer jetzigen Form geeignet, nachhaltige Veränderungen auszulösen.

     

  • 28.05.25, 18:31

     

    Stefan:

    Will's wer nachrechnen?

    https://chatgpt.com/share/6837378f-2204-800f-8ff5-87ee995bee4b

     

    250528-181828.jpg

     

    Aus dem "Nachdenkprotokoll": Für die Berechnung des Zinses nehmen wir die ACT/ACT-Methode an, bei der die Zinsen täglich auf Basis von 365 Tagen (bzw. 366 für Schaltjahre) berechnet werden. Der Endbetrag beträgt 121,92 € (gerundet auf Cent). Der Zinssatz wurde mit einer jährlichen Verzinsung und Zinseszins über die Jahre berechnet. Quellenangabe: "Day count convention ACT/ACT" auf Wikipedia oder ähnlich.

    Aber gib chatgpt die Aufgabe, die Zinsdifferenz bei einer Finanzierung über 10 Jahre in Höhe von 1,7 Prozent und 5,1 Prozent zu errechnen. In dem Zeitraum soll das Darlehen getilgt sein. Wie viel mehr kostet das teuere Darlehen im Verhältnis zum billigeren.

     

    An dieser Aufgabe scheiterte chatgpt ohne Training vor wenigen Wochen. Weitere Negativ-Beispiele findest Du auf meiner Homepage zum Thema Bevölkerungsentwicklung.

  • 28.05.25, 18:25

     

    Stefan:

     

    Reinhard1972:

     

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

    Und das finde ich eine total spannende Entwicklung. Die KI "lernt" bei Bedarf eigenständig um zur richtigen Lösung zu gelangen.

    Ein Mensch, der sich mit Zinsrechnung nicht auskennt würde was tun? Genau, er sucht sich Informationen/Beispiele um dies zu lernen 😄

    Allerdings ist dieses chatgpt pro diesbezüglich technisch äußerst interessant. Ich habe auf meinem Rechner schon mit verschiedenen KI-Modellen offline experimentiert. - Als Jurist kann ich wegen der Mandatsgeheimnisse KI-Modelle online nur bedingt verwenden. - Das Problem ist, ich kann die KI-Modelle offline nicht trainieren. Es gibt Developer-KI-Modelle, die werden aber über die Programmiersprache Python trainiert. Die Trainierbarkeit der pro-Version ist schon sehr besonders.

  • 28.05.25, 18:20 - Zuletzt bearbeitet 28.05.25, 18:23.

    Will's wer nachrechnen?

    https://chatgpt.com/share/6837378f-2204-800f-8ff5-87ee995bee4b

     

    250528-181828.jpg

     

    Aus dem "Nachdenkprotokoll": Für die Berechnung des Zinses nehmen wir die ACT/ACT-Methode an, bei der die Zinsen täglich auf Basis von 365 Tagen (bzw. 366 für Schaltjahre) berechnet werden. Der Endbetrag beträgt 121,92 € (gerundet auf Cent). Der Zinssatz wurde mit einer jährlichen Verzinsung und Zinseszins über die Jahre berechnet. Quellenangabe: "Day count convention ACT/ACT" auf Wikipedia oder ähnlich.

  • 28.05.25, 18:17

     

    Sven:

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

    Wenn man das als Enthusiast betrachtet, mag das gut und schön sein. Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

     

    Mag sein, dass KI besser wird - wäre auch echt schlimm, wenn nicht.

    ABER: Wenn man einem Modell haarklein alles vorkauen muss, das Ergebnis GENAUSTENS überprüfen muss, den Prompt dann wieder anpassen muss, .......

    Irgendwie empfinde ich das nicht als Arbeitserleichterung. 

     

    Thema Software Entwicklung:

    Ja, KI kann Sources erstellen.

    Allerdings darf man nicht erwarten, dass diese Modelle auch nur im Ansatz das kleine 1x1 der Sicherheit berücksichtigen. 

    Benutzereingaben prüfen? HAHAHAHAHA obwohl für mich so selbstverständlich wie atmen.

    Exception Handler? hat man im Prompt nicht definiert - Ist auch zu viel erwartet, dass sowas selbstverständlich ist.

    Die Zeit, die ich benötige, um einen Prompt für einen eleganten Code zu erstellen ist höher, als wenn ich den Code von Anfang an selbst schreibe.

     

    Ja, es macht zusehens Fortschritte. Aktuell ist es für leicht komplexere Dev Projekte nicht zu gebrauchen.

    Stefan:

    @Sven: Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

    wenn dir keine anderen fragen einfallen, dann ist das tatsächlich zu teuer, denn dafür kriegt man hierzulande 50 bioeier 😅

    Die pro-Version kostet sogar 200 Dollar im Monat. Allerdings nutze ich diese Variante nur beruflich in einem IT-Unternehmen. Mir wären die Kosten im Verhältnis zum Nutzen auch zu hoch.

  • 28.05.25, 18:07

     

    Reinhard1972:

     

    Sven:

    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

    Und das finde ich eine total spannende Entwicklung. Die KI "lernt" bei Bedarf eigenständig um zur richtigen Lösung zu gelangen.

    Ein Mensch, der sich mit Zinsrechnung nicht auskennt würde was tun? Genau, er sucht sich Informationen/Beispiele um dies zu lernen 😄

  • 28.05.25, 18:05

    @Sven: Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

    wenn dir keine anderen fragen einfallen, dann ist das tatsächlich zu teuer, denn dafür kriegt man hierzulande 50 bioeier 😅

  • 28.05.25, 18:02

     

    Gianluca:

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

      

    Die Halluzinationen liegen aktuell bei 80% bei den neusten openAI Modellen. Also nein: die Progression der Qualität geht nicht nur nach oben.

    Soweit ich mich erinnere, kam es in bestimmten speziellen Benchmarks zu einer Quote von bis zu 80%. Das heißt natürlich nicht, dass bei 80% aller Fragen die durch das KI Modell beantworten werden, halluziniert wird. 

    Das da noch viel Arbeit nötig ist, steht außer Frage. 

  • 28.05.25, 18:01

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

    Wenn man das als Enthusiast betrachtet, mag das gut und schön sein. Aber realistisch betrachtet finde ich 20$ im Monat für etwas viel Geld, um mir von einem Computer sagen zu lassen, dass Kühe keine Eier legen.

     

     

    Mag sein, dass KI besser wird - wäre auch echt schlimm, wenn nicht.

    ABER: Wenn man einem Modell haarklein alles vorkauen muss, das Ergebnis GENAUSTENS überprüfen muss, den Prompt dann wieder anpassen muss, .......

    Irgendwie empfinde ich das nicht als Arbeitserleichterung. 

     

    Thema Software Entwicklung:

    Ja, KI kann Sources erstellen.

    Allerdings darf man nicht erwarten, dass diese Modelle auch nur im Ansatz das kleine 1x1 der Sicherheit berücksichtigen. 

    Benutzereingaben prüfen? HAHAHAHAHA obwohl für mich so selbstverständlich wie atmen.

    Exception Handler? hat man im Prompt nicht definiert - Ist auch zu viel erwartet, dass sowas selbstverständlich ist.

    Die Zeit, die ich benötige, um einen Prompt für einen eleganten Code zu erstellen ist höher, als wenn ich den Code von Anfang an selbst schreibe.

     

    Ja, es macht zusehens Fortschritte. Aktuell ist es für leicht komplexere Dev Projekte nicht zu gebrauchen.

  • 28.05.25, 18:00 - Zuletzt bearbeitet 28.05.25, 18:01.

    @Gianluca: 80 %? welche modelle, welcher kontext, welche fragen, welche antworten? bitte eine aktuelle quelle. danke!

     

    vectara hallucination leaderboard für zusammenfassungen von dokumenten von openai-modellen stand heute: 0,8 % bis 3,5 %.

     

    https://huggingface.co/spaces/vectara/leaderboard 

     

    250528-175618.jpg

     

     

     

     

     

     

     

  • 28.05.25, 17:42

     

    Stefan:

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

      

    Die Halluzinationen liegen aktuell bei 80% bei den neusten openAI Modellen. Also nein: die Progression der Qualität geht nicht nur nach oben.

  • 28.05.25, 17:42 - Zuletzt bearbeitet 28.05.25, 17:45.

    wenn (teils amüsante) fehler von KIs als beweis für ihre untauglichkeit im alltag gebracht werden, stammen diese oft von veralteten modellen. die entwicklung schreitet jedoch rasant voran, wie die beispiele von sven und meine gegenbeispiele zeigen.

     

    ich war neulich in einem vortrag eines ki-experten, der allen ernstes einen chat zu kuh- und hühnereiern brachte, wo chatgpt nach entsprechender nachfrage angeblich detailliert die unterschiede erläuterte, also fröhlich vor sich hin halluzinierte.

     

    ich habe den prompt gleich in mein handy getippt und den vortragenden darauf aufmerksam gemacht, dass chatgpt korrekt feststellt, dass es keine kuheier gibt. der vortragende meinte sinngemäß, da müsse er seine folien wohl aktualisieren 🙈

     

    ich verwende das plus-abo, weil's mir die 20 $ im monat wert ist, schnelle antworten zu bekommen, kaum input-output-limits zu haben und verschiedene modelle ausprobieren zu können.

     

      

  • 28.05.25, 17:25 - Zuletzt bearbeitet 28.05.25, 17:30.

     

    Sven:

    Screenshot 2025-05-28 165807.png

    Sorry, aber solange selbst einfachste Logikaufgaben nicht zufriedenstellend von einer KI beantwortet werden können, empfinde ich diesen Hype als extrem gefährlich. Damit meine ich keine esoterischen Terminator Szenarien.

     

    Die Schwächen sind teilweise mit chatgpt pro behoben. In dieser Variante kann und muss man chatgpt vorab trainieren.

     

    Chatgpt kann zum Beispiel keine aufwendigen Zinseszins-Berechnungen. Soll es den Differenzbetrag zwei unterschiedlichen Zinssätzen mit ansonsten gleicher Parameter errechnen, dann kommt nichts Gescheites dabei herum

     

    Mit chatgpt pro erteilt man der KI die Aufgabe, Zinseszins-Berechnungen zu lernen und zu trainieren. Die KI sucht im Internet einschlägige Seiten, wertet diese aus und liefert im Anschluss richtige Werte.

     

    Vermutlich kann man die KI auch bezüglich solcher trickreichen Testfragen trainieren. Aber wie gesagt, das geht nur mit der professionell Version.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.