Um mitzumachen, melde dich bitte an.
  • Je " intelligenter" die KI, desto unintelligenter wird der Mensch?

    Diskussion · 62 Beiträge · 2 Gefällt mir · 1.022 Aufrufe
    Andrea aus Bad Vöslau
    Freizeit (diverse)  ›  Kategorien  ›  Sport  ›  Sonstiges

    Selbst der Erfinder von ChatGPT Sam Altman warnt davor.

    "Viele Literaturstudenten lesen die Romane  über die sie ihre Seminararbeiten schreiben nicht mehr selbst . Was sie auch nicht mehr selbst machen." Die Presse" 24.6.2025

     

    ? Inwiefern könnte die Delegation komplexer Denkaufgaben an KI unsere Fähigkeiten zum kritischen Denken und zur Problemlösung beeinträchtigen?

     

    ? Könnte eine allgegenwärtige KI , die uns ständig Empfehlungen gibt und Entscheidungen abnimmt unsere Intuition und unser Urteilsvermögen schwächen?

     

    24.06.25, 17:10 - Zuletzt bearbeitet 24.06.25, 17:10.

Beiträge

  • 26.06.25, 10:52

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    Ja, doch: Ein bisschen Ahnung schadet nicht.

  • 70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

  • 26.06.25, 09:40 - Zuletzt bearbeitet 26.06.25, 09:45.

     

    Stefan:

    Das setzt natürlich auch voraus, dass man mögliche Fallstricke kennt und dementsprechend seine Fragen formuliert und anpasst.

    Man muss einfach eine Ahnung haben von dem Gebiet.

     

    Ich frage oft ChatGPT zu eher fachlich-mathematischen Dingen, rein aus Spaß. Die Fehler sind oft himmelschreiend!

    - Verwechslung kW und kWh (Technik-Klassiker!)

    - Oft um Größenordnungen daneben, oft bei Alltagsvergleichen.

    Und so weiter und so fort. Bei normaler Anfrage arbeitet es anscheinend als Sprachmodell ohne jeden Plaubsibilitätscheck. Bei Nachfrage (rechne!) rechnet es tatsächlich, aber ich bin mir nicht ganz sicher, ob das wirklich immer so ist. ChatGPT aber auch schon eigene Fehler gefunden und korrigiert. Einmal aber auch überhaupt nicht, nach mehrmaliger Aufforderung nicht. ChatGPT hat mir erklärt, warum es den Fehler nicht gefunden hat. Ganz habe ich die Erklärung nicht verstanden.

     

    Manchmal stelle ich auch absichtlich falsche Behauptungen auf - das Programm antwortet oft mit "NEIN!"

     

    Also so ist es nicht, dass es immer das Ergebnis liefert, das man möchte. Oder eine Bestätigung der eigenen Meinung.

     

     

  • 26.06.25, 00:41 - Zuletzt bearbeitet 26.06.25, 00:43.

     

    Oskar100:

    Für mich ist die KI die größte Fehlentwicklung in die EDV. Es wird suggeriert das die KI logisch denken kann. Das ist total falsch.Die KI kann nur grosse Datenmenge automatisch durchsuchen. Was sie suchen muss gibt der Programmierer vor. Ich verwende die KI beim Texte schreiben und was mir die KI für Wörter vorschlägt ist zum aus der Haut zu fahren. Nicht einmal die Fehler beim Schreiben findet die KI. Für mich unmöglich. 

     

    Es gibt nicht "die KI" sondern verschiedene KI Modelle mit unterschiedlichem Entwicklungsstand und Anwendungsgebieten. Sie können nicht "denken", zumindest in dem Sinne, wie wir als Menschen das verstehen. Aber beließ dich mal zum Thema "Logik" in der Mathematik und Informatik...

     

    Und ohne es getestet zu haben bin ich mir trotzdem recht sicher, dass ein gängiges KI Modell deinen Post richtig gut überarbeiten und korrekt formulieren würde.

  • 25.06.25, 21:55

    Für mich ist die KI die größte Fehlentwicklung in die EDV. Es wird suggeriert das die KI logisch denken kann. Das ist total falsch.Die KI kann nur grosse Datenmenge automatisch durchsuchen. Was sie suchen muss gibt der Programmierer vor. Ich verwende die KI beim Texte schreiben und was mir die KI für Wörter vorschlägt ist zum aus der Haut zu fahren. Nicht einmal die Fehler beim Schreiben findet die KI. Für mich unmöglich. 

  • 25.06.25, 18:17

    Ich denke, die KI ist so schlau wie der Anwender oder der Anwender so schlau wie die KI. Füttert man diese nicht ausreichend, dann sind die Ergebnisse auch eher bescheiden. 


    Ich weiß gerade auch nicht von wem diese Redewendung ist, aber die passt irgendwie zu diesem Thema: „ Wer nicht mit der Zeit geht, geht.“ 

     

    Vielleicht ist es ein Zeichen unserer  Zivilisation, nicht mehr selbst zu denken, sondern es anderen zu überlassen. 

    Befinden wir uns vielleicht in der nächsten Evolutionsstufe, oder sind wir auf dem Weg, tief zu fallen? Keine Ahnung!


    Irgendwie klinge ich fast schon zu düster und negativ 😂, dabei bin ich eher optimistisch.  Egal wie es weitergeht, Fortschritt  lässt sich nicht aufhalten, die Richtung ist jedoch noch ungewiss.

  • 25.06.25, 18:16

    VOR DEM HAB ICH ETWAS ANGST - FAKE NEWS DURCH KI BIS ZUM KRIEG

    EINFACH WEIL SIE EINE FALSCHE REALITÄT DEN POLITISCHEN ENTSCHEIDUNGSTRÄGERN VORSPIELEN KÖNNEN

     

    Israel – Iran

    Krieg der KI-Bilder

    Der Alltag vieler Redaktionen wird gerade umgekrempelt. Sie begegnen bei der Berichterstattung über die Eskalation zwischen Israel und dem Iran einer Flut von mit Hilfe künstlicher Intelligenz (KI) erstellten Bildern. Verifikationsexperte Derek Bowler von der Europäischen Rundfunkunion (EBU) beschreibt gegenüber ORF defacto, wie Accounts mit Fakes Geld verdienen, während Userinnen und User in der KI-Flut untergehen.

    Online seit gestern, 18.15 Uhr

     

    Der Krieg zwischen Israel und dem Iran markiert nicht nur geopolitisch eine Zäsur, auch technologisch ist der Konflikt ein Wendepunkt. Bowler, Spezialist für Bildforensik und Leiter der Abteilung für Nachrichtenbeschaffung bei der EBU, kümmert sich darum, Bilder aus sozialen Netzwerken zu verifizieren.

    Er berichtet von einer „atemberaubenden Menge an hyperrealistischen Videos“, die ihm zum Nahost-Konflikt gerade begegnen und die sich „wie ein Waldbrand verbreiten“ würden. Da kursieren etwa KI-Videos von getroffenen Gebäuden, niedergebrannten Panzern und zerstörten Atomreaktoren. Alle sehen eindrucksvoll aus, alle sind aber rein am Computer erstellt. Das führt zu Problemen.

    KI-generiertes Material zum Konflikt zwischen Iran und Israel

    Identifikation selbst für Fachleute schwierig

    Kurz nach ersten Berichten über die Bombardierung des berüchtigten Regimegefängnisses Ewin in der iranischen Hauptstadt Teheran machte ein kurzes Schwarz-Weiß-Video die Runde. Darin ist in schlechter Qualität ein Eingang des Gefängnisses zu sehen, nach einem Treffer steigt dort dichter Rauch auf. Ob das Kurzvideo authentisch ist, konnte bisher nicht geklärt werden.

    Hany Farid, Professor für Informatik und Information an der UC Berkeley in Kalifornien und Mitgründer der KI-Detektionsfirma GetReal, fürchtet angesichts eines Trends gefälschter Inhalte bei wichtigen Weltereignissen ein „wackliges Verständnis der Geschehnisse“ und äußerte online Zweifel an der Echtheit des Clips.

    Das kursierende Video könnte basierend auf einem Foto KI-generiert sein. Es ähnelt in Ausschnitt und Details frappierend einem älteren Bild, das Grundlage für die Erstellung gewesen sein könnte. Aber: Ganz sicher ist er sich nicht. Das kurze Gefängnisvideo zeigt den Stand der Technik. Wenn selbst KI-Experten wie jene von GetReal nach längerer Analyse Schwierigkeiten bei der Einordnung haben, stehen alle vor einer Herausforderung. „Es wird für die Menschen sehr, sehr schwierig, damit umzugehen“, sagt Bowler.

    „Goldenes Fenster“ schließt sich immer schneller

    Sein Verifikationsteam habe bisher die ersten Momente nach einem Ereignis genutzt, um das Internet nach Material von Userinnen und Usern zu durchsuchen. In den ersten Minuten sei bisher das Informationsumfeld noch relativ sauber und man könne ein „goldenes Fenster“ nutzen, um authentisches Material aufzuspüren.

    Das ändere sich gerade mit der Geschwindigkeit, mit der KI-Videos erstellt werden können: „Jetzt sehen schon wir in den ersten zehn Minuten mehr als tausend Beiträge, die eine Mischung aus echten, falsch dargestellten und KI-generierten Inhalten sind. KI-generierte Inhalte dominieren diese Landschaft im Moment.“

    Geld und Geschwindigkeit

    Nicht nur die Geschwindigkeit und Zugänglichkeit von künstlicher Intelligenz ist dafür verantwortlich, auch die aufgeheizte Stimmung trägt dazu bei. Manche Accounts nutzen das. „Wir sehen jetzt sogenannte Narrativ-Accounts, wo ein Account zwei-, dreihundert Videos veröffentlicht. Es startet mit einem harmlosen Inhalt und dann sehen wir weitaus gezieltere und krassere Inhalte“, so Bowler.

    ORF defacto

    ORF defacto verifiziert Bilder und Videos für die Nachrichtenredaktionen des ORF und berichtet über Desinformationsthemen. ORF defacto ist Teil des Faktenchecknetzwerks Spotlight der EBU, dem auch Derek Bowler angehört.

    Diese Inhalte bedienen aber nicht nur Gefühle in einem emotional aufgeladenen Konflikt, sie lassen die Kassen der Ersteller klingeln. Manche der KI-generierten Bilder und Videos werden millionenfach aufgerufen, damit lässt sich etwa auf TikTok gutes Geld machen. Gleichzeitig stillen sie ein mediales Bedürfnis nach Nachrichten aus einem Land, zu dem viele westliche Medien nur schwer Zugang haben.

    Das Phänomen sieht Bowler aber nicht auf den Nahost-Konflikt beschränkt. „Wir stehen erst ganz am Anfang.“ Er kritisiert mangelnde Kontrollmechanismen der Plattformen, was in der Zukunft zu noch mehr irreführenden KI-Inhalten führen könnte: „Wenn wir zu diesem Stadium kommen, wird es für uns alle zu einem noch größeren Problem werden.“

    KI-Bilder erkennen

    Wer selbst herausfinden möchte, ob ein Bild mit Hilfe von KI erzeugt wurde, kann sich mit drei Schritten behelfen. Erstens: Rückwärtssuche anwenden. Wer das Bild bereits mit welcher Beschreibung verwendet hat, kann aufschlussreich sein. So erkennt man etwa echte Bilder, die von vorangegangenen Konflikten stammen oder KI-Material, das ursprünglich als solches gekennzeichnet war.

    Zweitens kann der Kontext unter die Lupe genommen werden: Details wie unnatürliche Reaktionen von Umstehenden, logische Fehler im Video oder Unterschiede zu anderem, bereits verifiziertem Material können weiterhelfen.

    Dritter Punkt ist das Aufspüren von KI-Resten. Viele KI-Generatoren versehen ihr Material mit Wasserzeichen, die aber manchmal versehentlich weggeschnitten oder absichtlich überdeckt werden. Eine typische Länge KI-generierter Clips, wie etwa acht Sekunden bei Material von Googles Veo 3, kann ebenfalls Grund zur Skepsis bieten.

    Eva Wackenreuther, ORF defacto

     

     

  • 25.06.25, 18:04

    Bsp. Es gibt auch KI im beruflichen Kontext. Nehmen wir an Du baust 10 Jahre ein Produkt immer mit dem selben Bauteil. Nach 10 Jahren ändert man dieses Bauteil, weil es weniger Fehleranfällig ist. Die ganze Zeit gibt es eine Dokumentation, die dem Kunden übergeben wird. 

    Jetzt fragt ein Ingenieur "Welches Bauteil x muss ich für das Produkt verwenden" und die KI wird das Bauteil nehmen was es am häufigsten findet, nämlich das alte. 
     

    Eine KI ist eine Mischung aus Daten und Wahrscheinlichkeitsrechnung bzw. Algorithmen. Komplexe Mathematik. 

     

    Die Aussage ist grundsätzlich zwar richtig, man darf aber nicht vergessen, dass insbesondere die stupide Berechnung von Wahrscheinlichkeiten hauptsächlich bei den anfänglichen LLMs vorzufinden ist. Die neueren Modelle sind definitiv besser.

     

    Umso wichtiger ist immer eine genaue Formulierung des Prompts: "welches Bauteil für Produkt x benutzen wir im Jahr 2025" oder so Ähnlich. Ich merke selbst täglich bei meiner Arbeit, wie wichtig es ist, "gezielt" die Informationen zu erfragen und das KI Modell in die richtige Richtung zu leiten. 

    Das setzt natürlich auch voraus, dass man mögliche Fallstricke kennt und dementsprechend seine Fragen formuliert und anpasst.

     

    Und genau das ist der Punkt, bei dem es aktuell bei vielen Menschen noch hapert. Man muss lernen diese KIs richtig zu nutzen um einen relvanten Nutzen für sich zu erzielen. Auch das erfordert ein gewisses Denkvermögen. Die Art und Weise wie wir Informationen aufnehmen, wie wir selbst lernen, Wissen verarbeiten und anwenden, ändert sich gerade ganz entscheidend. Das wird uns aber viele neue Möglichkeiten schaffen.

     

  • 25.06.25, 16:27

    Was für einige tödlich enden kann.......

    In dem Artikel steht ...

    Sewell Setzer litt schon länger an psychischen Problemen. Die Rede ist von Angstzuständen und Depressionen. 

    ... und nicht die KI ist schuld an dem Tod des Jungen, sondern diese psychischen Probleme. 

     

    Dies ist ein sehr gutes Beispiel, wie selbst Menschen kurz vor der Rente Dinge nicht hinterfragen können. 

     

    ChatGPT arbeitet anhand von Anfragen und je besser und präziser man sich ausdrücklich kann desto besser ist das Ergebnis.

    (Endlich mal ein Nachbar hier ;-) )
    Es spielt keine Rolle wie gut du formulierst, denn wenn die Quelle in einem falschen Kontext eine Antwort liefert, wird die Antwort auch falsch sein. 

     

    Bsp. Es gibt auch KI im beruflichen Kontext. Nehmen wir an Du baust 10 Jahre ein Produkt immer mit dem selben Bauteil. Nach 10 Jahren ändert man dieses Bauteil, weil es weniger Fehleranfällig ist. Die ganze Zeit gibt es eine Dokumentation, die dem Kunden übergeben wird. 

    Jetzt fragt ein Ingenieur "Welches Bauteil x muss ich für das Produkt verwenden" und die KI wird das Bauteil nehmen was es am häufigsten findet, nämlich das alte. 
     

    Eine KI ist eine Mischung aus Daten und Wahrscheinlichkeitsrechnung bzw. Algorithmen. Komplexe Mathematik. 
     

    die gibt einem die Antwort, die man hören will. Man will ja schließlich die Nutzer in der App halten.  

    Keine logische Schlussfolgerung! Eine KI ist vor allem eines... verdammt teuer. 

    Im beruflichen Kontext sieht es anders aus, dort kostet den Nutzer dies sehr viel... 

     

    Zur KI: Die KIs sind so geschrieben, dass sie das ausgeben, was der Frager gerne haben möchte.

    Wer sagt dies? Leider führt der Link zu einer Diskussion über Feministinen und auch nicht den von Erv angesprochen Beitrag von Fridolin. 
     

    Das ist nicht korrekt! Vor allem gibt es nicht "die KI". Ihr kennt vor allem nur die KI, die ihr was fragen könnt. 

    Bsp.: Es gibt eine KI, die mit Daten von Millionen von Partien von diesem asiatischen Spiel (weiße und schwarze Steine) gefüttert wurde. Er spielt jetzt gegen ein Großmeister... und "denkt nicht nach", sondern schaut in Millionen von Daten nach diesem selben Zug, wo am Ende der Gegner gewann und führt die selbe Technik aus. 

     

    Das ist das Problem der Uni, die den Studierenden die Aufgabe stellt, eine Seminararbeit über einen Roman abzugeben.

    Das Problem ist nicht die Aufgabenstellung, sondern das die KI den Roman als Quelle hat. 
    Würde die KI diesen Roman nicht kennen, könnte es die Aufgabe nicht lösen. 

    Was die KI auch nicht kann... schlussfolgerungen oder interpretieren aus dem Inhalt. 
    Man erinnere sich nur an "Die Schachnovelle" oder andere Weltliteratur. Erst wenn irgendjemand eine Abhandlung über dieses Buch geschrieben hat, kann die KI daraus eine Antwort formulieren. 

    Ich gebe immer gerne das Beispiel mit CIA ... die Menschen, die dort arbeiten sind nicht intilligenter, sondern sie haben auf mehr Daten Zugriff. 

    Ich halte es aber für falsch, wenn hier mit gefährlichem Halbwissen um sich geworfen wird, denn die wenigsten von Euch werden ein Studiumabschluss in IT haben... und damit basieren die meisten Antworten hier auf gefährliches Halbwissen und Ängsten. 

  • 25.06.25, 13:54 - Zuletzt bearbeitet 25.06.25, 13:54.

    Ein Problem das ich mit allen LLM sehe, die ich bis jetzt getestet habe - sie geben einem immer Recht. Z.B: Bitte erstelle mir diese Tabelle - gerne hier bitte. Ich glaub, der Wert ist falsch - ah ja, vielen Dank, ich habe den Wert korrigiert.

     

    Gemeint hatte ich aber einen anderen Wert, und die KI hat einen richtigen Eintrag korrigiert. Wie ein übereifriger Praktikant, der alles macht, um hilfreich zu scheinen, sich aber noch nicht so gut auskennt.

     

    Das macht KI-Ergebnisse extrem gefährlich. Man kann sich eigentlich auf kaum etwas verlassen, selbst, wenn der Großteil der Ergebnisse richtig ist.

     

    Und das liegt nicht an der KI. Das liegt an den Programmiererinnen und Programierern, die sie schreiben. Es muss einfach immer ein Ergebnis her, auch wenn es eigentlich zu unsicher ist.

  • 25.06.25, 11:30

    Das ist das Problem der Uni, die den Studierenden die Aufgabe stellt, eine Seminararbeit über einen Roman abzugeben. Die Aufgabe lässt sich nämlich mittels KI gut und schnell lösen, ohne dass eigenes Denken gefordert ist.

     

    Die Aufgabenstellung muss sich so anpassen, dass die Studierenden sich mit dem Buch auseinandersetzen und darüber nachdenken - und dabei können sie sich dann gerne von der KI helfen lassen. Z.B.: in der nächsten Stunde wird der Roman soundso diskutiert - bereitet euch darauf vor, in einer Diskussion den Standpunkt von Charakter A,B,C aus dem Roman  zu übernehmen. Eure Positionen müsst ihr mit einem Verweis zu Stellen im Roman begründen.

  • 25.06.25, 09:55

    KI kann ein hilfreiches Werkzeug sein, befördert aber auch die Denkfaulheit genauso wie mein Auto meine körperliche Fitness beeinträchtigen kann, wenn ich es denn zulasse. 
    Ich kann selbst entscheiden wie ich damit umgehe. Jeder kann das. (theoretisch) 

    Trotzdem denke ich, dass Einstein Recht behält, denn er sagte: 
     

    1000047168.jpg
  • 25.06.25, 00:46

    Ist auch logisch dass KI nicht gerade die eigene Intelligenz fördert, wozu selbstständig denken wenn man alles einer KI überlassen kann und die gibt einem die Antwort, die man hören will. Man will ja schließlich die Nutzer in der App halten.  

  • 24.06.25, 21:50 - Zuletzt bearbeitet 24.06.25, 22:03.

     

    Peter Silie:

    Ein Paradoxon, denn wer füttert sie denn!!!!!!!

    Nicht diejenigen, die sie nutzen. KIs sind raffinierte Algorithmen, die darauf ausgelegt sind Menschen süchtig zu machen. Was für einige tödlich enden kann.......

    https://www.br.de/nachrichten/netzwelt/wenn-ki-freunde-zur-gefahr-werden-suizid-in-den-usa-zeigt-tragischen-verlauf-einer-ki-beziehung,USgb6Ux

  • 24.06.25, 21:42

    Grundsätzlich nutze ich die KI zum diskutieren und das geht dann so lange,  bis ich sie von meinen Ansichten und meiner Meinung überzeugt habe ! Meist bedankt sie sich dann für den Input…😉

    Ich  versuche aber Kl  generierte Texte zu vermeiden , denn ich möchte mich dieser Technik nicht ausliefern und mich auch in der Realität verständigen können !  Ich glaube auch,  dass sie humaner wirken,  wenn sie nicht durch die KI bearbeitet und formuliert werden ..🙋‍♂️

  • 24.06.25, 18:59

     

    'ela':

    Solange auf der Welt gelogen wird🤥 kann man eh nicht alles glauben😉...

    .....und glaube nie alles, was du denkst;)

  • 24.06.25, 18:58

    Ich nutze KI täglich und bin überrascht wie gut das alles funktioniert und wie effizient ich mit ChatGPT viele tägliche Aufgaben privat und beruflich erledigen kann. Auch Bill Gates hat vor Jahren behauptet, dass KI die Welt verändern wird. Wichtig ist natürlich zu verstehen, dass die Informationen aus dem Internet kommen. Und noch wichtiger ist richtig zu formulieren was man möchte. ChatGPT arbeitet anhand von Anfragen und je besser und präziser man sich ausdrücklich kann desto besser ist das Ergebnis. Also als "Mittel zum Zweck" kann man es sicherlich gut nutzen. ;)

  • 24.06.25, 18:49

    Ein Paradoxon, denn wer füttert sie denn!!!!!!!

  • 24.06.25, 18:46

    Solange auf der Welt gelogen wird🤥 kann man eh nicht alles glauben😉...

  • 24.06.25, 17:49 - Zuletzt bearbeitet 24.06.25, 17:51.

     

    Matthias:

     

    Eine KI lernt aus zig verschiedenen Quellen... aber sind diese vergiftet, Propaganda oder Fake, dann ist das Ergebnis auf der anderen Seite auch "faul".

     

    Das ist absolut richtig. Ich musste bei deinem Beispiel gerade an den Postillon denken. Wenn man sich vor Augen führt, wie viele Leute regelmäßig die Satire für bare Münze nehmen, das ist schon erschreckend 😅. Und dort ist es ja noch ziemlich offensichtlich.

     

    Entscheidend wird also sein, dass zukünftig die Sprachmodelle immer besser dahingehend trainiert werden, dass sie selbständig "erkennen", welche Informationen verlässlich sind, und welche nicht. Aber man kann mittlerweile durchaus schon Fortschritte sehen.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.