Um mitzumachen, melde dich bitte an.
  • Je " intelligenter" die KI, desto unintelligenter wird der Mensch?

    Diskussion · 52 Beiträge · 2 Gefällt mir · 859 Aufrufe
    Andrea aus Bad Vöslau
    Freizeit (diverse)  ›  Kategorien  ›  Sport  ›  Sonstiges

    Selbst der Erfinder von ChatGPT Sam Altman warnt davor.

    "Viele Literaturstudenten lesen die Romane  über die sie ihre Seminararbeiten schreiben nicht mehr selbst . Was sie auch nicht mehr selbst machen." Die Presse" 24.6.2025

     

    ? Inwiefern könnte die Delegation komplexer Denkaufgaben an KI unsere Fähigkeiten zum kritischen Denken und zur Problemlösung beeinträchtigen?

     

    ? Könnte eine allgegenwärtige KI , die uns ständig Empfehlungen gibt und Entscheidungen abnimmt unsere Intuition und unser Urteilsvermögen schwächen?

     

    24.06.25, 17:10 - Zuletzt bearbeitet 24.06.25, 17:10.

Beiträge

  • 26.06.25, 13:57 - Zuletzt bearbeitet 26.06.25, 13:59.

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    ich wollte schreiben, dass es um Hungary geht, aber eigentlich hat sie Ungarn mit Holland bezeichnet. 🤷

  • 26.06.25, 13:36

     

    Sven:

     

    Mandi:

     

    Ja, doch: Ein bisschen Ahnung schadet nicht.

    Das stimmt natürlich:

    Ich habe genug Ahnung, um relativ komplexe Routinen zu programmieren - also brauche ich dafür keine KI.

    Ich habe genug Ahnung von Mikrofonierung und weiß, welches Mic ich wie und wo bei einem Flügel, Schlagzeug, .... aufstellen muss - also brauche ich dafür keine KI.

     

    Ich habe keine Ahnung von Medizin oder Recht. Ich weiß aber, wie sehr eine KI halluzinieren kann. Also lasse ich lieber die Finger davon, weil es ab hier richtig gefährlich werden kann.

     

    Ist ja schön, dass du Ahnung hast, aber würdest du denn so z.B. mit einem Kollegen sprechen, von dem du etwas möchtest: "Land mit H" ? oder eher "(Kannst du mir) Länder in deutscher Sprache nennen die mit H beginnen?"

     

    Klar ist man durch Formulierungen zum einfachen  "googeln" inzwischen etwas anderes gewöhnt, aber Anfragen an LLMs funktionieren nun mal etwas anders. Und der Prompt ist einfach schlecht bzw. nicht ausreichend (auch wenn der Fehler natürlich trotzdem schade ist). 

     

  • 26.06.25, 13:34

     

    Dante:

    IQ = Intelligenzquotient

    KI = Künstliche Intelligenz

    KI  killt  IQ

    FF = Forcierter Flachgeist

    KI Sucht und Flachgeist_1200_03.jpg

    ☝️👍                                                                                                                                                             

  • 26.06.25, 13:32

     

    Sven:

    Ich habe keine Ahnung von Medizin oder Recht. Ich weiß aber, wie sehr eine KI halluzinieren kann. Also lasse ich lieber die Finger davon, weil es ab hier richtig gefährlich werden kann.

    Ja, Ja und Ja.

    Sehe es ähnlich in anderen Fachgebieten: Wo ich mich auskenne, sehe ich haarsträubende Fehler, aber eigentlich bräuchte ich KI dort nicht.

    Wo ich mich nicht auskenne, wäre sie nützlich, aber die Fehler dürften dort genau so haarsträubend sein, wenn es nur ein bisschen in Details geht. Aber ich erkenne sie nicht.

    Tja...

    Dennoch bringe ich hier oft KI-generierte Inhalte als Startpunkte und Diskussionsgrundlage. Irgendwie wie ein Gesprächspartner mit Halbwissen von wirklich allem. Also ganz wertlos ist das nicht.

  • 26.06.25, 13:15

     

    Marta:

     

    Elena:

     

    Stimmt nicht. 😑

    IMG_8880.png

    Es hat dazu gelernt, vor guten 2h hab ich ein ähnliches Ergebnis wie Sven bekommen 

    Dann gibt es noch Hoffnung! 😅

  • 26.06.25, 12:50

     

    Elena:

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    Stimmt nicht. 😑

    IMG_8880.png

    Es hat dazu gelernt, vor guten 2h hab ich ein ähnliches Ergebnis wie Sven bekommen 

  • 26.06.25, 12:39

    IQ = Intelligenzquotient

    KI = Künstliche Intelligenz

    KI  killt  IQ

    FF = Forcierter Flachgeist

    KI Sucht und Flachgeist_1200_03.jpg
  • 26.06.25, 11:29

     

    Mandi:

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    Ja, doch: Ein bisschen Ahnung schadet nicht.

    Das stimmt natürlich:

    Ich habe genug Ahnung, um relativ komplexe Routinen zu programmieren - also brauche ich dafür keine KI.

    Ich habe genug Ahnung von Mikrofonierung und weiß, welches Mic ich wie und wo bei einem Flügel, Schlagzeug, .... aufstellen muss - also brauche ich dafür keine KI.

     

    Ich habe keine Ahnung von Medizin oder Recht. Ich weiß aber, wie sehr eine KI halluzinieren kann. Also lasse ich lieber die Finger davon, weil es ab hier richtig gefährlich werden kann.

  • 26.06.25, 11:27

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    Stimmt nicht. 😑

    IMG_8880.png
  • 26.06.25, 10:56 - Zuletzt bearbeitet 26.06.25, 10:59.

    Was verstehen wir denn eigentlich unter "Intelligenz"? Als ein Schachcomputer erstmals einen Menschen schlagen konnte, haben wir bereits das für "Künstliche Intelligenz" gehalten. Wir haben uns an die Helfer Apps wie beispielsweise Navigationssysteme gewöhnt und können uns daher kaum noch ohne dieses Hilfsmittel selbständig orientieren. Ich denke schon, dass Künstliche Intelligenz auch tatsächlich inteligent genutzt werden könnte, allerdings wird das auch in Zukunft auf bestimmte Bereiche hin eingeschränkt bleiben, weil ich bezweifle, dass wir die "Emotionale Intelligenz" per Definition jemals künstlich darstellen werden können, ohne dadurch gleichzeitig ihre Authentizität in Frage zu stellen.

  • 26.06.25, 10:52

     

    Sven:

    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

    Ja, doch: Ein bisschen Ahnung schadet nicht.

  • 26.06.25, 10:23
    70b2fbdfd1cb07b3.jpg

    Muss man dazu noch großartig was sagen?

  • 26.06.25, 09:40 - Zuletzt bearbeitet 26.06.25, 09:45.

     

    Stefan:

    Das setzt natürlich auch voraus, dass man mögliche Fallstricke kennt und dementsprechend seine Fragen formuliert und anpasst.

    Man muss einfach eine Ahnung haben von dem Gebiet.

     

    Ich frage oft ChatGPT zu eher fachlich-mathematischen Dingen, rein aus Spaß. Die Fehler sind oft himmelschreiend!

    - Verwechslung kW und kWh (Technik-Klassiker!)

    - Oft um Größenordnungen daneben, oft bei Alltagsvergleichen.

    Und so weiter und so fort. Bei normaler Anfrage arbeitet es anscheinend als Sprachmodell ohne jeden Plaubsibilitätscheck. Bei Nachfrage (rechne!) rechnet es tatsächlich, aber ich bin mir nicht ganz sicher, ob das wirklich immer so ist. ChatGPT aber auch schon eigene Fehler gefunden und korrigiert. Einmal aber auch überhaupt nicht, nach mehrmaliger Aufforderung nicht. ChatGPT hat mir erklärt, warum es den Fehler nicht gefunden hat. Ganz habe ich die Erklärung nicht verstanden.

     

    Manchmal stelle ich auch absichtlich falsche Behauptungen auf - das Programm antwortet oft mit "NEIN!"

     

    Also so ist es nicht, dass es immer das Ergebnis liefert, das man möchte. Oder eine Bestätigung der eigenen Meinung.

     

     

  • 26.06.25, 00:41 - Zuletzt bearbeitet 26.06.25, 00:43.

     

    Oskar100:

    Für mich ist die KI die größte Fehlentwicklung in die EDV. Es wird suggeriert das die KI logisch denken kann. Das ist total falsch.Die KI kann nur grosse Datenmenge automatisch durchsuchen. Was sie suchen muss gibt der Programmierer vor. Ich verwende die KI beim Texte schreiben und was mir die KI für Wörter vorschlägt ist zum aus der Haut zu fahren. Nicht einmal die Fehler beim Schreiben findet die KI. Für mich unmöglich. 

     

    Es gibt nicht "die KI" sondern verschiedene KI Modelle mit unterschiedlichem Entwicklungsstand und Anwendungsgebieten. Sie können nicht "denken", zumindest in dem Sinne, wie wir als Menschen das verstehen. Aber beließ dich mal zum Thema "Logik" in der Mathematik und Informatik...

     

    Und ohne es getestet zu haben bin ich mir trotzdem recht sicher, dass ein gängiges KI Modell deinen Post richtig gut überarbeiten und korrekt formulieren würde.

  • 25.06.25, 21:55

    Für mich ist die KI die größte Fehlentwicklung in die EDV. Es wird suggeriert das die KI logisch denken kann. Das ist total falsch.Die KI kann nur grosse Datenmenge automatisch durchsuchen. Was sie suchen muss gibt der Programmierer vor. Ich verwende die KI beim Texte schreiben und was mir die KI für Wörter vorschlägt ist zum aus der Haut zu fahren. Nicht einmal die Fehler beim Schreiben findet die KI. Für mich unmöglich. 

  • 25.06.25, 18:17

    Ich denke, die KI ist so schlau wie der Anwender oder der Anwender so schlau wie die KI. Füttert man diese nicht ausreichend, dann sind die Ergebnisse auch eher bescheiden. 


    Ich weiß gerade auch nicht von wem diese Redewendung ist, aber die passt irgendwie zu diesem Thema: „ Wer nicht mit der Zeit geht, geht.“ 

     

    Vielleicht ist es ein Zeichen unserer  Zivilisation, nicht mehr selbst zu denken, sondern es anderen zu überlassen. 

    Befinden wir uns vielleicht in der nächsten Evolutionsstufe, oder sind wir auf dem Weg, tief zu fallen? Keine Ahnung!


    Irgendwie klinge ich fast schon zu düster und negativ 😂, dabei bin ich eher optimistisch.  Egal wie es weitergeht, Fortschritt  lässt sich nicht aufhalten, die Richtung ist jedoch noch ungewiss.

  • 25.06.25, 18:16

    VOR DEM HAB ICH ETWAS ANGST - FAKE NEWS DURCH KI BIS ZUM KRIEG

    EINFACH WEIL SIE EINE FALSCHE REALITÄT DEN POLITISCHEN ENTSCHEIDUNGSTRÄGERN VORSPIELEN KÖNNEN

     

    Israel – Iran

    Krieg der KI-Bilder

    Der Alltag vieler Redaktionen wird gerade umgekrempelt. Sie begegnen bei der Berichterstattung über die Eskalation zwischen Israel und dem Iran einer Flut von mit Hilfe künstlicher Intelligenz (KI) erstellten Bildern. Verifikationsexperte Derek Bowler von der Europäischen Rundfunkunion (EBU) beschreibt gegenüber ORF defacto, wie Accounts mit Fakes Geld verdienen, während Userinnen und User in der KI-Flut untergehen.

    Online seit gestern, 18.15 Uhr

     

    Der Krieg zwischen Israel und dem Iran markiert nicht nur geopolitisch eine Zäsur, auch technologisch ist der Konflikt ein Wendepunkt. Bowler, Spezialist für Bildforensik und Leiter der Abteilung für Nachrichtenbeschaffung bei der EBU, kümmert sich darum, Bilder aus sozialen Netzwerken zu verifizieren.

    Er berichtet von einer „atemberaubenden Menge an hyperrealistischen Videos“, die ihm zum Nahost-Konflikt gerade begegnen und die sich „wie ein Waldbrand verbreiten“ würden. Da kursieren etwa KI-Videos von getroffenen Gebäuden, niedergebrannten Panzern und zerstörten Atomreaktoren. Alle sehen eindrucksvoll aus, alle sind aber rein am Computer erstellt. Das führt zu Problemen.

    KI-generiertes Material zum Konflikt zwischen Iran und Israel

    Identifikation selbst für Fachleute schwierig

    Kurz nach ersten Berichten über die Bombardierung des berüchtigten Regimegefängnisses Ewin in der iranischen Hauptstadt Teheran machte ein kurzes Schwarz-Weiß-Video die Runde. Darin ist in schlechter Qualität ein Eingang des Gefängnisses zu sehen, nach einem Treffer steigt dort dichter Rauch auf. Ob das Kurzvideo authentisch ist, konnte bisher nicht geklärt werden.

    Hany Farid, Professor für Informatik und Information an der UC Berkeley in Kalifornien und Mitgründer der KI-Detektionsfirma GetReal, fürchtet angesichts eines Trends gefälschter Inhalte bei wichtigen Weltereignissen ein „wackliges Verständnis der Geschehnisse“ und äußerte online Zweifel an der Echtheit des Clips.

    Das kursierende Video könnte basierend auf einem Foto KI-generiert sein. Es ähnelt in Ausschnitt und Details frappierend einem älteren Bild, das Grundlage für die Erstellung gewesen sein könnte. Aber: Ganz sicher ist er sich nicht. Das kurze Gefängnisvideo zeigt den Stand der Technik. Wenn selbst KI-Experten wie jene von GetReal nach längerer Analyse Schwierigkeiten bei der Einordnung haben, stehen alle vor einer Herausforderung. „Es wird für die Menschen sehr, sehr schwierig, damit umzugehen“, sagt Bowler.

    „Goldenes Fenster“ schließt sich immer schneller

    Sein Verifikationsteam habe bisher die ersten Momente nach einem Ereignis genutzt, um das Internet nach Material von Userinnen und Usern zu durchsuchen. In den ersten Minuten sei bisher das Informationsumfeld noch relativ sauber und man könne ein „goldenes Fenster“ nutzen, um authentisches Material aufzuspüren.

    Das ändere sich gerade mit der Geschwindigkeit, mit der KI-Videos erstellt werden können: „Jetzt sehen schon wir in den ersten zehn Minuten mehr als tausend Beiträge, die eine Mischung aus echten, falsch dargestellten und KI-generierten Inhalten sind. KI-generierte Inhalte dominieren diese Landschaft im Moment.“

    Geld und Geschwindigkeit

    Nicht nur die Geschwindigkeit und Zugänglichkeit von künstlicher Intelligenz ist dafür verantwortlich, auch die aufgeheizte Stimmung trägt dazu bei. Manche Accounts nutzen das. „Wir sehen jetzt sogenannte Narrativ-Accounts, wo ein Account zwei-, dreihundert Videos veröffentlicht. Es startet mit einem harmlosen Inhalt und dann sehen wir weitaus gezieltere und krassere Inhalte“, so Bowler.

    ORF defacto

    ORF defacto verifiziert Bilder und Videos für die Nachrichtenredaktionen des ORF und berichtet über Desinformationsthemen. ORF defacto ist Teil des Faktenchecknetzwerks Spotlight der EBU, dem auch Derek Bowler angehört.

    Diese Inhalte bedienen aber nicht nur Gefühle in einem emotional aufgeladenen Konflikt, sie lassen die Kassen der Ersteller klingeln. Manche der KI-generierten Bilder und Videos werden millionenfach aufgerufen, damit lässt sich etwa auf TikTok gutes Geld machen. Gleichzeitig stillen sie ein mediales Bedürfnis nach Nachrichten aus einem Land, zu dem viele westliche Medien nur schwer Zugang haben.

    Das Phänomen sieht Bowler aber nicht auf den Nahost-Konflikt beschränkt. „Wir stehen erst ganz am Anfang.“ Er kritisiert mangelnde Kontrollmechanismen der Plattformen, was in der Zukunft zu noch mehr irreführenden KI-Inhalten führen könnte: „Wenn wir zu diesem Stadium kommen, wird es für uns alle zu einem noch größeren Problem werden.“

    KI-Bilder erkennen

    Wer selbst herausfinden möchte, ob ein Bild mit Hilfe von KI erzeugt wurde, kann sich mit drei Schritten behelfen. Erstens: Rückwärtssuche anwenden. Wer das Bild bereits mit welcher Beschreibung verwendet hat, kann aufschlussreich sein. So erkennt man etwa echte Bilder, die von vorangegangenen Konflikten stammen oder KI-Material, das ursprünglich als solches gekennzeichnet war.

    Zweitens kann der Kontext unter die Lupe genommen werden: Details wie unnatürliche Reaktionen von Umstehenden, logische Fehler im Video oder Unterschiede zu anderem, bereits verifiziertem Material können weiterhelfen.

    Dritter Punkt ist das Aufspüren von KI-Resten. Viele KI-Generatoren versehen ihr Material mit Wasserzeichen, die aber manchmal versehentlich weggeschnitten oder absichtlich überdeckt werden. Eine typische Länge KI-generierter Clips, wie etwa acht Sekunden bei Material von Googles Veo 3, kann ebenfalls Grund zur Skepsis bieten.

    Eva Wackenreuther, ORF defacto

     

     

  • 25.06.25, 18:04

    Bsp. Es gibt auch KI im beruflichen Kontext. Nehmen wir an Du baust 10 Jahre ein Produkt immer mit dem selben Bauteil. Nach 10 Jahren ändert man dieses Bauteil, weil es weniger Fehleranfällig ist. Die ganze Zeit gibt es eine Dokumentation, die dem Kunden übergeben wird. 

    Jetzt fragt ein Ingenieur "Welches Bauteil x muss ich für das Produkt verwenden" und die KI wird das Bauteil nehmen was es am häufigsten findet, nämlich das alte. 
     

    Eine KI ist eine Mischung aus Daten und Wahrscheinlichkeitsrechnung bzw. Algorithmen. Komplexe Mathematik. 

     

    Die Aussage ist grundsätzlich zwar richtig, man darf aber nicht vergessen, dass insbesondere die stupide Berechnung von Wahrscheinlichkeiten hauptsächlich bei den anfänglichen LLMs vorzufinden ist. Die neueren Modelle sind definitiv besser.

     

    Umso wichtiger ist immer eine genaue Formulierung des Prompts: "welches Bauteil für Produkt x benutzen wir im Jahr 2025" oder so Ähnlich. Ich merke selbst täglich bei meiner Arbeit, wie wichtig es ist, "gezielt" die Informationen zu erfragen und das KI Modell in die richtige Richtung zu leiten. 

    Das setzt natürlich auch voraus, dass man mögliche Fallstricke kennt und dementsprechend seine Fragen formuliert und anpasst.

     

    Und genau das ist der Punkt, bei dem es aktuell bei vielen Menschen noch hapert. Man muss lernen diese KIs richtig zu nutzen um einen relvanten Nutzen für sich zu erzielen. Auch das erfordert ein gewisses Denkvermögen. Die Art und Weise wie wir Informationen aufnehmen, wie wir selbst lernen, Wissen verarbeiten und anwenden, ändert sich gerade ganz entscheidend. Das wird uns aber viele neue Möglichkeiten schaffen.

     

  • 25.06.25, 16:27

    Was für einige tödlich enden kann.......

    In dem Artikel steht ...

    Sewell Setzer litt schon länger an psychischen Problemen. Die Rede ist von Angstzuständen und Depressionen. 

    ... und nicht die KI ist schuld an dem Tod des Jungen, sondern diese psychischen Probleme. 

     

    Dies ist ein sehr gutes Beispiel, wie selbst Menschen kurz vor der Rente Dinge nicht hinterfragen können. 

     

    ChatGPT arbeitet anhand von Anfragen und je besser und präziser man sich ausdrücklich kann desto besser ist das Ergebnis.

    (Endlich mal ein Nachbar hier ;-) )
    Es spielt keine Rolle wie gut du formulierst, denn wenn die Quelle in einem falschen Kontext eine Antwort liefert, wird die Antwort auch falsch sein. 

     

    Bsp. Es gibt auch KI im beruflichen Kontext. Nehmen wir an Du baust 10 Jahre ein Produkt immer mit dem selben Bauteil. Nach 10 Jahren ändert man dieses Bauteil, weil es weniger Fehleranfällig ist. Die ganze Zeit gibt es eine Dokumentation, die dem Kunden übergeben wird. 

    Jetzt fragt ein Ingenieur "Welches Bauteil x muss ich für das Produkt verwenden" und die KI wird das Bauteil nehmen was es am häufigsten findet, nämlich das alte. 
     

    Eine KI ist eine Mischung aus Daten und Wahrscheinlichkeitsrechnung bzw. Algorithmen. Komplexe Mathematik. 
     

    die gibt einem die Antwort, die man hören will. Man will ja schließlich die Nutzer in der App halten.  

    Keine logische Schlussfolgerung! Eine KI ist vor allem eines... verdammt teuer. 

    Im beruflichen Kontext sieht es anders aus, dort kostet den Nutzer dies sehr viel... 

     

    Zur KI: Die KIs sind so geschrieben, dass sie das ausgeben, was der Frager gerne haben möchte.

    Wer sagt dies? Leider führt der Link zu einer Diskussion über Feministinen und auch nicht den von Erv angesprochen Beitrag von Fridolin. 
     

    Das ist nicht korrekt! Vor allem gibt es nicht "die KI". Ihr kennt vor allem nur die KI, die ihr was fragen könnt. 

    Bsp.: Es gibt eine KI, die mit Daten von Millionen von Partien von diesem asiatischen Spiel (weiße und schwarze Steine) gefüttert wurde. Er spielt jetzt gegen ein Großmeister... und "denkt nicht nach", sondern schaut in Millionen von Daten nach diesem selben Zug, wo am Ende der Gegner gewann und führt die selbe Technik aus. 

     

    Das ist das Problem der Uni, die den Studierenden die Aufgabe stellt, eine Seminararbeit über einen Roman abzugeben.

    Das Problem ist nicht die Aufgabenstellung, sondern das die KI den Roman als Quelle hat. 
    Würde die KI diesen Roman nicht kennen, könnte es die Aufgabe nicht lösen. 

    Was die KI auch nicht kann... schlussfolgerungen oder interpretieren aus dem Inhalt. 
    Man erinnere sich nur an "Die Schachnovelle" oder andere Weltliteratur. Erst wenn irgendjemand eine Abhandlung über dieses Buch geschrieben hat, kann die KI daraus eine Antwort formulieren. 

    Ich gebe immer gerne das Beispiel mit CIA ... die Menschen, die dort arbeiten sind nicht intilligenter, sondern sie haben auf mehr Daten Zugriff. 

    Ich halte es aber für falsch, wenn hier mit gefährlichem Halbwissen um sich geworfen wird, denn die wenigsten von Euch werden ein Studiumabschluss in IT haben... und damit basieren die meisten Antworten hier auf gefährliches Halbwissen und Ängsten. 

  • 25.06.25, 13:54 - Zuletzt bearbeitet 25.06.25, 13:54.

    Ein Problem das ich mit allen LLM sehe, die ich bis jetzt getestet habe - sie geben einem immer Recht. Z.B: Bitte erstelle mir diese Tabelle - gerne hier bitte. Ich glaub, der Wert ist falsch - ah ja, vielen Dank, ich habe den Wert korrigiert.

     

    Gemeint hatte ich aber einen anderen Wert, und die KI hat einen richtigen Eintrag korrigiert. Wie ein übereifriger Praktikant, der alles macht, um hilfreich zu scheinen, sich aber noch nicht so gut auskennt.

     

    Das macht KI-Ergebnisse extrem gefährlich. Man kann sich eigentlich auf kaum etwas verlassen, selbst, wenn der Großteil der Ergebnisse richtig ist.

     

    Und das liegt nicht an der KI. Das liegt an den Programmiererinnen und Programierern, die sie schreiben. Es muss einfach immer ein Ergebnis her, auch wenn es eigentlich zu unsicher ist.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.