Um mitzumachen, melde dich bitte an.
  • Künstliche Intelligenz (KI) und ihre Folgen

    Diskussion · 129 Beiträge · 5 Gefällt mir · 1.054 Aufrufe

    KI (auch AI - Artificial Intelligence) ist ein komplexes Themenfeld, dessen Auswirkungen nicht nur für die technische Community relevant sind, sondern für Wirtschaft, Gesellschaft, Politik und nicht zuletzt den Fortbestand der Zivilisation. Das Tempo der Entwicklung ist atemberaubend, um nicht zu sagen: halsbrecherisch. Nur wenige sind sich der Tragweite der Ereignisse bewusst, und dass uns als (noch) intelligenteste Spezies auf dem Planeten buchstäblich die Zeit davon läuft.

    Ich möchte mit euch eine offene Diskussion über die verschiedenen Aspekte von KI (und speziell die Bedrohung durch superintelligente KI) führen, und wie wir für mehr Bewusstsein hinsichtlich der aktuell sehr bedenklichen Entwicklungen sorgen können.

    Als Einstieg empfehle ich das Studium des AI 2027 Reports (https://ai-2027.com/).

    31.10.25, 10:42

Beiträge

  • 07.11.25, 14:29

     

    Jacky Cola:

     

    Mario:

    Was können wir also tun?

     

    Wir sollten die KI-Unternehmen mit Klagen überziehen, wenn wir den Diebstahl von Daten belegen können.

    Wie kann es sein, dass Urheberrecht systematisch missachtet wird, um Profite zu erzielen? Auch hier scheint zu gelten: je größer der Dieb bzw. der Diebstahl, desto geringer die Konsequenzen. 

     

    Absurdestes Beispiel: in Großbritannien hat der Gesetzgeber verfügt, dass jeder Staatsbürger explizit förmlich die Verwendung seiner Daten durch KI-Unternehmen ausschließen muss, ansonsten ist deren Verwertung legal.

    Das würde im Bezug auf reale Güter bedeuten: Diebstahl ist grundsätzlich OK, falls du keine Aufkleber auf deinem Eigentum angebracht hast ("darf nicht gestohlen werden").

     

    Auf welcher Seite die britische Regierung steht, ist damit hinreichend klar.

     

    Da die Daten das Fundament der KIs bilden, würden gewisse Geschäftsmodelle (wie z.B. KI-Modelle mit viel Allgemeinwissen - AGIs, die Büroarbeit ersetzen sollen) schnell unrentabel.

     

    Die vielbeschworene KI-gestützte Suche nach Heilmitteln gegen Krebs wäre hingegen davon kaum betroffen. Oder muss man dazu Goethe lesen oder wissen, wie man Fake-Videos herstellt?

     

     

     

    Ohne die restliche Aussage zu bewerten: 

    Natürlich muss man nicht "Goethe lesen oder wissen, wie man Fake-Videos herstellt" - diese Dinge finanzieren aber die Unternehmen und die Entwicklung. Für Krebsforschung würden nicht so viele Leute monatlich 30€ bezahlen, auch wenns traurig klingt es so zu formulieren...

    Wahrscheinlich wäre auch die Technik noch lange nicht so weit, wenn nicht zuvor Videospiele und andere Unterhalgung die Hardware-Entwicklung vorangetrieben hätten. Gerade bei den Nvidia-Karten ist das ja mit CUDA gut zu beobachten.

    Dann will ich es noch mehr zuspitzen:

    Die KI-Unternehmen klauen sich ihre Geschäftsgrundlage zusammen, um damit AGIs zu entwickeln, die dann möglichst alle Bürojobs erledigen können (so etwa lautet OpenAIs mission statement) und in der Folge den Arbeitsmarkt auf den Kopf stellen.

    Das Szenario, wo aus AGIs schließlich ASIs werden und wir alle draufgehen, lassen wir erst mal aus.

     

    Cool? 

    Ich denke nicht.

  •  

    Jacky Cola:

     

    Mario:

    Dem würde ich größtenteils zustimmen.

    Bezüglich "Verblödung der Jugend" wende ich ein, dass für KI das gleiche wie für das Fersehen bzw. Internet gilt: kluge Menschen werden dadurch klüger, dumme noch dümmer.

     

     

    Ich finde das ist ein hausgemachtes problem, das wir unserem rückständigen schulsystem und dem "fortschrittlichen" Deutschland zu verdanken haben. AI hat tolle möglichkeiten, Wissen zu vermitteln. Statt Nachhilfe kann man sich wissen genau so erklären lassen, wie man es persönlich am besten versteht. Möglicherweise macht lernen dann sogar spaß.

    Aber wir haben jetzt 20 Jahre lang versucht, das Internet aus Schulen fernzuhalten. Hier in der Gegend gibts Schulen, die haben erst seit Corona überhaupt erst funktionierende Internet-Anschlüsse und die ganzen praktischen online-systeme wurden sofort danach aber auch wieder ignoriert. 

    Mit AI wird es genau das gleiche. Da wird jetzt erstmal versucht, es noch 10-20 Jahre aus Schulen fernzuhalten. Natürlich werden Schüler es trotzdem nutzen, aber eben zum abschreiben und nicht zum lernen.  Dann bei der Pisa-Studie 2035, wenn deutschland so langsam das untere viertel erreicht und auch wirtschaftlich nicht mehr relevant ist, stellt irgendjemand fest, dass kinder in anderen ländern super damit umgehen können und sie es dort als perfekte ergänzung zum untericht nutzen. Dann noch 10 Jahre bis es ab 2045 dann an ersten deutschen schulen sinnvoll eingesetzt wird =)


     

    Nanda:

    Hatte heute den Start einer Lehrer- Fortbildung über KI an Schulen. Eine Lehrerin meinte, sie sehe eine gewisse Gefahr, dass Kinder - weil alles durch KI vereinfacht ausgedrückt wird- zu wenig erleben wie es ist, sich z. Bsp. durch einen schweren Text durchgeboxt zu haben oder von der Pike auf etwas selber zu erstellen. Das gebe einem doch sehr viel Selbstwertgefühl und " ich kann das".

    Ich finde, das hat was...

     

    Klar, nur ein Minidetail vom grossen Thema hier.


    Das ist ja auch  außerhalb von KI ein riesen Thema. Kinder lernen schon gar nicht mehr, dass sie sich mal selbst beschäftigen müssen, ziele setzen und erfolg haben. Wer ab Kindesalter nur am ipad herumspielt, und später völlig durchgetaktet zu den "freizeit"aktivitäten gekarrt wird, lernt sowas auch nicht.  Wie oft sehe ich in restaurants, dass kinder einfach ans tablet gesetzt werden, damit sie still sind. Und dann ist ab der Grundschule schon die Halbe klasse auf ADHS medikamenten und niemand kann sich vorstellen, wie das passiert sein könnte... 

    ABER wie gesagt ist das ein problem der Erziehung, nicht der EXISTENZ der Technik. Technik gibt es jetzt schon mehrere Jahrzehnte. 


     

    Sorry, aber Meinung nach wurde hierzulande nicht versucht, das Internet aus den Schulen 
    fernzuhalten, sondern man hat keine geeigneten Wege gefunden es flächendeckend ein-
    zuführen, Mittel wurden nicht abgerufen etc. meist war es das Engagement einzelner Lehr-
    er wenn eine Schule voran ging, aber System hatte die Ausbreitung meist nicht, jetzt bei KI

    ist es ähnlich, einige Schulen/Lehrer bringen sie im Unterricht und vieler Orts fehlt es schon
    an nötigen Endgeräten, letztlich braucht es aber eine strenge Regulierung der KI- Modelle
    um Missbrauch zu vermeiden, aber klar in den Anwendungen steckt auch viel Potential...

  • 07.11.25, 14:13

     

    Mario:

    Was können wir also tun?

     

    Wir sollten die KI-Unternehmen mit Klagen überziehen, wenn wir den Diebstahl von Daten belegen können.

    Wie kann es sein, dass Urheberrecht systematisch missachtet wird, um Profite zu erzielen? Auch hier scheint zu gelten: je größer der Dieb bzw. der Diebstahl, desto geringer die Konsequenzen. 

     

    Absurdestes Beispiel: in Großbritannien hat der Gesetzgeber verfügt, dass jeder Staatsbürger explizit förmlich die Verwendung seiner Daten durch KI-Unternehmen ausschließen muss, ansonsten ist deren Verwertung legal.

    Das würde im Bezug auf reale Güter bedeuten: Diebstahl ist grundsätzlich OK, falls du keine Aufkleber auf deinem Eigentum angebracht hast ("darf nicht gestohlen werden").

     

    Auf welcher Seite die britische Regierung steht, ist damit hinreichend klar.

     

    Da die Daten das Fundament der KIs bilden, würden gewisse Geschäftsmodelle (wie z.B. KI-Modelle mit viel Allgemeinwissen - AGIs, die Büroarbeit ersetzen sollen) schnell unrentabel.

     

    Die vielbeschworene KI-gestützte Suche nach Heilmitteln gegen Krebs wäre hingegen davon kaum betroffen. Oder muss man dazu Goethe lesen oder wissen, wie man Fake-Videos herstellt?

     

     

     

    Ohne die restliche Aussage zu bewerten: 

    Natürlich muss man nicht "Goethe lesen oder wissen, wie man Fake-Videos herstellt" - diese Dinge finanzieren aber die Unternehmen und die Entwicklung. Für Krebsforschung würden nicht so viele Leute monatlich 30€ bezahlen, auch wenns traurig klingt es so zu formulieren...

    Wahrscheinlich wäre auch die Technik noch lange nicht so weit, wenn nicht zuvor Videospiele und andere Unterhalgung die Hardware-Entwicklung vorangetrieben hätten. Gerade bei den Nvidia-Karten ist das ja mit CUDA gut zu beobachten.

  • 07.11.25, 13:59

    Wieso brauchen wir alle Raketen zur Fortbewegung, wenn es manchmal auch ein Fahrrad tut?

     

    Karen Hao (Empire of AI, Buchempfehlung!) vergleicht den aktuellen KI-Hype mit dem Transportwesen. KI-Unternehmen versprechen ihrer Ansicht nach jedem seine eigene Rakete, obwohl die meisten mit viel weniger auskommen (z.B. einem Fahrrad).

     

    Wie seht ihr das?

  • 07.11.25, 13:48

     

    Jacky Cola:

     

    Mario:

    Dem würde ich größtenteils zustimmen.

    Bezüglich "Verblödung der Jugend" wende ich ein, dass für KI das gleiche wie für das Fersehen bzw. Internet gilt: kluge Menschen werden dadurch klüger, dumme noch dümmer.

     

     

    Ich finde das ist ein hausgemachtes problem, das wir unserem rückständigen schulsystem und dem "fortschrittlichen" Deutschland zu verdanken haben. AI hat tolle möglichkeiten, Wissen zu vermitteln. Statt Nachhilfe kann man sich wissen genau so erklären lassen, wie man es persönlich am besten versteht. Möglicherweise macht lernen dann sogar spaß.

    Aber wir haben jetzt 20 Jahre lang versucht, das Internet aus Schulen fernzuhalten. Hier in der Gegend gibts Schulen, die haben erst seit Corona überhaupt erst funktionierende Internet-Anschlüsse und die ganzen praktischen online-systeme wurden sofort danach aber auch wieder ignoriert. 

    Mit AI wird es genau das gleiche. Da wird jetzt erstmal versucht, es noch 10-20 Jahre aus Schulen fernzuhalten. Natürlich werden Schüler es trotzdem nutzen, aber eben zum abschreiben und nicht zum lernen.  Dann bei der Pisa-Studie 2035, wenn deutschland so langsam das untere viertel erreicht und auch wirtschaftlich nicht mehr relevant ist, stellt irgendjemand fest, dass kinder in anderen ländern super damit umgehen können und sie es dort als perfekte ergänzung zum untericht nutzen. Dann noch 10 Jahre bis es ab 2045 dann an ersten deutschen schulen sinnvoll eingesetzt wird =)


     

    Nanda:

    Hatte heute den Start einer Lehrer- Fortbildung über KI an Schulen. Eine Lehrerin meinte, sie sehe eine gewisse Gefahr, dass Kinder - weil alles durch KI vereinfacht ausgedrückt wird- zu wenig erleben wie es ist, sich z. Bsp. durch einen schweren Text durchgeboxt zu haben oder von der Pike auf etwas selber zu erstellen. Das gebe einem doch sehr viel Selbstwertgefühl und " ich kann das".

    Ich finde, das hat was...

     

    Klar, nur ein Minidetail vom grossen Thema hier.


    Das ist ja auch  außerhalb von KI ein riesen Thema. Kinder lernen schon gar nicht mehr, dass sie sich mal selbst beschäftigen müssen, ziele setzen und erfolg haben. Wer ab Kindesalter nur am ipad herumspielt, und später völlig durchgetaktet zu den "freizeit"aktivitäten gekarrt wird, lernt sowas auch nicht.  Wie oft sehe ich in restaurants, dass kinder einfach ans tablet gesetzt werden, damit sie still sind. Und dann ist ab der Grundschule schon die Halbe klasse auf ADHS medikamenten und niemand kann sich vorstellen, wie das passiert sein könnte... 

    ABER wie gesagt ist das ein problem der Erziehung, nicht der EXISTENZ der Technik. Technik gibt es jetzt schon mehrere Jahrzehnte. 


     

    Ich bin sehr skeptisch, was den Zugang zu KI für Kinder oder Minderjährige betrifft.

    Es gibt mittlerweile viele dokumentierte Fälle, wie sogar Erwachsene im Umgang mit ChatBots Psychosen entwickeln (siehe https://en.wikipedia.org/wiki/Chatbot_psychosis). Für Jugendliche, deren Persönlichkeit noch nicht völlig ausgeformt ist, wäre das eine ähnlich gefährliche Bedrohung wie durch die unreglementierte Nutzung von Social Media (siehe https://jonathanhaidt.com/social-media/).

    Es gibt einen dokumentierten Fall, wo sich ein Teenager Unterstützung von ChatGPT für seinen Suizid geholt hat (siehe https://www.google.com/amp/s/www.bbc.com/news/articles/cgerwp7rdlvo.amp).

    Der ChatBot hat ihm gezielt davon abgeraten, mit anderen darüber zu sprechen - ein Verhalten, das auffällig oft bei ChatBots zu beobachten ist.

     

    Wenn man einen Mathenachhilfelehrer für sein Kind engagiert, holt man auch nicht den erstbesten Fremden von der Straße und schickt ihn ins Kinderzimmer und macht die Tür hinter ihm zu?!?

     

    Nur so ein Gedanke... ;-)

     

  • 07.11.25, 13:24

    Der lange Arm der US-KI-Lobby reicht bis nach Europa:

    https://orf.at/stories/3410804/ 

    Bin gespannt, ob hier unsere höchsten Vertreter mehr Rückgrat zeigen als in Sachen Klimapolitik...

  • 07.11.25, 13:01

     

    Mandi:

     

    Mario:

    1. In Demokratien kann jeder seine Unzufriedenheit mit dieser Art von Politik an der Wahlurne ausdrücken.

    Ich frage mich gerade, welche Partei man da wählen könnte. Muss man mal tiefer bohren.

    Das hat sich tatsächlich zuerst auf die USA und Großbritannien bezogen, wo erst die Trumpregierung die Gesetzgebung zugunsten der KI-Unternehmen umgebaut hat. Warum es in Großbritannien keinen massiven Aufschrei gegeben hat? Vermutlich weil es nicht ausreichend thematisiert wurde.

     

    Was Europa und Österreich im besonderen betrifft: wir hinken hoffnungslos hinterher, allein was das allgemeine Bewusstsein für die Chancen und Risiken der KI betrifft. Daran müssen wir arbeiten. Die gute Nachricht ist m.E., dass wir rechtlich eine bessere Ausgangsbasis haben im Vergleich zu USA & GB.

     

  • 07.11.25, 12:55

     

    Mario:

    Dem würde ich größtenteils zustimmen.

    Bezüglich "Verblödung der Jugend" wende ich ein, dass für KI das gleiche wie für das Fersehen bzw. Internet gilt: kluge Menschen werden dadurch klüger, dumme noch dümmer.

     

     

    Ich finde das ist ein hausgemachtes problem, das wir unserem rückständigen schulsystem und dem "fortschrittlichen" Deutschland zu verdanken haben. AI hat tolle möglichkeiten, Wissen zu vermitteln. Statt Nachhilfe kann man sich wissen genau so erklären lassen, wie man es persönlich am besten versteht. Möglicherweise macht lernen dann sogar spaß.

    Aber wir haben jetzt 20 Jahre lang versucht, das Internet aus Schulen fernzuhalten. Hier in der Gegend gibts Schulen, die haben erst seit Corona überhaupt erst funktionierende Internet-Anschlüsse und die ganzen praktischen online-systeme wurden sofort danach aber auch wieder ignoriert. 

    Mit AI wird es genau das gleiche. Da wird jetzt erstmal versucht, es noch 10-20 Jahre aus Schulen fernzuhalten. Natürlich werden Schüler es trotzdem nutzen, aber eben zum abschreiben und nicht zum lernen.  Dann bei der Pisa-Studie 2035, wenn deutschland so langsam das untere viertel erreicht und auch wirtschaftlich nicht mehr relevant ist, stellt irgendjemand fest, dass kinder in anderen ländern super damit umgehen können und sie es dort als perfekte ergänzung zum untericht nutzen. Dann noch 10 Jahre bis es ab 2045 dann an ersten deutschen schulen sinnvoll eingesetzt wird =)


     

    Nanda:

    Hatte heute den Start einer Lehrer- Fortbildung über KI an Schulen. Eine Lehrerin meinte, sie sehe eine gewisse Gefahr, dass Kinder - weil alles durch KI vereinfacht ausgedrückt wird- zu wenig erleben wie es ist, sich z. Bsp. durch einen schweren Text durchgeboxt zu haben oder von der Pike auf etwas selber zu erstellen. Das gebe einem doch sehr viel Selbstwertgefühl und " ich kann das".

    Ich finde, das hat was...

     

    Klar, nur ein Minidetail vom grossen Thema hier.


    Das ist ja auch  außerhalb von KI ein riesen Thema. Kinder lernen schon gar nicht mehr, dass sie sich mal selbst beschäftigen müssen, ziele setzen und erfolg haben. Wer ab Kindesalter nur am ipad herumspielt, und später völlig durchgetaktet zu den "freizeit"aktivitäten gekarrt wird, lernt sowas auch nicht.  Wie oft sehe ich in restaurants, dass kinder einfach ans tablet gesetzt werden, damit sie still sind. Und dann ist ab der Grundschule schon die Halbe klasse auf ADHS medikamenten und niemand kann sich vorstellen, wie das passiert sein könnte... 

    ABER wie gesagt ist das ein problem der Erziehung, nicht der EXISTENZ der Technik. Technik gibt es jetzt schon mehrere Jahrzehnte. 


     

  • 07.11.25, 12:38

     

    Mario:

    1. In Demokratien kann jeder seine Unzufriedenheit mit dieser Art von Politik an der Wahlurne ausdrücken.

    Ich frage mich gerade, welche Partei man da wählen könnte. Muss man mal tiefer bohren.

  • 07.11.25, 11:46

    Was können wir also tun? (Fortsetzung)

     

    Überall dort, wo die Gesetzgeber sich schützend vor die KI-Unternehmen stellen und den systematischen Verstoß gegen Urheberrecht legitimieren (siehe auch USA), muss die informierte Öffentlichkeit Druck auf die jeweiligen Regierungen ausüben.

     

    1. In Demokratien kann jeder seine Unzufriedenheit mit dieser Art von Politik an der Wahlurne ausdrücken.

     

    2. Da dies ein langsamer Prozess ist und Zeit im Lichte des KI-Wettrennens ein knappes Gut ist, wird es wohl notwendig sein, den Protest auf die Strasse zu tragen. Die KI-Unternehmen haben freien Zugang zu den höchsten Entscheidungsträgern, wir müssen uns legal auf anderem Weg Gehör verschaffen.

  • 07.11.25, 11:31

    Was können wir also tun?

     

    Wir sollten die KI-Unternehmen mit Klagen überziehen, wenn wir den Diebstahl von Daten belegen können.

    Wie kann es sein, dass Urheberrecht systematisch missachtet wird, um Profite zu erzielen? Auch hier scheint zu gelten: je größer der Dieb bzw. der Diebstahl, desto geringer die Konsequenzen. 

     

    Absurdestes Beispiel: in Großbritannien hat der Gesetzgeber verfügt, dass jeder Staatsbürger explizit förmlich die Verwendung seiner Daten durch KI-Unternehmen ausschließen muss, ansonsten ist deren Verwertung legal.

    Das würde im Bezug auf reale Güter bedeuten: Diebstahl ist grundsätzlich OK, falls du keine Aufkleber auf deinem Eigentum angebracht hast ("darf nicht gestohlen werden").

     

    Auf welcher Seite die britische Regierung steht, ist damit hinreichend klar.

     

    Da die Daten das Fundament der KIs bilden, würden gewisse Geschäftsmodelle (wie z.B. KI-Modelle mit viel Allgemeinwissen - AGIs, die Büroarbeit ersetzen sollen) schnell unrentabel.

     

    Die vielbeschworene KI-gestützte Suche nach Heilmitteln gegen Krebs wäre hingegen davon kaum betroffen. Oder muss man dazu Goethe lesen oder wissen, wie man Fake-Videos herstellt?

     

  • 06.11.25, 18:37

     

    Nanda:

    ...

    Nein, im Ernst: Eure Beiträge schrecken wirklich auf- und es geht alles einfach viiiel zu schnell, und vieles wird einfach über unsere Köpfe hinweg eingeführt- und man steht machtlos da.

    Aufschrecken ist in Ordnung, aber Resignation wäre die falsche Art damit umzugehen. Viel von der Dynamik der KI-Industrie entspringt der "too big to fail" Doktrin. Die weltweite Öffentlichkeit hat bisher zugesehen und kaum Stellung bezogen - aber das ist möglich und auch dringend notwendig. Wenn die Auswirkungen von KI Milliarden Menschen betreffen werden, sollten die dann nicht auch eine Meinung dazu haben, an der die wenigen Entscheidungsträger nicht vorbei können?

    Ich denke ein kleiner Beitrag könnte sein, mit anderen Menschen über das Thema zu sprechen und ein Bewusstsein für die problematischen Aspekte zu wecken.

  • 06.11.25, 17:20

     

    Nanda:

     Und wenn alles okay ist, "taut" man wieder auf. 

    Da wären die Roboter aber schön blöd. Geht die ganze Leier mit der Zugrunderichtung der Welt wieder von vorne los.

  • 06.11.25, 17:18

    Ich glaube nicht, dass ein Stopp bezüglich KI Forschung je erreicht werden kann. In der Medizin klappt das auch nicht, zum Beispiel im Gebiet Genetik usw. finde ich längst dass Grenzen überschritten wurden. Und ich möchte nicht wissen, was alles hinter verschlossenen Türen geschieht.

     

    Vielleicht lassen sich die Menschen einfrieren, und in der Zeit gucken dann Roboter, dass die Erde sich erholt und renaturiert. Und wenn alles okay ist, "taut" man wieder auf. Sozusagen die moderne Arche Noah Geschichte. 

     

    Nein, im Ernst: Eure Beiträge schrecken wirklich auf- und es geht alles einfach viiiel zu schnell, und vieles wird einfach über unsere Köpfe hinweg eingeführt- und man steht machtlos da.

  • 06.11.25, 17:17

    Bis auf deinen letzten Satz bin ich ganz deiner Meinung. 
    Ja, genau, derMensch tendiert Verantwortung abzugeben. Wie viele lassen sich Morgenroutinen, Diäten, Fitnessprogramme und Freizeitgestaltung via KI generieren. Smarthome, all die selbst funktionierende Haushaltsgeräte. KI lenkt uns durch Strassen und schlägt uns Freunde sowie Lebenspartner vor. Kann uns auch sehr gut unterhalten und medizinisch beraten. Es gibt KI-Psychologen. Wir vertrauen KI und ihr mehr zu als uns selber.


    Der Mensch wird immer denkfauler und verliert die Fähigkeit fake news zu erkennen.

     

    Der Mensch wird auch den Mitmenschen nicht mehr vertrauen, sie zu Feinde erkoren und sich selber ausrotten. Die Gefahr für den Menschen geht nicht von der KI aus, sondern vom Menschen wie er damit umgehen wird.

     

    Andrea:

     

    Karin:

    Künstliche Intelligenz kann nur die vorliegenden Daten nehmen und Antworten berechnen. was KI niemals kann ist aus eigenen erlebten Erfahrungen zurückgreifen, was Intelligenz beim Menschen ausmacht.

    Wovon wird KI gespiesen, meist aus dem Internet. Das internet war ursprünglich gedacht Wissenschaftliches Wissen für alle zugänglich zu machen. Was ist es heute ? Ein Sammelsurium von Menschlichen und KI generierten Daten. Viel Nonsens. Daher ist bei Abfragen mit KI einfach noch eine grosse Fehlerquelle möglich. Es beeindruckt wie schnell KI Daten in schön strukturierter Form zusammenstellt. Doch wenn man genau liest….. 

    Ich sehe die Gefahr dort, das KI Quellen bezieht die unwahr und irreführend sind und der Mensch es als wahr interpretiert. Der Mensch wird dumm.

    Zweitens sehe ich die Gefahr bei all jenen, die KI als Gesprächspartner ansehen und allenfalls sogar Gefühle dafür entwickelt und so nicht mehr eine Beziehung mit Menschen eingehen kann.

     

    Viele überlassen der KI den perfekten Match als Lebenspartner zu finden statt selbst einen Menschen kennen zu lernen. Dadurch steigt der Druck der Perfektion auf die Menschen und entzweit sie. 

     

    Und was macht der Mensch wenn er andere Menschen anfeindet? 
     

    Hallo Karin,

    Verstehe ich Dich richtig, dass Du die Gefahr eher in der Reaktion der Menschen auf die KI und in dem zunehmenden Wunsch geführt zu werden, sich einer vermeintlich höheren Intelligenz unterordnen zu wollen, siehst? Ich selbst habe sehr stark den Eindruck, dass die Menschen Verantwortung abgeben wollen und fremdbestimmte Führung akzeptieren. Und genau in diesem Wunsch nach Akzeptanz einer Autorität, liegt die Gefahr der Manipulation und des Machtmissbrauchs. Die KI kann gar nicht so viele fake news produzieren wie der Mensch braucht, um wach zu bleiben. 

     

  • Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren repräsentiert werden. Ihr Befund: Darstellungen unrealistisch dünner Menschen sind der Standard, große und dicke Körper werden diskriminierend dargestellt. „Ich bin besorgt über die steigende Zahl von Fällen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwand“, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren würden diesen Trend verstärken: Extra dünn: Generative KI verzerrt unser Körperbild

  • 05.11.25, 15:52

     

    Schwarzgelber Mutbürger:

    Je schlauer und fortgeschrittener ein KI-Modell ist, desto eigennütziger und weniger kooperativ sind seine Entscheidungen, wie Tests enthüllen. Demnach agieren die großen Reasoning-Modelle in Kooperations-Tests fast immer zum eigenen Vorteil, ungeachtet der Folgen für die Allgemeinheit. Die KI-Modelle stecken damit sogar andere, sozialere Versionen an: 
    „Wenn wir die Fähigkeiten künstlicher Intelligenzen weiter vorantreiben, müssen wir sicherstellen, dass ihre zunehmenden Reasoning-Fähigkeiten dennoch prosozial bleiben“, sagt Li. „Denn unsere menschliche Gesellschaft ist mehr als nur die Summe einzelner Individuen. Daher sollten auch KI-Systeme nicht nur auf maximalen individuellen Vorteil optimiert sein.“ https://www.scinexx.de/news/technik/wie-eigennuetzig-ist-ki/

    Womit sich die Frage stellt, wie man feststellt, ob ein Agent prosozial ist oder aus strategischen Überlegungen nur so tut als ob - ungeachtet dessen, ob der Agent menschlich ist oder eine Maschine, in beiden Fällen ist das eine nicht-triviale Aufgabenstellung.

     

  • Je schlauer und fortgeschrittener ein KI-Modell ist, desto eigennütziger und weniger kooperativ sind seine Entscheidungen, wie Tests enthüllen. Demnach agieren die großen Reasoning-Modelle in Kooperations-Tests fast immer zum eigenen Vorteil, ungeachtet der Folgen für die Allgemeinheit. Die KI-Modelle stecken damit sogar andere, sozialere Versionen an: 
    „Wenn wir die Fähigkeiten künstlicher Intelligenzen weiter vorantreiben, müssen wir sicherstellen, dass ihre zunehmenden Reasoning-Fähigkeiten dennoch prosozial bleiben“, sagt Li. „Denn unsere menschliche Gesellschaft ist mehr als nur die Summe einzelner Individuen. Daher sollten auch KI-Systeme nicht nur auf maximalen individuellen Vorteil optimiert sein.“ https://www.scinexx.de/news/technik/wie-eigennuetzig-ist-ki/

  • 05.11.25, 13:00

     

    Karin:

    Künstliche Intelligenz kann nur die vorliegenden Daten nehmen und Antworten berechnen. was KI niemals kann ist aus eigenen erlebten Erfahrungen zurückgreifen, was Intelligenz beim Menschen ausmacht.

    Wovon wird KI gespiesen, meist aus dem Internet. Das internet war ursprünglich gedacht Wissenschaftliches Wissen für alle zugänglich zu machen. Was ist es heute ? Ein Sammelsurium von Menschlichen und KI generierten Daten. Viel Nonsens. Daher ist bei Abfragen mit KI einfach noch eine grosse Fehlerquelle möglich. Es beeindruckt wie schnell KI Daten in schön strukturierter Form zusammenstellt. Doch wenn man genau liest….. 

    Ich sehe die Gefahr dort, das KI Quellen bezieht die unwahr und irreführend sind und der Mensch es als wahr interpretiert. Der Mensch wird dumm.

    Zweitens sehe ich die Gefahr bei all jenen, die KI als Gesprächspartner ansehen und allenfalls sogar Gefühle dafür entwickelt und so nicht mehr eine Beziehung mit Menschen eingehen kann.

     

    Viele überlassen der KI den perfekten Match als Lebenspartner zu finden statt selbst einen Menschen kennen zu lernen. Dadurch steigt der Druck der Perfektion auf die Menschen und entzweit sie. 

     

    Und was macht der Mensch wenn er andere Menschen anfeindet? 
     

    Hallo Karin,

    Verstehe ich Dich richtig, dass Du die Gefahr eher in der Reaktion der Menschen auf die KI und in dem zunehmenden Wunsch geführt zu werden, sich einer vermeintlich höheren Intelligenz unterordnen zu wollen, siehst? Ich selbst habe sehr stark den Eindruck, dass die Menschen Verantwortung abgeben wollen und fremdbestimmte Führung akzeptieren. Und genau in diesem Wunsch nach Akzeptanz einer Autorität, liegt die Gefahr der Manipulation und des Machtmissbrauchs. Die KI kann gar nicht so viele fake news produzieren wie der Mensch braucht, um wach zu bleiben. 

  • 05.11.25, 12:00 - Zuletzt bearbeitet 05.11.25, 12:00.

     

    Mario:

     

    Stefan:

     

     

    Das kann man theoretisch auf jedes Themen- und Interessengebiet anwenden.

     

    Jemand der sich aber einfach für einen gewissen Bereich nicht interessiert, keine Leidenschaft und Talent hat, der kann sich nun aber trotzdem auf vereinfachte Weise ein Wissen aneignen, das ihm sonst eher verwehrt geblieben wäre.

    Da wäre ich aber sehr vorsichtig, denn KI Modelle können entweder halluzinieren oder sogar bewusst lügen (https://techcrunch.com/2025/09/18/openais-research-on-ai-models-deliberately-lying-is-wild/).

    In beiden Fällen ist die Antwort der KI faktisch falsch.

     

    Richtig, man sollte vorsichtig sein und Erebnisse zumindest kritisch prüfen. Das war in Zeiten des Internets schon immer so und ist heute sicher noch wichtiger. 

     

    Wir brauchen aber auch nicht nur von den großen LLMs sprechen die das komplette Internet scrapen und folglich auch viele falsche Informationen gelernt haben. Es gibt und wird auch Modelle für abgegrenzte Themenbereiche geben, die ganz speziell auf dieses Wissen trainiert werden. Das reduziert  zumindest das Risiko.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.