Um mitzumachen, melde dich bitte an.
  • Künstliche Intelligenz (KI) und ihre Folgen

    Diskussion · 120 Beiträge · 5 Gefällt mir · 940 Aufrufe

    KI (auch AI - Artificial Intelligence) ist ein komplexes Themenfeld, dessen Auswirkungen nicht nur für die technische Community relevant sind, sondern für Wirtschaft, Gesellschaft, Politik und nicht zuletzt den Fortbestand der Zivilisation. Das Tempo der Entwicklung ist atemberaubend, um nicht zu sagen: halsbrecherisch. Nur wenige sind sich der Tragweite der Ereignisse bewusst, und dass uns als (noch) intelligenteste Spezies auf dem Planeten buchstäblich die Zeit davon läuft.

    Ich möchte mit euch eine offene Diskussion über die verschiedenen Aspekte von KI (und speziell die Bedrohung durch superintelligente KI) führen, und wie wir für mehr Bewusstsein hinsichtlich der aktuell sehr bedenklichen Entwicklungen sorgen können.

    Als Einstieg empfehle ich das Studium des AI 2027 Reports (https://ai-2027.com/).

    31.10.25, 10:42

Beiträge

  • 18.11.25, 19:06

     

    Jacky Cola:

     

    Ute:

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

     

    Die größte Gefahr im Netz ist natürlich Manipulation und dass Meinungen beeinflusst werden. Wer die Netzwerke kontrolliert, kontrolliert die Meinung. Das ist eine völlig reale Gefahr und KI ist das Werkzeug, mit dem man sie Kontrollieren kann!
    Größer wird die Gefahr dadurch, dass man es ja nicht mal richtig kontrollieren kann. Im Endstadium lässt sich ja für niemanden so leicht zwischen Mensch und Maschine unterscheiden. Echtes Problem!


    Man muss natürlich noch sehen, wie sehr sich das selbst reguliert. Irgendwann redet die KI nur noch mit sich selbst und wenn die Menschen das bemerken, sind sie auch raus. Menschen verbringen ja gottseidank immer noch viel Zeit außerhalb von sozialen Netzwerken und die meisten glauben auch nicht jeden Scheiß.

    Und, wie mit dem Internet generell, sehe ich da ein Problem, das sich durch die kommende Generation zum Teil selbst löst. Wer in einer Welt aufwächst, in der sowas bekannt und normal ist, der lässt sich davon auch nicht so leicht beeindrucken oder beeinflussen. 
    Daher war ja vor einigen Posts mein dringender Vorschlag, dass Medienkompetenz DRINGEND schon in die Grundschulen gehört und dann weiter durch bis zum Schluss.

    ------------------

     

    Bei der Sache mit dem virtuellen Psychologen kann man sehr geteilte Meinungen haben.  Es ist ohne Frage SUPER für Leute, die keine professionelle Hilfe in Anspruch nehmen können oder wollen. Man darf nur nie aus den Augen verlieren, dass es keine echten Menschen ersetzt und in vielen Fällen auch keinen echten Psychologen. Außerdem ist es noch nicht ausgereift und besonders nach längeren durchgehenden Verläufen steigt die Wahrscheinlichkeit für fehler. 

     

    -----------------

     

    Das mit dem Arbeitsmarkt ist 100% wahr. Noch ist es nicht so weit, aber es werden viele Jobs wegfallen. Das heißt nicht unbedingt, dass die KI den Job selbstständig übernimmt - aber man kann damit teils effizienter arbeiten und je nach umfeld fallen dann eben Jobs weg.

    Wie schnell und wie großflächig das passiert, steht allerdings noch in den Sternen. Industrie, Roboter, automatisierte Produktion und so weiter haben wir nun alles schon seit jahrzehnten und trotzdem arbeiten überall noch menschen. Auch die KI wird nicht von jetzt auf gleich ganze Berufe auslöschen. 

    Es ist aber eine reale Gefahr, auf die die Politik so langsam hinarbeiten muss. 


    -----------

    "Bubbles" sind ja nicht erst durch KI entstanden und ich glaube, die meisten wissen darüber bescheid. Da kann ich dir nur 100% zustimmen. 


    Ich würde aber nochmal die Jugend loben, die sind sich schon sehr bewusst, dass sie einen "algo" (algorythmus) haben, der ihnen ihren content vorschlägt und dass sie diesen durch den scheiß beeinflussen, den sie sich ansehen :)

     

     

    Du lieferst eine schöne Vorlage: "... steht in den Sternen" :)

     

    Seit Corona schaue ich immer mal Dr. Christoph Niederwiesers Podcast an. Er hat ursprünglich internationale WW-Wissenschaften studiert und folgt nun nur noch seiner Berufung, der Astrologie und Zukunftsforschung. Mir gefällt seine wissenschaftliche Herangehensweise und er ist treffsicher mit seinen Analysen und Prognosen, was das Weltgeschehen betrifft. Ich glaube so etwas nicht blind, behalte die Infos aber immer im Hinterkopf. Es wird bis 2045 dauern, bis die Menschheit gegen die Tech-Oligarchen aufbegehren wird. Um 2030 werden wir immer mehr mit humanoiden Robotern konfrontiert sein. Für den Arbeitsmarkt sagt er schon in den nächsten 2 Jahren gravierende Einbrüche voraus.

     

    Falls es dich interessiert:

    https://www.youtube.com/watch?v=eOeA_OQ0-F0

  • 18.11.25, 18:45 - Zuletzt bearbeitet 18.11.25, 18:46.

     

    Ute:

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

     

    Die größte Gefahr im Netz ist natürlich Manipulation und dass Meinungen beeinflusst werden. Wer die Netzwerke kontrolliert, kontrolliert die Meinung. Das ist eine völlig reale Gefahr und KI ist das Werkzeug, mit dem man sie Kontrollieren kann!
    Größer wird die Gefahr dadurch, dass man es ja nicht mal richtig kontrollieren kann. Im Endstadium lässt sich ja für niemanden so leicht zwischen Mensch und Maschine unterscheiden. Echtes Problem!


    Man muss natürlich noch sehen, wie sehr sich das selbst reguliert. Irgendwann redet die KI nur noch mit sich selbst und wenn die Menschen das bemerken, sind sie auch raus. Menschen verbringen ja gottseidank immer noch viel Zeit außerhalb von sozialen Netzwerken und die meisten glauben auch nicht jeden Scheiß.

    Und, wie mit dem Internet generell, sehe ich da ein Problem, das sich durch die kommende Generation zum Teil selbst löst. Wer in einer Welt aufwächst, in der sowas bekannt und normal ist, der lässt sich davon auch nicht so leicht beeindrucken oder beeinflussen. 
    Daher war ja vor einigen Posts mein dringender Vorschlag, dass Medienkompetenz DRINGEND schon in die Grundschulen gehört und dann weiter durch bis zum Schluss.

    ------------------

     

    Bei der Sache mit dem virtuellen Psychologen kann man sehr geteilte Meinungen haben.  Es ist ohne Frage SUPER für Leute, die keine professionelle Hilfe in Anspruch nehmen können oder wollen. Man darf nur nie aus den Augen verlieren, dass es keine echten Menschen ersetzt und in vielen Fällen auch keinen echten Psychologen. Außerdem ist es noch nicht ausgereift und besonders nach längeren durchgehenden Verläufen steigt die Wahrscheinlichkeit für fehler. 

     

    -----------------

     

    Das mit dem Arbeitsmarkt ist 100% wahr. Noch ist es nicht so weit, aber es werden viele Jobs wegfallen. Das heißt nicht unbedingt, dass die KI den Job selbstständig übernimmt - aber man kann damit teils effizienter arbeiten und je nach umfeld fallen dann eben Jobs weg.

    Wie schnell und wie großflächig das passiert, steht allerdings noch in den Sternen. Industrie, Roboter, automatisierte Produktion und so weiter haben wir nun alles schon seit jahrzehnten und trotzdem arbeiten überall noch menschen. Auch die KI wird nicht von jetzt auf gleich ganze Berufe auslöschen. 

    Es ist aber eine reale Gefahr, auf die die Politik so langsam hinarbeiten muss. 


    -----------

    "Bubbles" sind ja nicht erst durch KI entstanden und ich glaube, die meisten wissen darüber bescheid. Da kann ich dir nur 100% zustimmen. 


    Ich würde aber nochmal die Jugend loben, die sind sich schon sehr bewusst, dass sie einen "algo" (algorythmus) haben, der ihnen ihren content vorschlägt und dass sie diesen durch den scheiß beeinflussen, den sie sich ansehen :)

     

  • 18.11.25, 09:09 - Zuletzt bearbeitet 18.11.25, 09:11.

    Ich habe gestern einen Podcast dazu gehört. Die Grundaussage war, dass wir unbemerkt unseres geistigen Eigentums enteignet werden, weil ja aktuell jeder jeden Furz im Netz kommentiert, dadurch Massen-Arbeitslosigkeit entstehen wird und die Tech-Oligarchen die Macht über das Weltgeschehen bekommen. Es werden innerhalb kürzester Zeit die persönlichen Beiträge aus dem Netz verschwinden und durch KI-Beiträge ersetzt. Dies ist jetzt schon deutlich bei FB zu spüren. Wir verdummen, weil das, was ursprünglich den Menschen ausmacht, verkümmert. Entmenschlichung. Die ist ja schon überall spürbar.

     

    Ich las gestern auch einen Beitrag, wo jemand berichtete, ChatGPT hätte ihm nach einer langjährigen Odyssee bei Fachleuten bei seinen Depressionen besser geholfen, als alles davor. Er würde jetzt seine Krankheit verstehen und FÜHLE sich von der KI mehr gesehen und verstanden. Es folgten massig bestätigende Kommentare. Zuerst fand ich das klasse, aber nachdem ich dann abends den Podcast gehört habe, habe ich große Sorge, wohin das führen wird.

     

    Entgegensetzen kann man dem nur etwas, indem man vor allem die eigene Kreativität NICHT online ausplaudert und sich sein Leben REAL gestaltet. Wobei ich persönlich schon auch erschrecke, wie s/w die Sicht mancher Menschen ist, so dass kaum ein bereichernder Austausch möglich ist. Zitat für ein Beispiel: "Die Aussage ist ja, dass es anstrengend ist, sich mit Menschen zu unterhalten, die in völlig anderen Situationen stecken, andere Interessen haben, usw." Klar, wenn man nur um sich kreist, sich nur mit KI und Leuten umgibt, die die eigene Sicht bestätigen, dann sind die anderen anstrengend. 

     

    Das ist das Resultat der KI. Durch unsere Klicks bestimmen wir, welche Inhalte uns angezeigt werden und damit wird unsere Sichtweise immer einseitiger und beschränkter. Ich klicke schon seit Jahren auch immer wieder für mich "schräge" Themen an, damit die KI mich weiterhin breit aufgestellt versorgt.
     

  • 18.11.25, 08:44

     

    Mario:

    In Teilen hat sich dein geschildertes Szenario schon vor gut einem Jahr manifestiert (siehe ‍How OpenAI o1 Changed Offensive Security | Kodem).

     


    Natürlich kann KI zu verschiedenen zwecken eingesetzt werden. Pentesting ist ein Beispiel und im großen Stile Quellcodes durchsuchen eine weitere, was insgesamt zu mehr sicherheit führt und angreifbare lücken schließt.

     

    Hat aber nichts mit dem Szenario zu tun.

    Es ist und bleibt immer noch eine LLM und die macht nichts autonom. Ich glaube hier hast du entweder ein verständnisproblem oder willst es nicht hören. 

    LLMS sind nicht die grundlage auf der AGI basieren kann!

    Was auch immer JETZT irgendetwas tut, tut dies einzig und allein auf basis von LLMs. Das bedeutet musterkennung, wahrscheinlichkeitsvorhersage und statistische Beziehungen. 

    -> Es hat kein Verständnis von dem, was es tut

    -> Es tut nichts aus eigener Motivation

     

    Ja, in Zukunft könnten LLM dazu beitragen, AGI zu trainieren oder zu ermöglichen - es sind aber fundamental unterschieliche systeme wobei das eine existiert und hat noch immer große probleme hat und das andere existiert noch nicht und wird einige zeit ein konzept bleiben. Am nächsten dran kommen aktive Agenten, die aber auch "nur" auf den LLMs basieren und deren probleme teilen.
     
     

    Es ist vollkommen in Ordnung, wenn du mit Annahmen oder Schlussfolgerungen in AI 2027 nicht hundertprozentig einverstanden bist. Aber wenn das so ist, solltest du das vernünftig argumentieren können. Die Autoren haben einen beträchtlichen Aufwand betrieben, die KI-Entwicklung nicht nur qualitativ, sondern quantitativ vorherzusagen - genau deswegen, um verifizierbar bzw. falsifizierbar zu sein. Das ist das Wesen einer seriösen Hypothese bzw. Prognose.

     

    Falsch. Wer so wilde behauptungen aufstellt, sollte diese auf irgendeine art herleiten oder belegen können. Ich maße mir nicht an, zu behaupten, was 2027 eventuell sein könnte, ohne empirische Daten vorlegen zu können.

    Es ist EIN mögliches Szenario. Es werden weder andere mögliche Szenarien genannt, noch wird gesagt, wie wahrscheinlich es denn nun ist. Es gibt auch keine konkreten technischen grundlagen, sondern es wird einfach nur geraten ("our best guess"). Mich wundert viel mehr, dass du eine wissenschaftliche grundlage annimmst, wo einfach keine ist.

    Worauf alles aufbaut ist dann, dass "Model 1" schon ende 2025 verlässlich beim trainieren von Modellen helfen soll. Und das ist und bleibt fiktion. Das nächste vergleichbare was es wirklich gibt ist alphaevolve und das ist immer noch WEIT von der prognose entfernt. 

    Alles andere basiert ja dann darauf. Wenn aber #1 schon nicht stimmt, wird #2 unn #3 nicht wahrscheinlicher. 
    Nach hinten raus wirds dann fast lächerlich, da wird nur noch politisch spekuliert, anstatt noch irgendeine technische grundlage zu haben. Die Wahrscheinlichkeit geht doch gegen null, das kann keiner für ne konkrete vorhersage halten.

    Das "Ende" dann ist und bleibt höchst spekulativ und geht vor allem davon aus, dass es ohne jede Maßnahme und Gegenwehr einfach so passiert. Als würden die möglichkeiten zu gegenmaßnahmen nicht genau so wachsen und sicherheitsmechanismen gar nicht erst in erwägung gezogen und alles komplett unverändert weiterlaufen, die Menschheit und Regierung sich nicht entwickeln.


     

    Mario:

    Was dich und deine Einstellung zu AI 2027 betrifft: ich lade dich ein, den Bericht für dich noch einmal im Detail durchzugehen und nachzuweisen, wo Annahmen oder Schlussfolgerungen faktisch falsch sind.

    AI 2027 hat für jeden Fehler, den man in ihrer Argumentation findet, 100$ ausgelobt (siehe About — AI 2027, Bets and Bounties).


    Hier endlich mal ein Link für dich, weil du ja drauf bestehst:
     


    "If science continues undisrupted, the chance of unaided machines outperforming humans in every possible task was estimated at 10% by 2027, and 50% by 2047. "

    https://arxiv.org/abs/2401.02843


    Also 10% zustimmung von experten und das bei einer der grundliegenden Aussagen. Das heißt die folgenden annahmen, die darauf aufbauen, sind jeweils nur bruchteile dieser 10%. Nice!

    Diese $100 Sache wurde übrigens schon lange beendet, nie bezahlt, nie beantwortet und ist genrell fast schon lächerlich. Noch dazu bewerten sie es natürlich selbst, gemessen an ihrer eigenen einschätzung. Dürfte ja ganz leicht werden, 2026 ist nicht lange hin und dann kann man ja die ersten aussagen tatsächlich überprüfen. 

    Wenn der bericht anfängt mit "our guess" dann kann man faktisch nichts "falsches" finden, weil alles einfach nur spekulation ist und sie das ja auch selbst zugeben.  Lustig wäre ja wenn sie falsch liegen 

     

    Man findet übrigens unzählige fundierte gegenüberstellungen zu ai2027 im internet, die werd ich nicht alle verlinken. Vllt wäre es eine interessante beschäftigung für dich, mal gezielt nach validen gegenmeinungen zu suchen. So kommt man aus seiner bubble raus. Suchst du immer nur nach gefahren, wirst du auch nur die entsprechenden meinungen finden =)
     

     

     

     


     

    Mario:

     

    Da hast du ein paar Sachen falsch verstanden. AGI (Artificial General Intelligence - das erklärte Ziel von OpenAI) ist noch nicht notwendigerweise das Ende der Zivilisation. Es ist die Idee, dass man die meisten wirtschaftlichen Bürojobs, die bisher Menschen erledigt haben, durch KI-Agenten zu einem Bruchteil der Kosten erledigen lässt

     

     



    Zu keiner zeit habe dieser realität widersprochen, auch wenn ich sie noch nicht 2027 sehe.
    Prognostiziert wird allerdings, dass diese entwicklung sogar stagniert. Firmen haben viel in AI investiert und haben bisher keine profite davon feststellen können. Ja, die AGI kann das dann besser, aber stand jetzt ist das noch zukunftsmusik.

    Meine einzige Aussage ist, dass du bzw die anderen Doomer das Ende dramatisieren. Du hast diese Art anspielung mehrfach gemacht. Ich widerspreche nicht den problmen, wenn ich sage, dass die dramatiserung nicht der weg zur besserung ist. 

    ---

    Ich kann ja mal meine persönliche Meinung zu AI 2027 sagen: 

    Ich behaupte, die haben sich erst das gewünschte Endstadium ausgedacht und dann logisch klingende schritte eingefügt, wie es dazu kommen könnte. 
    Wenn man sich anguckt, wer das schreibt, das sind alles Leute, die selbst von so einer Entwicklung profitieren würden, weil sie irgendwie an den entsprechenden umsetzungen beteiligt sein können. 

    Und gegneüber steht OpenAI, die  milliarden an verlust generieren und dringend investoren und die unterstützung der regierung brauchen, vllt in 2028 bald pleite sind, wenn der große fortschritt ausbleibt und investoren abspringen.

    Wenn ich Investoren suchen müsste, ich würde denen einfach nur den AI2027 text vorlegen.  Expotentielle entwicklung, übernahme aller jobs, weltweite herrschaft und das alles schon sehr bald!!! 
    Überlegenheit gegen China, vorteile im Krieg, das ist genau was man JETZT der amerikanischen regierung sagen würde, um interesse zu bekommen. 

    "“Why stop when we are winning?” says OpenBrain leadership to the President. He nods. The race continues."

    "The President and his advisors remain best-informed, and have seen an early version of Agent-3 in a briefing."


    Aber das ist ja nur meine Meinung :)











     

     

     


     

  • 14.11.25, 09:05

     

     

    Du tust immer so, als wäre die Welt schon vor dem Untergang. AI 2027 stellt ein hoch spekulatives Szenario dar, um symbolisch eine mögliche Entwicklung aufzuzeigen. Es basiert aber auf etlichen wilden Vermutungen, die so gar nicht eintreffen müssen. 


    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

    Versteh mich nicht falsch. Ich bin auch für entsprechende Gesetze, Politik, Handlungen - das volle Programm. Aber eben auf realistischen Grundlagen und nicht wegen irgendwelchen höchst spekulativen Horrorszenerien und derartigen nebensätzen wie "dann müssen wir uns eh keine gedanken mehr machen" oder "der spezies läuft die Zeit davon"... etc.  das ist auf unbestimmte Zeit erstmal reine Spekulation.

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 

    Kurz gesagt sind das deutlich zu trennende Dinge, die du augenscheinlich vermischst. Wir haben aktuelle Probleme und politischen Handlungsberdarf, aber es geht eben nicht um die Ausrottung der Menschheit sondern um die korrekte Adaption der unsausweichlichen Entwicklung.  
     

     

    Zu deiner Aussage:

    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

     

    In Teilen hat sich dein geschildertes Szenario schon vor gut einem Jahr manifestiert (siehe ‍How OpenAI o1 Changed Offensive Security | Kodem).

     

    Ich gebe dir gern ein anderes Beispiel.

    Zum Zeitpunkt der Veröffentlichung dieses Papers (Attention Is All You Need - Wikipedia) 2017 konnte sich kaum einer ein Produkt wie ChatGPT vorstellen - der Gedanke, dass 5 jahre später ein derartiges Werkzeug vorgestellt würde, wäre von den meisten als Science Fiction verlacht worden (nebenbei bemerkt: das T in ChatGPT steht für Transformer, dessen Konzept in besagtem Paper vorgestellt wurde). Jetzt haben wir ChatGPT und steigende Zahlen von KI-Psychosen (was vor wenigen Jahren zweifellos auch als Science Fiction angesehen worden wäre). Es gibt viele Beispiele mehr, warum eine Prognose, die als Science Fiction eingeschätzt wurde, wenige Jahre später schon Science Fact wurde.

     

    Warum ist das so? Wieso wird so oft eine sich anbahnende KI-Entwicklung fälschlicherweise zu weit in die Zukunft verortet (und als Science Fiction klassifiziert)?

    Weil die Entwicklung dieser Technologie in hohem Maße nicht-linear ist, begünstigt durch:

    - immer leistungsfähigere Prozessoren

    - eine immer größere Anzahl von Prozessoren (Skalierung)

    - größere Datenmengen

    - immer effektivere Algorithmen (siehe zitiertes Paper)

     

    Wie Daniel Kahneman in seiner Forschung gezeigt hat, haben Menschen erhebliche Probleme, intuitiv (er nennt das System 1) nicht-lineare oder im besonderen exponentielle Prozesse richtig einzuschätzen. Das ist meiner Ansicht nach der Grund, warum die in AI 2027 beschriebenen Entwicklungen immer noch all zu gern als Science Fiction abgetan werden - weil die Kritiker eher nach ihrem Bauchgefühl gehen anstatt sich die Mühe zu machen, die kumulativen nicht-linearen Effekte rational (= System 2) zu erfassen.

     

    Es wird u.a. in AI 2027 explizit die Rolle von KI in der Weiterentwicklung von KI beschrieben - diese rekursive Anwendung von Technologie auf sich selbst wird vorhersehbar die Evolution der KI-System beträchtlich boosten. 

     

    Weitere prognostizierte Beschleunigungsfaktoren sind:

    - die Aufgabe von natürlicher Sprache in den Interna von KIs (das ist momentan ein massives Bottleneck)

    - Skalierung durch Kooperation unterschiedlicher Agenten, die untereinander kommunizieren und von einander lernen können

    - die kontinuierliche unbeaufsichtigte Selbstoptimierung von KI (ohne dass Menschen die Zwischenergebnisse evaluieren)

     

    All diese vorhersehbaren Entwicklungen geben Anlass zu der Einschätzung, dass in absehbarer Zukunft zwischen der Behauptung, dass ein Sachverhalt "Science Fiction" sei und seiner Ankunft in der Realität nicht mehr Jahre oder Jahrzehnte liegen, sondern Monate.

     

    Zu deiner Aussage:

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 
     

    Da hast du ein paar Sachen falsch verstanden. AGI (Artificial General Intelligence - das erklärte Ziel von OpenAI) ist noch nicht notwendigerweise das Ende der Zivilisation. Es ist die Idee, dass man die meisten wirtschaftlichen Bürojobs, die bisher Menschen erledigt haben, durch KI-Agenten zu einem Bruchteil der Kosten erledigen lässt (siehe 100 Milliarden Profit: Microsoft, OpenAI und die verblüffende Definition von "Künstlicher allgemeiner Intelligenz" - IT-Business - derStandard.at › Web). 

    Die Softwareentwickler (mich eingeschlossen) werden das als erste merken, weil die KIs gezielt (für die Weiterentwicklung der KIs selbst) auf das Schreiben von Code trainiert werden.

    Die Verwerfungen auf dem Arbeitsmarkt kann sich heute keiner vorstellen, aber sie werden dramatisch sein. Allein auf dieses Szenario unvorbereitet hinzusteuern (egal ob das ein oder 10 Jahr(e) dauert) und dann erst zu überlegen, wie man mit der Massenarbeitslosigkeit umgeht, ist absoluter Wahnsinn.

    Dennoch - das bedeutet nicht notwendigerweise die Ausrottung der Menschheit, da die AGIs dafür keine Kontrolle über die kritische Infrastruktur (Data Centers, Stromversorgung, etc.) brauchen (wie du angedeutet hast).

     

    Die Prognose geht aber davon aus, dass sich die KI-Agenten in der Zwischenzeit (während AGIs auf den Arbeitsmarkt ausgerollt werden) in den Laboren von OpenAI & Co massiv weiterentwickeln werden, sodass sie tendenziell "superhuman" werden (angetrieben durch die oben besprochenen Mechanismen). Und ab da wird es dann schlagartig ungleich gefährlicher. Ich gehe nicht weiter darauf ein, ich hab die Links auf den Bericht mehrmals gepostet.

    Auch hier möchte ich betonen: es gibt keinen ernstzunehmenden KI-Experten, der die Möglichkeit von AGIs kategorisch ausschließt - diskutiert wird lediglich, wann es soweit ist.

     

    Es ist vollkommen in Ordnung, wenn du mit Annahmen oder Schlussfolgerungen in AI 2027 nicht hundertprozentig einverstanden bist. Aber wenn das so ist, solltest du das vernünftig argumentieren können. Die Autoren haben einen beträchtlichen Aufwand betrieben, die KI-Entwicklung nicht nur qualitativ, sondern quantitativ vorherzusagen - genau deswegen, um verifizierbar bzw. falsifizierbar zu sein. Das ist das Wesen einer seriösen Hypothese bzw. Prognose.

     

    Was dich und deine Einstellung zu AI 2027 betrifft: ich lade dich ein, den Bericht für dich noch einmal im Detail durchzugehen und nachzuweisen, wo Annahmen oder Schlussfolgerungen faktisch falsch sind.

    AI 2027 hat für jeden Fehler, den man in ihrer Argumentation findet, 100$ ausgelobt (siehe About — AI 2027, Bets and Bounties).

     

    Wenn du soweit bist, lass uns wissen, wieviel Geld du bekommen hast. Wir alle (und insbesondere die Autoren von AI 2027) wären unendlich dankbar, wenn jemand glaubhaft nachweisen könnte, dass die veröffentlichten Prognosen unhaltbar sind.

     

     

     

     

  • 13.11.25, 19:51

     

    Mario:

     

    wenn wir die kurzfristigen Angelegenheiten nicht geregelt bekommen, brauchen wir uns über ein Danach keine Gedanken mehr zu machen (deshalb gehe ich auf die grundsätzlich sinnvolle Ausbildung von Kindern und Jugendlichen im Umgang mit neuen Technologien nicht weiter ein).

    Ich beziehe mich da wieder auf AI 2027 (auf deutsch: KI 2027 - Eine forschungsgestützte KI-Szenarioprognose). Die Analyse zeigt, dass sich sich das Geschehen ab 2027 (daher der Name) verselbstständigen wird, hauptsächlich getrieben durch den Wettbewerb zum einen zwischen den KI-Unternehmen, zum anderen zwischen USA und China. Ab dem Zeitpunkt ist KI so tief in Wirtschaft, Militär und den höchsten Entscheidern verankert, dass es kein Zurück mehr gibt.

     

    Du tust immer so, als wäre die Welt schon vor dem Untergang. AI 2027 stellt ein hoch spekulatives Szenario dar, um symbolisch eine mögliche Entwicklung aufzuzeigen. Es basiert aber auf etlichen wilden Vermutungen, die so gar nicht eintreffen müssen. 


    Ganz besonders die Vorstellung einer autonom agierenden AI, die ungehindert (und in implizierter eigenmotivation) irgendwelche Systeme sabotiert, Waffen steuert oder sich selbst vervielfacht, sind vor allem eines: science fiction.  

    Versteh mich nicht falsch. Ich bin auch für entsprechende Gesetze, Politik, Handlungen - das volle Programm. Aber eben auf realistischen Grundlagen und nicht wegen irgendwelchen höchst spekulativen Horrorszenerien und derartigen nebensätzen wie "dann müssen wir uns eh keine gedanken mehr machen" oder "der spezies läuft die Zeit davon"... etc.  das ist auf unbestimmte Zeit erstmal reine Spekulation.

    Auch deine gern zitierte AI2027 Prognose ist eben nur ein symbolisches Gedankenspiel, das davon ausgeht, alles schnell und völlig unkontrolliert stattfinden zu lassen. Wann eine AGI erreicht wird, steht noch immer in den Sternen und ist bis 2027 höchst unwahrscheinlich und wenn es dann so weit wäre, müsste man sie erst einmal die gesamte kritische Infrastruktur steuern lassen, was ebenfalls erstmal höchst unwahrscheinlich ist und dann noch entschieden wird, nicht jetzt. 

    Kurz gesagt sind das deutlich zu trennende Dinge, die du augenscheinlich vermischst. Wir haben aktuelle Probleme und politischen Handlungsberdarf, aber es geht eben nicht um die Ausrottung der Menschheit sondern um die korrekte Adaption der unsausweichlichen Entwicklung.  

    Und es wäre vllt auch in deinem Interesse, mit akuten Bedrohungen wie Datenschutz, Privatsphäre, Überwachung, Urheberrecht, Persönlichkeitsrechen (random Aufzählung, bin kein Jurist) zu überzeugen, weil das die Leute wirklich betrifft und zum Handeln animiert. Vor weltuntergang und fiktiven worst case szenarios hat niemand mehr angst, dafür gibt es das Internet schon zu lange :)

     

    Mario:

     

    Ich stelle nochmals klar: ich habe kein prinzipielles Problem mit KI. Für viele Herausforderungen könnte KI eine große Hilfestellung sein. Die meisten Experten sind sich aber einig: die aktuelle Entwicklung ist Wahnsinn. Wir könnten KI für im Kampf gegen Krebs einsetzen, oder gegen den Klimawandel. Statt dessen werden unsichere ChatBots auf den Markt geschmissen, oder Tools zum Generieren von KI-Videos (SORA) - Produkte, die keiner braucht und tatsächlich in Sachen Klimawandel völlig kontraproduktiv sind (von den negativen Folgen auf die Gesellschaft ganz abgesehen).

     

     

     

    Natürlich sind - wie du richtig feststellst - politische Entscheidungen gefragt. Aber in Ermangelung anderer absehbarer Interventionen muss der Druck dazu laut der Einschätzung von Experten wie Daniel Kokotajlo oder Tristan Harris aus der Bevölkerung kommen.

     

    Davon abgesehen hat auch das eigene (Konsum-)Verhalten Einfluss darauf, in welche Zukunft wir steuern. Wer beispielsweise ausschließlich bei Amazon einkauft, braucht sich nicht wundern, wenn die lokalen Händler verschwinden. Wer Dienste wie SORA nutzt, braucht sich nicht zu wundern, wenn das Internet irgendwann in die Knie geht oder die CO2-Emissionen weiter in die Höhe schießen.


    Hatte ich ja schon mal gesagt, ändert sich nicht:  
    Kampf gegen Krebs und Klimawandel bezahlt nun einmal nicht die Entwicklung. Dass wir überhaupt jetzt schon so weit sind, ist zu einem großen Teil Videospielen zu verdanken. Ohne dieses Verlangen nach immer besseren Grafiken und dem großen Markt dafür, wäre Forschung in diese Richtung deutlich langsamer verlaufen. 

    Nun sind es eben unsinnige Chats, unsinnige Bilder und unsinnige Videos, die Geld für die Entwicklung erwirtschaften sollen, was ist falsch daran? Gefallen oder nicht, es sind vornehmlich private Unternehmen, die ihr Geschäftsmodell selbst gestalten können, so lange es sich im rechtlichen Rahmen befindet. Wenn dabei Krebsforschung ermöglicht wird, ist das ne geile Zugabe. 

    Müsste man dann nicht die gesamte Unterhaltungsbranche kritisieren? Oder das gesamte Internet? Dürfte man noch Filme und Serien gucken, für deren Produktion deutlich mehr CO² verwendet wird, als kurz mal ein AI Video zu berechnen?  Oder eben jede andere nicht lebensnotwendige Tätigkeit, die irgendwie CO2 erzeugt? 
    Das ist einfach sehr biased und lässt sich imho nicht rational begründen, wieso die eine Art der Unterhaltung nun besser oder schlechter ein soll.
    Und dann existiert ja noch das Gegenteil: diverse Firmen rühmen sich damit, ihre Servercenter CO2 neutral zu betreiben oder zumindest darauf hinzuarbeiten. Eigennützig (durch langfristige ersparnisse) oder nicht, führt es ja zu etwas gutem.

     

     

     

    Mario:
     

    3. Die Öffentlichkeit muss eine Lobby für mehr Verantwortung in der KI-Entwicklung bilden.


    Ich bin deutlich dafür! Ich widerspreche nicht dem Handlungsbedarf! Deine aufgeführten Punkte sind alles Valide Maßnahmen, die Bürger ergreifen sollten! Das bitte nicht falsch interpretieren.

    Nur sind meiner Meinung nach die wichtigen Punkte:

    -> Umfangreicher Datenschutz, DSGVO und Bürgerrechte usw

        (Besodners Möglichkeiten der AI für einen Überwachungsstaat, hier ist die größte Gefahr imho.)

     

    -> Bildung und Umgang

     (Schon früh und sinnvoll in der Schule lernen, Eltern aufklären, Gefahren klar machen, etc)
     

    -> Urheberrecht etc beim lernen der Modelle

     (Existentes Recht anwenden und erweitern, aber eben auch ensprechend modernisieren und Interessen abwägen)
     

    -> Teilhabe 

    (Wenn schon unvermeidlich, dann auch nutzen und profitieren, nicht China und USA zusehen)

     

     

     

    Was für mich nicht dazu gehört:

    -> mimimi die menschheit geht zugrunde

     

    -> gesetze/handeln für etwas verlangen, das noch gar nicht existiert und vielleicht noch merhere jahrzehnte lang nicht existieren wird.

     

  • 13.11.25, 17:53

     

    Stefan:

     

    Mario:

     

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

     

    Was wäre denn, deiner Meinung nach, ein realistischer Lösungsansatz? 

     

    Ich sehe es ebenso, dass es allen voran eine frühzeitige und umfassende Aufklärung über Gefahren und Risiken geben muss, schon beginnend im Grundschulalter, aber auch fortlaufend darüber hinaus. Das sind mitunter politische Entscheidungen, in welche Richtung sich die Bildung entwickeln soll und wie die Prioritäten zukünftig gesetzt werden.

     

    Die "Büchse der Pandora" wurde nun aber quasi geöffnet, das lässt sich nicht mehr rückgängig machen. Das Firmen in die Pflicht genommen werden, mögliche Gefahren zu beseitigen, steht ebenfalls außer Frage. Aber auch das sind politische Entscheidungen. 

     

    Zunächst muss man unterscheiden: was ist kurzfristig wichtig, was mittel- bzw. langfristig.

    Die schlechte Nachricht ist: wenn wir die kurzfristigen Angelegenheiten nicht geregelt bekommen, brauchen wir uns über ein Danach keine Gedanken mehr zu machen (deshalb gehe ich auf die grundsätzlich sinnvolle Ausbildung von Kindern und Jugendlichen im Umgang mit neuen Technologien nicht weiter ein).

    Ich beziehe mich da wieder auf AI 2027 (auf deutsch: KI 2027 - Eine forschungsgestützte KI-Szenarioprognose). Die Analyse zeigt, dass sich sich das Geschehen ab 2027 (daher der Name) verselbstständigen wird, hauptsächlich getrieben durch den Wettbewerb zum einen zwischen den KI-Unternehmen, zum anderen zwischen USA und China. Ab dem Zeitpunkt ist KI so tief in Wirtschaft, Militär und den höchsten Entscheidern verankert, dass es kein Zurück mehr gibt.

    Es gibt zwei Szenarien, wie das ab 2027 weitergehen kann - abhängig davon, wie die KI-Unternehmen mit den bekannten Sicherheitsdefiziten umgehen. Werden diese ignoriert, ist das mutmaßlich innerhalb weniger Jahre das Ende für die Menschheit. Im anderen Fall überleben wir, allerdings ist das Ergebnis ein Tech-Feudalismus mit einer Konzentration von Macht, wie es die Welt noch nicht gesehen hat.

     

    Ich stelle nochmals klar: ich habe kein prinzipielles Problem mit KI. Für viele Herausforderungen könnte KI eine große Hilfestellung sein. Die meisten Experten sind sich aber einig: die aktuelle Entwicklung ist Wahnsinn. Wir könnten KI für im Kampf gegen Krebs einsetzen, oder gegen den Klimawandel. Statt dessen werden unsichere ChatBots auf den Markt geschmissen, oder Tools zum Generieren von KI-Videos (SORA) - Produkte, die keiner braucht und tatsächlich in Sachen Klimawandel völlig kontraproduktiv sind (von den negativen Folgen auf die Gesellschaft ganz abgesehen).

     

    Was ist also kurzfristig sinnvoll? Ein paar Vorschläge.

     

    1. Informiere dich. 

    Es sollte sich jeder mit den Schattenseiten dieser Entwicklung auseinandersetzen. Es beginnt immer mit Ignoranz (bei mir war es nicht anders), aber man dagegen etwas tun. Als Einstieg ist m.E. AI 2027 am besten, andere Quellen sowie Buchtipps erwähne ich immer wieder mal.

     

    2. Rede mit anderen, um ein Bewusstsein für die Problematik zu erzeugen.

    Die meisten Leute haben - obwohl AI 2027 schon im April veröffentlicht wurde - keine Ahnung von dem, was vor uns liegt. Selbst wenn man berücksichtigt, dass jede Prognose eine Schwankungsbreite hat, ist die eingeschlagene Richtung derart beunruhigend, dass dieses Thema weltweit höchste Priorität haben sollte.

    Daniel Kokotajlo, der Initiator von AI 2027, war bei OpenAI im Bereich Sicherheit tätig. Nachdem alle seine Versuche, als Insider die Entwicklung zum Positiven zu beeinflussen fehlschlugen, hat er sich entschieden, OpenAI zu verlassen und als Outsider die Öffentlichkeit zu mobilisieren, um das Ruder herumzureißen. Das ist leider die schlechte Nachricht: wenn das nicht bis (geschätzt) 2027 gelingt, dann ist laut Ansicht der Experten der Zug abgefahren.

    Es ist also ungeheuer wichtig, dass die Öffentlichkeit Kenntnis davon hat, welchen Pfad wir mit KI einschlagen.

     

    3. Die Öffentlichkeit muss eine Lobby für mehr Verantwortung in der KI-Entwicklung bilden.

    Die CEOs der KI-Unternehmen sind bestens vernetzt und haben Zugang zu den höchsten Entscheidungsträgern weltweit. Wenn man Zugang zum Weißen Haus hat, kann man davon ausgesehen, dass man gehört wird. Die US-amerikanische KI-Branche schleppt eigenhändig die schwächelnde US-Wirtschaft über die Ziellinie und sichert so Trumps Macht (allein 80% aller US-Börsengewinne in den USA dieses Jahr gehen auf das Konto von KI-Unternehmen).

    Es gibt momentan keine einflussreichen Stimmen, die Rechenschaft für die aktuellen Fehlentwicklungen einfordern könnten. Diese Stimme muss - wie es aussieht - aus der Bevölkerung kommen, die mit sämtlichen negativen Konsequenzen (ein paar habe ich in früheren Beiträgen schon aufgezählt) konfrontiert sein wird.

    Wie kann man diese Agenda verdeutlichen? Es wird wohl notwendig sein, weltweit für mehr Regulierung und höhere Sicherheitsstandards in der KI-Branche auf die Straße zu gehen.

     

    4. Politische Entscheidungsträger stärken.

    In Europa ist das Bewusstsein für die anstehenden Herausforderungen nicht sonderlich stark ausgeprägt, weder in Bevölkerung, noch in unter Politikern. Allerdings gibt es in Demokratien die Möglichkeit, die Volksvertreter zu wählen - und deren Haltung zu KI bez. deren Regulierung kann/sollte ein Entscheidungskriterium sein.

    Davon abgesehen: Politiker richten sich gerne nach Meinungsumfragen. Für jene politischen Entscheidungsträger, die bereits die Schädlichkeit der momentanen Entwicklung verstanden haben, ist ein Rückhalt aus der Bevölkerung wichtig - zumal sie überaus mächtigen Gegnern gegenüberstehen. 

    Aktuelles Beispiel: die USA versucht gerade die EU zu zwingen, ihre KI-Gesetzgebung abzuschwächen. Wenn klar wäre, dass ein bedeutender Teil der europäischen Bevölkerung dem entschieden widerspricht, wäre das mit Sicherheit eine Rückenstärkung für die obersten EU-Politiker.

     

    5. Stimme mit der Brieftasche ab.

    Dort wo Demokratie scheitert, kann ein Boykott von Unternehmen Wunder wirken. Wieso sollte man als privater Anwender KI-Videos generieren? Braucht es ein Abo für eine KI-Dienstleistung? Mir ist völlig klar, dass das nur ein kleiner Beitrag ist in der Lawine von Geld, die in die KI-Branche gepumpt wird. Dennoch: es ist ein Signal, das gehört werden wird.

     

     

    Natürlich sind - wie du richtig feststellst - politische Entscheidungen gefragt. Aber in Ermangelung anderer absehbarer Interventionen muss der Druck dazu laut der Einschätzung von Experten wie Daniel Kokotajlo oder Tristan Harris aus der Bevölkerung kommen.

     

    Davon abgesehen hat auch das eigene (Konsum-)Verhalten Einfluss darauf, in welche Zukunft wir steuern. Wer beispielsweise ausschließlich bei Amazon einkauft, braucht sich nicht wundern, wenn die lokalen Händler verschwinden. Wer Dienste wie SORA nutzt, braucht sich nicht zu wundern, wenn das Internet irgendwann in die Knie geht oder die CO2-Emissionen weiter in die Höhe schießen.

  • 13.11.25, 15:29 - Zuletzt bearbeitet 13.11.25, 15:30.

     

    Mario:

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.8ou  

     

    ChatGPT ist keine Waffe und die Primäre funktion nicht das Töten. 

    Auch geht es bei dem Spruch spezifisch um Schusswaffen (guns). 

    Falls du das mit Messern als Beispiel nicht trennen kannst/willst dann ersetze es eben durch Säge oder ein beliebiges anderes Werkzeug, das du nicht als Waffe definierst. 

    Also kurz gesagt hast du das etwa aus dem Kontext meines Beispiels genommen.

     

    Beides ist und bleibt ein Werkzeug mit einer nützlichen funktion und beides wird erst bei falscher Nutzung problematisch. 

     

    Und mehr ist auch die jetzige AI nicht, auch wenn einige Leute da mehr reininterpretieren wollen, als die Technik hergibt. Ein Werkzeug, das auf Anfrage ausgibt, was man hören möchte. Und da liegt es eben am Nurzer, dies zu verstehen und nicht ein "Bewusstsein" zu erwarten. 

     

     

    Mario:

    IIch würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

     

    Ja super, denn AI macht "bewusst" erstmal gar nichts und besonders OpenAI versucht ja aktiv, das zu verhindern. Dann ist da ja auch kein Grund, irgendwas zur Rechenschaft zu ziehen. Der gewerbliche Vorteil ist natürlich Unsinn, tote Kunden bezahlen nicht mehr für Premium-Dienste :)

     

    Soweit kurzes Googlen mir verraten hat, gibt es noch zu keinem der Fälle ein Urteil - vorher kann man eh nur spekulieren.

  • 13.11.25, 09:31

     

    Mario:

     

    Jacky Cola:

     

     

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

     

    Was wäre denn, deiner Meinung nach, ein realistischer Lösungsansatz? 

     

    Ich sehe es ebenso, dass es allen voran eine frühzeitige und umfassende Aufklärung über Gefahren und Risiken geben muss, schon beginnend im Grundschulalter, aber auch fortlaufend darüber hinaus. Das sind mitunter politische Entscheidungen, in welche Richtung sich die Bildung entwickeln soll und wie die Prioritäten zukünftig gesetzt werden.

     

    Die "Büchse der Pandora" wurde nun aber quasi geöffnet, das lässt sich nicht mehr rückgängig machen. Das Firmen in die Pflicht genommen werden, mögliche Gefahren zu beseitigen, steht ebenfalls außer Frage. Aber auch das sind politische Entscheidungen. 

  • 13.11.25, 06:15

     

    Jacky Cola:

     

     

    Mario:


     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

    Bei deinem Messervergleich begibst du dich auf dünnes Eis. Deine Argumentation ähnelt verdächtig jener der NRA: "Nicht Waffen töten Menschen, sondern Menschen". Tatsächlich wissen wir, dass der leichte Zugang zu Waffen das impulsive Töten erst ermöglicht. Wer profitiert von dieser Argumentation? Die Hersteller der Waffen.

     

    Ich greife noch mal dein Strohmann-Argument (https://de.wikipedia.org/wiki/Strohmann-Argument) bez. eines Verbots von Stricken und Stühlen auf, da sie ja auch am Selbstmord des Jugendlichen beteiligt waren.

    Ich würde Hersteller von Stricken und Stühlen zur Rechenschaft ziehen, wenn sich herausstellen würde, dass Stricke und Stühle bewusst die geistige Gesundheit von Menschen beeinträchtigen (von Psychosen bis zu Selbstmorden), um einen wirtschaftlichen/strategischen Vorteil für die Hersteller zu erzielen.

     

    Die Gesellschaft zahlt einen Preis für dieses Verhalten. Damit sind wir wieder beim Motto vieler verantwortungsloser Unternehmen: "Risiken auf die Öffentlichkeit übertragen, Gewinne privatisieren."

     

    Du siehst also keinen Grund, Unternehmen zu bevormunden?

  • 13.11.25, 02:45 - Zuletzt bearbeitet 13.11.25, 03:01.

     

     

    Mario:


     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

     

     

    Also erstmal war meine Antwort natürlich nur auf diese Situation bezogen und davon weiche ich nicht ab. Wir müssen zu 100% die Eltern in Verantwortung ziehen, bis es sich herumgesprochen hat. Das gilt für Social Media genau so wie für AI und zuvor das Internet und zuvor Rockmusik.
    Zusätzlich am besten schon ab der Grundschule entsprechend Unterrichten. 


    Das heißt natürlich nicht, dass die Hersteller nicht auch gewisse Maßnahmen ergreifen und sich an Gesetze zu halten haben - ganz besonders beim Jugendschutz. Aber selbst hier sähe ich vor allem eine Pflicht zur Information bzw. Warnung und Jugendschutz-Systeme nach dem Stand der technischen Möglichkeiten. 
    Außerdem wird das alles "real" nur einen symbolischen Effekt haben. Alternativen in weniger regulierten Ländern oder gar völlig unkontrollierte, selbst gehostete Systeme, sind schon jetzt nur ein paar Klicks entfernt. 

    Ich sehe aber auch keinen Grund und keine Grundlage dafür, Unternehmen darüber hinaus zu bevormunden. Ein privates Unternehmen bietet einen Dienst an und man kann ihn freiwillig nutzen. Nutzt man ihn entgegen der Vernunft oder lässt seine Kinder daran spielen, ist es doch nicht mehr innerhalb der vorhergesehenen Nutzung. 
    Der Vergleich mit Messer-Herstellern, die nicht dafür verantwortlich sind, wo der Käufer sie hineinsteckt, erscheint nur auf den ersten Blick zu simpel. Selbst wenn wir hier das Internet erst 2013 entdeckt haben, sollte seine Existenz und Gefahr inzwischen genau so allgemein bekannt sein, wie die Spitze Seite am Messer. Der Zugrif auf AI ist ja erstmal nur eine weitere Sache, auf die man mit dem Internet Zugriff erlangt. 

  • 12.11.25, 18:10

     

    Jacky Cola:

     

    Mario:

     

     

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

     

    Die "Täter" sind aber Menschen. Nämlich genau die Menschen, die den Kindern den Zugang dazu geben, wozu sie keinen Zugang haben sollten. Dafür können doch die Anbieter nichts. 

    Wer seinem Kind die Hardcore-Porno DVDs gibt, der kann sich nicht beim Hersteller beschweren, dass unangemessene Inhalte drauf sind. Und wer sein Kind mit AI spielen lässt, darf sich nicht beschweren, dass die AI nun einmal AI sachen macht. In beiden Fällen hilft einzig und allein gesunde und rechtzeitige aufklärung mit dem umgang.


    Ich weiß, dass es heutzutage oft auf unverständnis trifft, aber in meiner Vorstellung ist es zu genau 100% die Aufgabe der Eltern, Kinder vor sowas zu schützen. Kein Kind wird mit Internetanschluss und Handy geboren. 

    Man verbringt jahrelang damit, kindern zu erzählen, wie man richtig über die straße geht und wie man nicht entführt wird und dann gibt man ihnen völlig unkontrolliert ein handy mit internetanschluss und wundert sich über negative effekte?

    Und ja, genau dein "Take" ist für mich das Problem. Denn dadurch wird einfach nur die Verantwortung abgeschoben, anstatt auf die echte Lösung hinzuarbeiten - nämlich dass Eltern verantwortung dafür zeigen, was sie ihre Kinder konsumieren lassen.

    Moralisch/Rechtlich mag ich dir zustimmen, dass es für Unternehmen auch grenzen geben muss. REAL hat es aber keine Auswirkung auf diese Art von Problemen und hilft nicht bei der Lösung. Ganz davon abgesehen, dass sich das Internet nunmal nicht kontrollieren lässt. 




     

    Zumindest was die Verantwortung der Eltern angeht, sind wir uns einig. 

    Aber blöderweise haben die wenigsten ein Vorstellung davon, was diese Produkte bei ihren Kindern anrichten. Und deshalb muss man diese Firmen in die Verantwortung nehmen - denn die wissen genauso gut wie die Tabaklobby, wie süchtigmachend ihre Produkte sind, und dass sie diesem Umstand ihre Profite verdanken.

    Wieso sollten wir dieselben stupiden Fehler machen wie bei den Social Media? Weil es schwierig ist, gegen solche Konzerne anzugehen (siehe obiges Beispiel)? 

     

    Mein Problem mit deinem "Take" ist: wir haben Gestaltungsmöglichkeiten, die wir nutzen können und müssen, denn andere haben keine Skrupel, das zu tun. Für die Welt, die du dir wünscht, wirst du kämpfen müssen, Resignation wird dir nicht helfen.

  • 12.11.25, 17:29 - Zuletzt bearbeitet 12.11.25, 17:31.

     

    Mario:

     

     

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

     

    Die "Täter" sind aber Menschen. Nämlich genau die Menschen, die den Kindern den Zugang dazu geben, wozu sie keinen Zugang haben sollten. Dafür können doch die Anbieter nichts. 

    Wer seinem Kind die Hardcore-Porno DVDs gibt, der kann sich nicht beim Hersteller beschweren, dass unangemessene Inhalte drauf sind. Und wer sein Kind mit AI spielen lässt, darf sich nicht beschweren, dass die AI nun einmal AI sachen macht. In beiden Fällen hilft einzig und allein gesunde und rechtzeitige aufklärung mit dem umgang.


    Ich weiß, dass es heutzutage oft auf unverständnis trifft, aber in meiner Vorstellung ist es zu genau 100% die Aufgabe der Eltern, Kinder vor sowas zu schützen. Kein Kind wird mit Internetanschluss und Handy geboren. 

    Man verbringt jahrelang damit, kindern zu erzählen, wie man richtig über die straße geht und wie man nicht entführt wird und dann gibt man ihnen völlig unkontrolliert ein handy mit internetanschluss und wundert sich über negative effekte?

    Und ja, genau dein "Take" ist für mich das Problem. Denn dadurch wird einfach nur die Verantwortung abgeschoben, anstatt auf die echte Lösung hinzuarbeiten - nämlich dass Eltern verantwortung dafür zeigen, was sie ihre Kinder konsumieren lassen.

    Moralisch/Rechtlich mag ich dir zustimmen, dass es für Unternehmen auch grenzen geben muss. REAL hat es aber keine Auswirkung auf diese Art von Problemen und hilft nicht bei der Lösung. Ganz davon abgesehen, dass sich das Internet nunmal nicht kontrollieren lässt. 




     

  • 12.11.25, 16:21

     

    Jacky Cola:

     

    Mario:

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

     

    Huiii, das ist aber ein interessanter Take, nachgewiesene Vergewaltigung und Folterung von Kindern mit einem freiwillig nutzbaren Textchat zu vergleichen 😂😂😂

     

    Und dann müssen wir erstmal Seil-Hersteller verklagen und Stühle am besten gleich komplett verbieten, weil diese Dinge schon Tausendfach für Selbstmord verwendet wurden.  Wieso sind Seile noch immer legal???????

     

    Oder sollte man das Internet gleich ganz verbieten, weil man auch ohne chatgpt suizidmethoden dort finden kann? 

     

    Sorry aber das ist zu weit hergeholt. Wer suizid als ausweg sieht, der ist durch ganz andere Gründe an diese stelle gekommen und man müsste tatsächlich den Einzelfall untersuchen - es ist nun einmal ein Unterschied, ob es aktiv dazu beigetragen hat oder eben nur als neutrale Informationsquelle für jemanden dient, der sowieso schon entschieden hat. 

     

    Wenn man den Hersteller eines Werkzeuges für jede falsche Verwendung von Nutzern verantwortlich machen könnte, dann dürfte man ja gar nichts mehr herstellen.

     

    Noch dazu ist es Amerika und das ist nicht gerade unbekannt dafür, dass jede Gelegenheit zur Klage gegen große Unternehmen genutzt wird, weil man sich viel Geld dabei erhofft.

     

    Natürlich sehe ich auch ein, dass es gefahren haben kann. Aber wie gesagt, kann man nicht alles gleich verbieten, nur weil von vielen millionen nutzern einige webige die Funktion missbrauchen. 

     

     

    Was auch nicht erwähnt wird ist, dass Millionen von Leuten mit ChatGPT über suizid reden - da gibt es natürlich keine Zahlen, wie viele von denen dort hilfe gefunden haben und vielleicht vom letzten Schritt abgehalten wurden. Das ist den Herstellern ja bekannt und sie arbeiten aktiv daran, dies so gut wie möglich zu verbessern. 

    Auch in vielen anderen Gebieten ist es schon jetzt eine Super Möglichkeit für Leute, die eben nicht zu einem echten Psycholgen können oder wollen. 

    Nein. Der "Take" ist nicht weit hergeholt. Ich würde mal die rosarote Brille absetzen und mir zu Gemüte führen, was Jonathan Haidt zu den Folgen von Social Media auf Kinder und Jugendliche zu sagen hat.

    Die Parallelen zu KI-ChatBots sind mehr als offensichtlich.

     

    KI-ChatBots sind zum jetzigen Zeitpunkt NICHT SICHER - auch wenn Sam Altman Mantra-artig wiederholt, seine Produkte wären es.

     

    Deine Argumentation - sofern man das so nennen kann - ist ein Strohmann. Ich fordere nicht KI-ChatBots sowenig wie Seile zu verbieten, sondern fahrlässige Hersteller für die Folgen ihrer Produkte haftbar zu machen, so wie man es schon für Facebook, Tiktok & Co machen hätte sollen - deren negativen Folgen auf die geistige Gesundheit einer ganzen Generation sind bestens dokumentiert.

     

    Im übrigen ging es mir nicht darum, Leid zu verharmlosen. Vielmehr möchte ich aufzeigen, dass unser moralischer Kompass verlässlich funktioniert, wenn unseren Kindern so nachvollziehbar Schaden zugefügt wird.

    Ich bedaure, dass der moralische Kompass in den meisten Fällen versagt, wenn die Täter keine Menschen sind.

  • 12.11.25, 15:07 - Zuletzt bearbeitet 12.11.25, 15:08.

     

    Mario:

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

     

    Huiii, das ist aber ein interessanter Take, nachgewiesene Vergewaltigung und Folterung von Kindern mit einem freiwillig nutzbaren Textchat zu vergleichen 😂😂😂

     

    Und dann müssen wir erstmal Seil-Hersteller verklagen und Stühle am besten gleich komplett verbieten, weil diese Dinge schon Tausendfach für Selbstmord verwendet wurden.  Wieso sind Seile noch immer legal???????

     

    Oder sollte man das Internet gleich ganz verbieten, weil man auch ohne chatgpt suizidmethoden dort finden kann? 

     

    Sorry aber das ist zu weit hergeholt. Wer suizid als ausweg sieht, der ist durch ganz andere Gründe an diese stelle gekommen und man müsste tatsächlich den Einzelfall untersuchen - es ist nun einmal ein Unterschied, ob es aktiv dazu beigetragen hat oder eben nur als neutrale Informationsquelle für jemanden dient, der sowieso schon entschieden hat. 

     

    Wenn man den Hersteller eines Werkzeuges für jede falsche Verwendung von Nutzern verantwortlich machen könnte, dann dürfte man ja gar nichts mehr herstellen.

     

    Noch dazu ist es Amerika und das ist nicht gerade unbekannt dafür, dass jede Gelegenheit zur Klage gegen große Unternehmen genutzt wird, weil man sich viel Geld dabei erhofft.

     

    Natürlich sehe ich auch ein, dass es gefahren haben kann. Aber wie gesagt, kann man nicht alles gleich verbieten, nur weil von vielen millionen nutzern einige webige die Funktion missbrauchen. 

     

     

    Was auch nicht erwähnt wird ist, dass Millionen von Leuten mit ChatGPT über suizid reden - da gibt es natürlich keine Zahlen, wie viele von denen dort hilfe gefunden haben und vielleicht vom letzten Schritt abgehalten wurden. Das ist den Herstellern ja bekannt und sie arbeiten aktiv daran, dies so gut wie möglich zu verbessern. 

    Auch in vielen anderen Gebieten ist es schon jetzt eine Super Möglichkeit für Leute, die eben nicht zu einem echten Psycholgen können oder wollen. 

  • 12.11.25, 12:54

    https://www.derstandard.at/story/3000000295822/openai-anwaelte-machen-druck-auf-familie-nach-teenager-suizid

     

    Was muss eigentlich passieren, dass eine ähnliche moralische Entrüstung wie im Fall der Missbrauchsvorwürfe gegen das SOS-Kinderdorf-System entsteht?

     

    Braucht es mehr solche Tragödien? Muss es jemanden treffen, den man persönlich gekannt hat?

     

    Wenn OpenAI sich hier ihrer Verantwortung entziehen können, dann stehen uns harte Zeiten bevor. Denn dann steht fest: du brauchst nur groß genug sein, um mit ALLEM durchzukommen.

     

     

  • 09.11.25, 20:02

    Auch eine interessante Information: rund 80% der Gewinne an der US-Börse dieses Jahr gehen auf die KI-Unternehmen zurück (siehe https://youtu.be/E1QY1FqwRAM?si=egQucCu-KOVOsSCK, ca. Minute 12).

    Die KI-Blase stützt die gerade massiv schwächelnde US-Wirtschaft. Ohne diese Hilfe wäre es fraglich, ob sich Trump lange an der Macht halten könnte...

    Vielleicht ein Grund mehr, die Finanzierung der KI-Firmen über Abos zu überdenken ;-)

  • 09.11.25, 18:42

     

    Mandi:

    Kleiner Schenk:

    Am Scheideweg: KI als Entdeckerin: „Wir verstehen sie nicht“ - science.ORF.at

    Ich finde es spannend, wo in dem Artikel die eigentlichen Herausforderungen gesehen werden: das Nachvollziehen von KI-Output. Ich beziehe mich wieder auf AI 2027: wir befinden uns jetzt in der Phase mit den "stolpernden" KI-Agenten. Das heißt, dass in den meisten Fällen eine potentielle Produktivitätssteigerung durch die notwendige menschliche Kontrolle wieder vernichtet wird. Laut der Prognosen wird sich das schon nächstes Jahr ändern (zuverlässige Agenten) und bald danach exponentiell explodieren, sobald Menschen nicht mehr Teil der Entwicklungsiterationen sind. Das Bild in AI 2027 ist eindrücklich: schließlich sitzen die Wissenschaftler nur mehr vor ihren Bildschirmen und sehen zu, wie sich die Systeme selbst optimieren - ohne ansatzweise zu verstehen, was da passiert.

    Ist ja auch nachvollziehbar: wenn die KIs erst mal 100x so schnell wie Menschen sind, haben sie den Arbeitsleistung eines Jahres für einen Vollzeitangestellten  in weniger als 24h erledigt.

    Diese Realität ist laut Experten nicht 50 Jahre, sondern weniger als 5 Jahre entfernt...

  • 08.11.25, 19:58

    Tristan Harris im Interview:

    eine unglaublich gute und nachvollziehbare Analyse zu KI

    https://youtu.be/Rhcp7ZUiw3g?si=RRVFd2stS9KEzYXi

     

     

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.