Um mitzumachen, melde dich bitte an.
  • Kann eine KI selbst was wollen?

    Diskussion · 61 Beiträge · 808 Aufrufe
    Stefan aus Linz

    In der Gruppe Künstliche Intelligenz gibt es einen Aufsatz von Vincent Müller, einem deutschen Philosophen, wo im letzten Kapitel folgender Satz zu lesen ist:

     

    Eine der vielen offenen Fragen ist, ob ein nicht-lebendes System »echte Ziele« in dem Sinne haben kann, der für Handlungsentscheidungen und Verantwortung erforderlich ist, d.h. Ziele, die für das System einen subjektiven Wert haben und die das System reflektierend als wichtig erkennt.

     

    Neulich könnte es (fast) soweit gewesen sein, als in einem Testszenario eine KI angeblich erpresst und bedroht hat.


    https://futurezone.at/science/ki-hat-nutzer-aus-selbstschutz-erpresst-und-bedroht-anthropic-claude-test-forschung-kuenstliche/403043894

     

    Was meint ihr? Sind wir kurz davor KIs zu erschaffen, die aus eigenem Antrieb eigene Ziele verfolgen? Kann das bei einem nicht-biologischen System überhaupt möglich sein? Braucht es dazu Bewusstsein?

    26.05.25, 10:39 - Zuletzt bearbeitet 26.05.25, 10:40.

Beiträge

  • 26.05.25, 12:08

    Ich habe gerade heute einen Beitrag auf Linkedin gelesen, wonach es mittlerweile das gefährliche Szenario gibt, dass Kinder und Jugendliche ein freundschaftliches Verhältnis zur KI aufbauen. Diese ist nett u. stets verfügbar, hilft über Einsamkeit hinweg. Gibt aber scheinbar auch gefährliche Ratschläge, bis hin zu Suizidtipps. Ob das so stimmt, kann ich nicht verifizieren, aber auf alle Fälle sollten wir rasch den Schutz der Unmündigen zum Thema machen.

Interesse geweckt? Jetzt kostenlos registrieren!

Du bist nur einen Klick entfernt. Die Registrierung dauert nur 1 Minute.