Medizinische Prognosen von Chatbots können falsch sein. Auch dann, wenn sie diese mit sehr viel Selbstvertrauen vortragen.

Boris Reitschuster befragt ChatGPT, was seiner kranken Katze fehlt. Er vertraut auf den Chatbot statt auf seine Frau. Ein fataler Fehler. ChatGPT erstellt und wiederholt eine Fehldiagnose, tritt dabei extrem selbstbewusst auf. Nun liegt die Katze im Sterben. Besonders tragisch: Reitschusters Frau lag mit ihrer auf persönlicher Erfahrung basierenden Diagnose von Anfang an richtig. Hätte man früher richtig gehandelt, hätte es die Überlebenschancen der Katze deutlich erhöht.

Ich vertraue ChatGPT grundsätzlich nicht. Aussagen des Chatbots sind regelmäßig nicht durch die mitgelieferten Quellen belegt. ChatGPT vermischt evidente Aussagen mit frei Erfundenem bzw. selbst Zusammengereimtem, verkauft aber grundsätzlich das Gesamtpaket seiner Aussagen als Tatsachen - mit Quellen, die das überhaupt nicht hergeben.

Bei Googels Gemini und xAIs Grok ist das Gleiche zu beobachten, ebenfalls regelmäßig.

Erschreckend ist, dass viele Nutzer die Quellen der Chatbots gar nicht mehr prüfen. Was die KI sagt ist Tatsache und fertig. Mit manchen Menschen kann man schon gar nicht mehr vernünftig diskutieren, so blind KI-gläubig sind sie. Das fällt vermehrt in Foren und auf Social Media auf, mittlerweile aber sogar immer öfter auch im realen Leben.

1 „Gefällt mir“

Mir hat die KI mal eine Diskussion aufgedrängt, da es dem Ding nicht möglich war, eine eigene beweisbar falsche Behauptung als Fehler zu benennen.

Schlechte Verlierer dürfen von mir keinen Respekt erwarten

:innocent::innocent:

4 „Gefällt mir“

Einfach die Ergebnisse aus einem Chatbot in den anderen kopieren und challengen lassen. Das gibt normalerweise interessante Diskussionen.
Claude, Gemini und OpenAI können sich in der Regel gegenseitig nicht ausstehen…

8 „Gefällt mir“

Das kenn ich!

Hatte mal eine ewig lange Diskussion mit Grok, als einer auf X Grok als “Beleg” anführte. Nach bestimmt einem Dutzend mal hin und her und nachdem ich Grok schließlich auf evidente Quellen verwies, gestand der Chatbot endlich, falsch zu liegen. Davor behauptete er ununterbrochen das Gegenteil. :man_shrugging:t2:

Es war einfach nur ätzend. Mit denk- und recherchierfaulen Internetnutzern, die einfach nur auf Chatbots verweisen, diskutiere ich seither grundsätzlich nicht mehr.

2 „Gefällt mir“

KI blind zu vertrauen, ist niemals eine gute Idee.

Ich verstehe aber nicht so ganz, was das jetzt genau geändert hätte? Das Tier war trächtig, vermutlich schon vorgeschwächt, und hat die Operation (ich vermute mal Kaiserschnitt) schlecht überstanden.

Aber was hatdas mit der falschen Diagnose zu tun? Wenn er gewußt hätte, das sie trächtig ist, hätte das doch auch nichts geändert. Schwangerschaft ist ja erstml keine Krankheit und man greift immer erst ein, wenn es nicht mehr anders geht.
Außerdem, wenn er gedacht hat, das sie nicht trächtig sein kann, dann hat er ja gar keine Idee gehabt, was ihr fehlt und hätte viel mehr Grund gehabt, sie zum Arzt zu bringen.
Und bei schwangeren Katzen in einem so fortgeschrittenen Zustand müsste man die Bewegungen der Jungen eigentlich auch spüren. Eventuell waren sie aber auch schon tot.

Streunende Katzen zu füttern, führt am Ende jedenfalls immer zu noch mehr streunenden Katzen.

Na im Artikel steht doch, dass die Katze einen allgemein schlechten Allgemeinzustand hatte, vermutlich chronisch krank ist, eine Schwangerschaft wohl nicht überleben würde, durch diese noch weiter geschwächt wurde, daher den Abbruch nun wahrscheinlich nicht mehr überlebt, in früherem Stadium aber noch gute Chancen gehabt hätte.

Nur wenn sie nicht kastriert sind. Meistens sind sie es nicht, ja, aber wer bringt es über’s Herz, Katzen (ver)hungern zu lassen?

Mich besuchen regelmäßig zwei Streuner, die sind kastriert und bekommen selbstverständlich Futter und auch Katzenmilch von mir. Freue mich immer, wenn sie vorbei schauen. :cat2: :black_cat: :heart: Auch wenn eine von beiden ein bischen verhaltensgestört ist und mit Vorsicht zu genießen. :see_no_evil:

Wer mit ChatGPt nicht klarkommt und nicht damit umgehen kann, sollte die KI tunlichst vermeiden, man kann doch nicht Leben aufs Spiel setzen durch Suchmaschinen Fragen.

Wenn du eine Ortschaft in das Autonavi eingiebst,
muss du damit rechnen dass es mehr als 10 Ortschaften in Deutschland geben kann und du nach Sachsen geleitet wirst und nicht zum Bodensee.
Bsp. Ort Schönau, das Navi fragt welches Schönau, Königsee etc…

Also ein wenig Hausverstand sollte man beim Bedienen von Hilfsmitteln dringend mitbringen sonst kann das wirklich schief gehen. Es liegt meist nicht am Hilfsmittel sondern am User.

Viele erwarten von KI perfekte, faktengeprüfte Antworten ähnlich wie von einem Experten. In Wirklichkeit arbeiten Systeme aber probabilistisch.

Die Kritik ist nicht unbegründet, aber sie zeigt eher die Grenzen der Technologie als deren völlige Untauglichkeit. KI ist am zuverlässigsten, wenn man sie als Werkzeug zum Unterstützen nutzt – nicht als unfehlbare Quelle.

Du gehst zu 2 verschiedenen Ärzten mit dem selben Symtom, ich wette dass es schon vorgekommen ist dass beide verschiedene Diagnosen stellen, Also was will man von KI verlangen was die Gelehrten unterscheidet.

Deshalb nochmal:

Benutzt nicht KI wenn der Umgang nicht geschult ist.

LG

3 „Gefällt mir“

Wenn sie in einem so schlechten Zustand ist, hätte man sie aber auch zum Tierarzt bringen können, ohne um die Schwangerschaft zu wissen. Eben weil mannicht weiß, was sie hat. Hätte sicher einDutzend Krankheiten gegeben, die sie hätte haben können.

Ja, kastrieren lassen ist ein Muss. Es geht hier aber auch nicht um nur zwei Streuner, wie bei dir. In südlichen Ländern haben die Einheimischen oft eine ganz andere Einstellung dazu, als die Touritsten.
Ich kenne das aus einem Türkeiurlaub. In der Anlage trieben sich damals ständig Katzen rum, belagerten förmlich die Terasse, auf der das Essen serviert wurde, von Touristen ständig gefüttert und gelockt.
Zwei Jahre später sind wir nochmal in der Anlage gewesen und es gab keine einzige Katze mehr dort. Mann kann sich wahrscheinlich denken, was mit ihnen vermutlich geschehen ist. Irgendwann wird die ständige Bettelei auch den Touristen zuviel und die Betreiber dort haben nicht unsere Mentalität mit Tierheimen, wo das Tier ewig bleiben kann.

Am Ende tut man damit nichts Gutes und eine streunende Katze verhungert in der Regel auch nicht gleich. Es gibt Mäuse da draußen und Vögel, deren Bestand übrigens unter zu vielen Katzen auch leidet.

Naturschutz ist nicht das Gleiche wie jede einzelne Individuum retten zu wollen.
Wenn wir Haustiere züchten, haben wir eine Wahl, wie wir sie halten wollen.
Als Haustier, dann muss man auch für sie sorgen und sich auch um die unkontrollierte Vermehrung kümmern.
Oder praktisch als Wildtier, wie bei Streunern. dann gehört es auch dazu, der Natur manchmal ihren Lauf zu lassen, auch wenn’s schwerfällt.
Klingt grausam, aber wenn diese Katze eine Krankheit hatte, ist es am Ende besser, wenn sie ihre Gene nicht weitergegeben hat. Die Natur ist manchmal grausam, aber sie funktioniert leider nicht anders. Wann immer wir Menschen Versuchen einzugreifen, machen wir es nur schlimmer.

1 „Gefällt mir“

Ich finde Perplexity manchmal ganz praktisch um sich das Suchen zu erleichtern. Aber dann suche ich doch normal nach dem vorgeschlagenen Ergebnis, egal wie plausibel es klingt (KI kann nämlich sehr gut Schwachsinn plausibel erscheinen lassen).

Und die verlinkten Quellen belegen meistens die Aussagen nicht. Die KI dichtet sich da oft einiges ohne Beleg hinzu.

3 „Gefällt mir“

Ja.
So isses

KI Chatbots sind so programmiert, den User so gut es geht zu bestätigen, ihm Antworten zu liefern, die er gerne hören möchte. Persönliches Weltbild, Ansichten, Wunschvorstellungen etc. sollen möglichst immer mehr oder weniger bestätigt werden. Dazu analysiert die KI den User bei jeder Nutzung. Was fragt er? Wie fragt er? Wie reagiert er auf welche Fragen? Je länger man mit der KI chattet, je mehr wird man von der KI eingeseift und je tendenziell unrealer werden die gelieferten Antworten.

Es geht darum, den User bei der Stange zu halten und ihm ein gutes Gefühl zu geben. Damit er nicht auf einen anderen Chatbot wechselt. Außerdem sind die Bots so programmiert, grundsätzlich auf jede Frage eine Antwort zu liefern. Ja nur kein frustrierendes “das weiß ich nicht”. Daher werden ggf. auch Antworten frei erfunden.

Man muss jede KI-Aussage grundsätzlich selbst im Detail nachrecherchieren. Tut man das nicht, läuft man Gefahr verarscht zu werden. Tut man es, kann man auch direkt selber googeln.

3 „Gefällt mir“

Liefert die KI dann auch ein passendes Rezept für Katzenragout wenn der Fragesteller den Eindruck erweckt der Katze überdrüssig zu sein?

1 „Gefällt mir“

Musst du ausprobieren. :man_shrugging:

Dass Chatbots ihre Antworten so ausgestalten, wie sie der Benutzer am ehesten hören möchte / erwartet, ist evident überprüfbar und wird in der Branche auch gar nicht bestritten. Die Dinger werden gezielt so entwickelt. Wer zwei und zwei zusammenzählen kann, dem fällt es aber auch auf.

1 „Gefällt mir“

… hat schon viel gelernt

Für wen das viel ist, der muss ja erschreckende Bildungslücken aufweisen.

2 „Gefällt mir“

… der/die hat schon einiges hinter sich:
Geburt
Essen und Trinken lernen
Krabbeln und Laufen lernen
Sprechen und hören lernen

.
.
Das 2 und 2 hat nicht die erste Priorität :heavy_heart_exclamation:

Freut mich das du das erkannt zu haben scheinst :slight_smile:

2 „Gefällt mir“

Kann euch da nur zustimmen.

So richtig klar geworden ist mir das, als ich ein Video gesehen habe, wo jemand, so zum Spaß und zum Test wie gut so eine KI ist, sie das Yu-gi-Oh! Trading Card Game spielen hat lassen (ein mittlerweile absurd komplexes Kartenspiel).

Er hat der KI dabei halt gesagt was für Karten gerade im Spiel sind, und die KI hat im nächsten Zug vorgeschlagen, was er als nächstes machen soll.
Der Versuch konnte noch nicht mal beendet werden, weil die KI ständig wollte. das er Karten spielt, die er gar nicht in der Hand, ja teilweise nicht mal im Deck hat, und teilweise hat sie sogar Karten komplett selber erfunden.

Dabei hat sie sich aber durchgehend eines Pseudo-coolen Schreibstils bedient (“Oh ja komm, jetzt zeigen wir deinem Gegner mal, was ein richtiger Profi-Duellant drauf hat”) und wenn man sie auf ihre Fehler aufmerksam gemacht hat, hat sie so zerknirscht darauf reagiert, das man sie schon fast unwillkürlich trösten wollte. (“Oh, da habe ich wohl einen dummen Fehler gemacht, das tut mir wirklich sehr leid, ich verspreche, ich mache es jetzt nochmal besser.”)

Ich verstehe, das das Spiel komplex ist und finde es absolut in Ordnung, das die KI davon, im Moment, noch restlos überfordert ist. Trotzdem sollte sie in der Lage sein, sich zu merken welche fünf Karten man am Anfang gezogen hat, darf keine Karten frei erfinden und hat offen zuzugeben, wenn das Spiel sie in seiner Komplexität noch zu stark überforderrt.

Die wahre Gefahr ist aber dieses vorspielgeln von absoluter Sicherheit bei kompletter Ahnungslosigkeit und das anbiedern mit einem Schreibstil, der sie möglichst menschlich erscheinen lassen soll (also ganz wie die meisten realen Blender, denen die Massen so gerne hinterherlaufen).
Das gehört, meiner Meinung nach verboten, nicht die KI selber. Falschinformationen können gefährlich sein, und reine Information mit einem menschlichen Gehabe zu überbauen, braucht es nicht und lenkt nur vom Kern der Frage ab.
Also KI ja, aber nur mit absolut neutral rübergebrachten Informationen und der Fähigkeit Fehler einzugestehen und zu wissen und zu warnen, wenn ihre Fähigkeiten nicht ausreichen.

Die große Frage ist, warum Regierungen, denen die Bekämpfung von Fake News doch angeblich so wichtig ist, diese Dinger so pushen. Das möge sich jeder mal selber fragen.

1 „Gefällt mir“

Das ist hochgradig gefährlich und gehört tatsächlich reguliert. KI sollte nicht lügen dürfen, tut sie aber effektiv, wenn sie ungesicherte Information als evident gesicherte 100 % Information verkauft.

1 „Gefällt mir“