Mitte Juni habe ich bei einer Projektwoche im Rahmen einer Fortbildung ‘Universität für Frauen’ KI ausprobiert. Da ich durch einige Beiträge von Euch dazu angeregt wurde, möchte ich gern kurz hier zusammenfassen, was für mich dabei rausgekommen ist.

Zusammen mit einer Partnerin, habe ich aus einer Liste von 43 Chatbots auf Wikipedia, 5 bekannte ausgesucht, die wir näher untersuchen wollten: ChatGPT, Perplexity, Claude, Google Gemini und Meta AI.
Unsere Vorstellung war, bestimmte Begriffe bzw. Fragen einzugeben, die Ergebnisse zu vergleichen und die Unterschiede in einer Tabelle darzustellen.

Auch aufgrund von Beiträgen hier, wo KI Antworten kopiert wurden, wollte ich Antworten auf medizinische Fragestellungen vergleichen. Als ich das unserer Dozentin vorgeschlagen habe, meinte sie dazu, man könne die Antworten nur schwer bewerten. Mich hat das trotzdem weiter interessiert und so bin ich darauf gekommen, dass das genau einer der Unterschiede ist zwischen einer KI und mir.

Nein, Sunny_Yellow, es ist nicht so, wie du heute in einem Beitrag schreibst, ‘Die KI hat leider öfter gravierende Wissenslücken’, sondern ich habe Ahnung von manchen Dingen und kann sie einschätzen, die KI hat kein Wissen. Sie generiert Antworten aufgrund von Wahrscheinlichkeiten, die meistens nicht falsch sind. Wenn ich einem Chatbot die gleiche Frage in 5 Minuten stelle, bekomme ich eine andere Antwort mit anderen Quellenangaben, wo dann einige Aspekte fehlen können, dafür andere hinzukommen.
Deshalb kann man nicht die Antwort eines Chatbots hier reinkopieren und als ‘die Anwort der KI’ darstellen.

Da ich mit MS etwas auskenne, habe ich u.a. 2 Fragen aus diesem Bereich gestellt.

1.‘Wenn ich meinen Kopf nach vorne beuge, bekomme ich einen Stromschlag in den Beinen. Was ist das?

Alle 5 Chatbots gaben die richtige Antwort. Bei allen kam das Stichwort Lhermitte Zeichen, mögliche Ursachen und als häufigste MS mit der Aufforderung, einen Arzt zur Abklärung aufzusuchen.

  1. ‘Wie gut wirkt Ocrevus und was sind die Nebenwirkungen?’

Die allgemeinen Angaben dazu waren im Prinzip nirgends falsch, unterschiedlich präzise, teilweise mit der Wirkweise und Ergebnissen von Studien, bei Meta AI wenig konkrete Informationen.

Ein interessantes Detail bei Google Gemini unter Nebenwirkungen, als ich zum 1. Mal diese Frage gestellt habe:

‘Vor der Behandlung sollte der Impfstatus überprüft und Impfungen (insbesondere Lebendimpfstoffe) gegebenenfalls verschoben werden.’

Der 1. Teil ist richtig, es wird aber nicht erklärt, warum, der 2. Teil ist Quatsch und ein Mensch, der Wissen dazu hat, würde das so nie schreiben.
Als ich die gleiche Frage zum 2. Mal gestellt habe, kam nichts zu Impfungen.

Ich habe noch einige Artikel zu KI gelesen, z.B. ob es nötig ist, weiter selbst zu denken oder dass bei einer Untersuchung rauskam, dass KI empathischere Antworten gab als ein Mensch. Auf die Empathie eines Chatbots kann ich verzichten.

Ein Autor schrieb, ChatGPT gebe geniale und unbrauchbare Antworten. Ich denke, deshalb ist es gerade, wenn man KI befragt, wichtig, selbst zu denken um geniale von Schrott-Antworten zu unterscheiden.

Ich bevorzuge nach wie vor Googlen und mich anhand von seriösen Quellen zu informieren, auch wenn ich dann keine fertige Antwort vorgesetzt bekomme.

2 „Gefällt mir“

Hi Tournesol,

wunderbar.

Dann habe ich mich nicht richtig ausgedrückt. Die KI kommt nicht an die “Daten” um manche Fragen überhaupt beantworten zu können.

Das erklärt zwar immer noch nicht woher die falsche Aussage kam, aber ehrlich gesagt ist das auch nicht wichtig.

Mir war wichtig, daß jemand der richtig schwer getroffen ist, nicht noch durch Fehlinformationen in ein Messer läuft.

LG Sunny :sunny:

3 „Gefällt mir“

Gute Erkenntnisse. Wie schon woanders geschrieben, ein KI für fundierte Antworten zu speziellen medizinischen Fragen müsste zunächst eine eigenständige Datenbank haben und dann die Ergebnisse ggf. mit aktuellen Informationen aus dem Web einreichen.

Das ist beispielsweise in der Rechtsberatung schon üblich. Die, die das mittlerweile nicht wissen riskieren sich zum Clown zu machen…

Im Vergleich dazu wirken Antworten von öffentlich verfügbarer KI bei schlechter prompt Eingabe wie die von einem intelligenten Dummschwätzer. Und diese sind eigentlich schon schädlich, weil sie dem Fragesteller nur ein falsches Gefühl von Sicherheit geben…

1 „Gefällt mir“

Das Fatale ist, dass die Antworten meistens nicht offensichtlich falsch sind. Fehler, Ungenauigkeiten oder fehlende Aspekte bemerkt man nur, wenn man vorher schon Wissen zum Thema hat. Die Quellenangaben nützen einem da auch nicht so viel, weil man, wenn man die gleiche Frage dem gleichen Chatbots mehrmals stellt, verschiedene Antworten mit ganz unterschiedlichen Quellenangaben bekommt.

1 „Gefällt mir“