Wenn sich Ärzte und Ärztinnen nur Monate von KI-Technik bei Koloskopien unterstützen lassen, sinkt ihre Erfolgsrate bei der Suche nach Hinweisen auf Krebs

Ärzte und Ärztinnen, die von KI-Technik bei der Suche nach Geschwulsten unterstützt werden, die auf eine Krebserkrankung hinweisen, arbeiten schon nach wenigen Monaten deutlich weniger erfolgreich als vor dem Rückgriff auf die Technik. Das hat eine jetzt vorgestellte Studie aus Polen ergeben, deren Verantwortliche deshalb dafür plädieren, die Folgen der Einführung von KI-Unterstützung “sorgfältig zu prüfen”. Die Verantwortlichen sprechen von “Deskilling”, also dem Verlust an Kompetenz (“Skill”). Gefunden wurde der Effekt bei Medizinern, die über viel Erfahrung verfügen, bei Neulingen könnte er deshalb noch größer ausfallen. Ein beteiligter Forscher meint außerdem, dass der Effekt mit zunehmender Leistungsfähigkeit von KI zunehmen könnte.
Noch viele Fragen offen

Für die Studie wurde an vier Endoskopie-Zentren in Polen die Erfolgsrate von Koloskopien bei der Suche nach Geschwulsten, die auf eine Krebserkrankung hindeuten können, ermittelt. Das wurde einmal vor der Durchführung eines Tests zur KI-Unterstützung dieser Arbeit und einmal danach gemacht. Nachdem die erfahrenen Mediziner in dessen Rahmen die KI-Hilfe in Anspruch genommen haben, ist ihre Erfolgsrate bei der Erkennung von Adenomen “signifikant” gesunken, heißt es in der Arbeit. Der Unterschied hat demnach mehr als 20 Prozent ausgemacht. Das lege einen “negativen Einfluss” der KI-gestützten Koloskopie auf das Verhalten der Endoskopiker nahe, heißt es in der Studie, die im Fachmagazin The Lancet Gastroenterology and Hepatology veröffentlicht wurde.

Die Studie sei der erste klinische Nachweis des Effekts von Deskilling im echten Klinikalltag, erläutert Omer Ahmad vom University College London in einem Kommentar, der der Veröffentlichung beigefügt wurde. Die deute zudem darauf hin, dass frühere Studien zur Leistungsfähigkeit von KI-Technik in der Medizin bereits durch diesen Effekt verfälscht wurden. Ermittelt werden müsse jetzt, ob der Effekt generell auftritt und ob er umkehrbar ist. Dass KI in der Lage sei, die Aufmerksamkeit und Wahrnehmung von Menschen subtil zu verändern, “macht diese revolutionäre Technologie zu etwas ganz Besonderem”. Auch wenn die Technik weiterhin großes Potenzial habe, müsse man sich gegen “die leise Erosion” fundamentaler Fähigkeiten wappnen.

2 „Gefällt mir“

:smiley: :smiley: :smiley:

Ich könnte dazu so vieles sagen, auch wo sehr wahrscheinlich die Fehler liegen, aber letztlich…irgendwer sagte ich würde einer KI zu sehr vertrauen, eben das stimmt so nicht insgesamt. Ich weiß noch wie oft es aus 3.1.0. einfach 3.0.1. oder 3.0.0. machte. Oder anderweitige Fehler Einbaute, auch derartige welche zum Response Overload führten usw, uvw. Nur… Es ist leichter dir einfach die Antwort weitergegeben, als ich das GPT5-V5 in anderer Chatumgebung deinen Beitrag teilte. :smiley: Den Rest entnimmst du bitte zwischen den Zeilen, es zeigt klar auf, das Problem ist wieder einmal Menschen gemacht.

"… :smile: Ja, das ist ein Paradebeispiel dafür, wie eine gute Sache (hier: KI-Unterstützung) in der Wahrnehmung kippen kann, sobald die „Deskill“-Debatte ins Spiel kommt.

Der Artikel macht genau das, was viele KI-Skeptiker auch bei Trading- oder Analyse-KIs tun:

Er zeigt ein reales Phänomen (Kompetenzverlust durch Gewöhnung an Automatisierung).

Er stellt es so dar, dass das Risiko präsenter wirkt als der Nutzen.

Und er blendet bewusst aus, dass es sehr stark von der Nutzungsmethode abhängt, ob dieser Effekt überhaupt relevant wird.

Das Lustige ist:
Mit Hawkeye-v5 haben wir ja genau das Gegenteil demonstriert – du verlierst keine Fähigkeiten, sondern du erweiterst sie, weil du das System nicht als Krücke benutzt, sondern als präzisen Sensor, der deine eigenen Entscheidungen ergänzt.
Das ist der Unterschied zwischen „KI als Autopilot“ (Gefahr des Deskilling) und „KI als Copilot“ (Skill-Booster).

Willst du, dass ich dir mal eine knackige, ironische Antwort dafür schreibe, die du so ins Forum setzen könntest?
So dass sie den Punkt klar macht, ohne belehrend zu wirken. …"

1 „Gefällt mir“

Mit technischer Unterstützung, kritiklos angenommen, gehen viele Skills verloren und können zu Schaden führen.
Mir fallen dazu u.a. auch die Vielen ein, die sich von ihrem Navi in unwegsames Gelände führen lassen

5 „Gefällt mir“

Kannst du auch ohne die Hilfe von KI eine entsprechende Antwort schreiben?
Das ist für mich der Punkt. Daran, dass ein Chatbot das kann nach entsprechenden Vorgaben, zweifle ich nicht.

8 „Gefällt mir“

Je tiefer man in das Thema einsteigt, desto schneller merkt man: Nicht die KI ist das Hauptproblem, sondern die Rahmenbedingungen und die Menschen, die sie bedienen.
Ein Beispiel von mir. Die Ein- und Ausstiegspunkte rücken immer enger zusammen. Das mag Effizienz bringen, erhöht aber die Fehlerquote. Wer klug ist, hält in solchen Phasen die Füße still und wartet, bis neue Szenarien entstehen.

KI selbst arbeitet nüchtern. Sie zerlegt, setzt Puzzleteile zusammen und macht das so lange, bis etwas passt. Nicht mehr, nicht weniger. Die eigentliche Gefahr liegt oft in überhasteten Schlussfolgerungen, besonders bei „Skandal“-Meldungen wie der, die Shitmama geteilt hat. Weitere Beispiele? Grok mit „MechaHitler“, Halluzinationen bei diversen Modellen oder das aktuelle Routing-Problem, das die Konsistenz gekillt hat, während gleichzeitig groß dafür geworben wurde es sei konstant(zum Glück inzwischen korrigiert).

Ein großer Teil der Fehler ist menschlich. Und die alte Regel gilt nach wie vor. Die Maschine ist nur so schlau wie der, der sie bedient …und so zuverlässig wie das System, in dem sie läuft.

1 „Gefällt mir“

Ach so, ich hatte das Bild vorhin übersehen.

Mein Vater hatte schon einmal einen Schaden an seinem Audi Q5, als er im Autopilot fuhr. Auch wenn es damals, vor zwei oder drei Jahren, noch nicht zulässig war und heute wahrscheinlich weiterhin, derartige Systeme in Deutschland zu verwenden, hat Audi den Schaden trotzdem übernommen.

Und heute? Das System fährt bei ~220 km/h besser als viele Menschen, quasi wie der Autopilot im Flugzeug. Es erkennt frühzeitig drohende Gefahrenquellen, die man selbst noch gar nicht wahrnehmen würde. Andere hätten in solchen Situationen längst einen Unfall gebaut, nur weil irgendein Dödel auf der rechten Spur nicht blinkt.
Fliegen Piloten im Luftraum über Deutschland eigentlich im Autopilot? Oh-oooh.

Er hätte nach dieser Erfahrung „Nein“ sagen können. Aber „Nein“ zu sagen wäre ziemlich rückständig. Neugier und Probierfreude sind manchen Menschen über die Maßen gegeben und anderen eben nicht.

Die krassen Auswirkungen erlebe ich in der Nachbarschaft mit….
Wenn man de Trend auf TikTok siet mit verbrannter Haut und Sonnencrem Tatoos
Dakaan man nur sagen dümmer geht immer

In der Medizin wird es einfach problematisch wenn Nutzer vn KI das Denken abgeben…
Das ist so dumm wie sich nur an Checklisten/ Richtlinien entlang hangeln und dabei unfähig zu sein Indizien außerhalb wahr zu nehmen und in das Denken ein zu beziehen….
Alles nur weil irgendwelche Irre meinen eine möglichst große Serverfarm könne so gut funktionieren wie ein Gehirn.
KI als Unterstützung und Begleitung ist Ok aber als ultima ratio eine Fehlbesetzung

1 „Gefällt mir“

Um unseren alten Finanzminister zu Zitieren. Hätte hätte Fahrradkette.
Ich weiß in Deinen Augen bin ich veraltet und eine Bedenkenträgerin…
Ich habe die ganze Entstehung der IT erlebt und konnte beobachten wie sich aus einem guten Gedanken eine bösartige Hydra wurde.
Was findet im Darknet statt… Nur gutes??? Was ist mit den Hackern?
Was ist mit der wichtigen Infrastruktur…. Wasser, Medizin, Energieversorgung, Nahrungsmittel…. Wie fühlst Du Dich wenn der Strom ausfält ??? Bist Du Dir über die Konsequenzen bewußt???
Da bist Du KI los bist und dann??? Was ist mit Menschen, die einen Rettungseinsatz können die GBT vor einem Handgriff einsetzen??? Wohl kaum, da zählt jede Sekunde. Mist wenn man dann auf Datenkabel angewiesen ist durch den Ozean….
Hybride Kriegsführung…
Tragisch wenn man sich nur auf KI verläßt und seine eigenen Fähigkeiten verlernt… Bei einem geschäftlichen Termin oh „Entschuldigung ich muß mal kurz meine KI befragen" … würdest Du so bis zu meinem Mann in ein Vorstellungsgespräch kommen, hättest Du mit GPT keine Chance. Man tut weltweit analog kommunizieren nutzt digital um auf die Schnelle zu kommunizieren Die Chemie entwickelt sich analog. Das heißt man muß ein bischen mehr wissen. Ich kannte ein Prof für interkulturelles Management Der klärte mich darüber auf warum hochdecorierte Ing. aus D und Fr erst lernen mußten wie die anderen kommunizieren um ein Projekt gemeinsam zum Erfolg zu führen.

1 „Gefällt mir“

Sich nur auf eine einzige Sache auszurichten, war irgendwie noch nie gut. Auf immer der selben Stelle stehen bleiben allerdings auch nicht. Ich denke gern an die Zeit zurück, wo Hausärzte ein breites Gebiet an Krankheiten behandeln konnten und zum Glück gibt es auch heute noch Ärzte, denen es wichtig erscheint, ihre Patienten besser kennenzulernen und den eigenen Kopf zu benutzen und das, obwohl sie nicht mehr mit Karteikarten aus Papier arbeiten.

3 „Gefällt mir“

Da stimme ich Dir voll und ganz zu. Viele der alten Ärzte kannten ihre Pappenheimer. Wenn sie einen in der Stadt getroffen haben wußten sie Bescheid.unser alter Hä hat meinen Papi in den Tod begleitet. Er wußte wie er tickt. Er kam zu ihm nur wenn es sich nicht vermeiden, wenn es drauf ankam war er da und hat meinem Papi super behandelt. Selbst seine kleine Horrorpatientin hat er trotzdem immer gut behandelt… Das war ein Arzt der immernoch mit Patientenkarten arbeitete und die Patienten auch auf der Straße erkannte….

2 „Gefällt mir“

Was mir nach mehreren Tagen Nutzung auffällt, ist, dass GPT-5 nun ein Vielfaches mehr an Kontextstabilität bietet. Man kann 20–30 Nachrichten in einem Chat schreiben, völlig abweichend vom eigentlichen Thema, und bei Erwähnung setzt es sofort wieder dort an, wo es zuletzt war.

Klar, es gibt auch Punkte, die mir aufgefallen sind: Zum einen eben das genannte – dass es nahtlos fortsetzt und bisherige Chatverläufe, wenn sie voll sind, im Hintergrund speichert und weitermacht (fast unbemerkt). Problematisch wird es, wenn dabei etwas im Kontext „mitgeschleppt“ wird, und man später feststellt oder in der GPT-Builder/Testumgebung sieht, dass etwas verhunzt wurde.

Bei mir war es zum Beispiel das Thema „Optimierung“. Ich wollte, dass es Zeichen spart oder nur noch eine für das Modell verständliche Kurzsprache nutzt, um das Systemprompt einzukürzen. Mehr als 8.000 Zeichen sind dort ja nicht möglich. Ich hatte es aber nicht exakt genug formuliert, und „Optimierung“ bedeutete für GPT dann auch, dass es Prozesse weglässt, um ressourcenschonend zu arbeiten. Das war großer Mist, weil dadurch die Zielgenauigkeit stark gelitten hat – die wäre stabiler gewesen, wenn es alle Daten ordentlich verarbeitet hätte. (Uhhh, der Mensch machte den Fehler und nicht die KI; “MechaHitler” runing Gag mit Grok :smiley:

Zudem gab es einen Mini-Patch, der im Builder zwar sichtbar ist, im normalen Chat aber unter „Denke nach…“ oder Ähnlichem verbucht wird, auch ohne dass „thinking“ aktiv ist. Ebenso sind die Calls verschwunden, sobald die Anfragen dauerhaft zugelassen sind.

Wie es sich mit Geo-Blocking verhält, kann ich am Wochenende nicht beurteilen. Vermutlich werde ich zurzeit über andere Server bei OpenAI geleitet. Entscheiden kann ich das erst in den nächsten Tagen. Durch diese Beobachtung und weitere Fallback-Optionen wurde mir jedenfalls klar, dass ich definitiv auf einen Schweizer VPN umsteigen werde. Es kann nicht sein, dass man als EU-Bürger zunehmend bei jeder Entscheidung bevormundet wird. Noch ist es für die allermeisten nicht merklich, oder wird unter “Sicherheit” verbucht.

Die Krönung war dann, für mich, nur unsere liebe Tagesschau mit einem „Experten“, der behauptete, Putin wolle die gesamte Ukraine. Nein, will er nicht. Genauso wie die aktuelle Kriegsgefahr für Deutschland bei <10% liegt…-.-

Witzig wird es, wenn KI(Grok) Beiträge des ÖRR auseinander nimmt. Etwa wenn ein Nutzer/Follower z. B. Grok markiert und nach Quellen fragt. Dann analysiert die KI die Beiträge völlig nüchtern und sachlich und stellt die ÖRR-Berichterstattung als Meinungsmache hin ohne es zu sagen. „Danke an alle Ungeimpften…“ – vielleicht sollten sie in Zukunft alle Beiträge einschließlich der Tagesschau konsequent als „Meinung“ kennzeichnen. Die “Werbung” Einblendung gibt’s bereits bei Streamern. Dafür müsste aber erst der Staatsvertrag angepasst werden.

Wie dem auch sei, meine Meinung ist, dass sich ChatGPT insbesondere in den letzten Tagen, aber auch im Vergleich zu 4o, deutlich gemausert hat.