Moin,
wollte mal meine Meinung über KI und dessen unreflektierte Nutzung teilen…
Ich bin schon immer ein ziemlich technikaffiner Mensch… war schon als Kind fasziniert von Warp-Antrieben, Raumschiffen, Computern, Zukunftstechnik im Allgemeinen.
Umso enttäuschter war ich, als ich langsam erwachsen wurde, dass es im Jahr 2000 immer noch keine schwebenden Autos, echte Raumschiffe, oder flächendeckend Automatiktüren gab, wie in StarTrek.
Genau aus diesem Grund freue ich mich über jede technische Errungenschaft und bin oft einer der ersten der neue Technologien für sich testet, ob das damals Handhelds waren, oder später Smartphones, oder 1982 mein erster Computer in Form eines Commodore 64.
Insofern war ich natürlich auch von der Weiterentwicklung von “künstlichen neuronalen Netzwerken” in der KI Forschung anfangs extrem begeistert.
Ich habe mich viel mit KI-Technologie auseinandergesetzt und bin relativ unvoreingenommen und auch möglichst unkritisch auf diese neuen Erkenntnisse zugegangen.
Was allerdings schnell von Skepsis überschattet wurde, als mir immer mehr die Lügen der KI-Industrie bewusst wurden. Erstens ist der Begriff “Künstliche Intelligenz” zumindest in der deutschen Übersetzung komplett fehlleitend, weil es Intelligenz vorgaukelt wo keine ist. KI ist sozusagen nichts anderes als eine Wahrscheinlichkeitsprognose aus erlernten Informationen, die beim Training der sogenannten KI bereitgestellt werden.
Die Technik an sich ist interessant, aber was die breite Masse als KI versteht ist ja nicht die Existenz von LLM (Large Language Models), sondern so etwas wie ChatGPT, ClaudeAI oder Gemini, also Sprach- bzw. Chatassistenten im weitesten Sinne.
Also nur ein geringer Teil der ganzen KI Forschung, aber auf genau den möchte ich mich hier beziehen. LLM’s die mit riesigen Datenmengen gefüttert werden um viele Fragen beantworten zu können.
Zwar weisen Alle Anbieter im Kleingedruckten darauf hin, das KI fehler macht, halluziniert und damit effektiv oft einfach falsche Informationen herausgibt, aber die meisten Nutzer ignorieren diese Tatsache gepflegt, und laufen dann mit erfundenen Erkenntnissen los und glauben sie.
Was viele nicht verstehen, KI kann zwar nützlich sein, wenn ich sie korrigiere weil ich selbst genug Sachverstand auf dem Gebiet habe, sie ist aber ein ebenso schlechter Berater, wenn ich nicht fähig dazu bin die Ergebnisse kritisch zu hinterfragen und zusammenhaluzinierte Inhalte aufzudecken.
Das ist aber ein großes Problem weil KI mittlerweile in so vielen Bereichen oft völlig unreflektiert genutzt wird, und falsche Erkenntnisse der KI einfach geglaubt werden, weil es ja angeblich eine “Intelligente Maschine” ist - die wird ja wohl keine Logik-Fehler machen…
Und genau dieses blinde Vertrauen in eine völlig unausgereifte Technik, die aus Profitgier viel zu früh und weit entfernt von Marktreife, von zu vielen Anbietern veröffentlicht wurde. Das hat zur Folge, dass viele die diese Technik nutzen, mit einer völlig falschen Erwartung an diese Technik herangehen, und Fake verbreiten, den sie nicht weiter überprüft haben.
KI ist unausgereift und sehr Fehleranfällig, und anstatt dem Nutzer offen zu sagen: “Zu Ihrer Frage habe ich leider keine gesicherten Erkenntnisse” werden Mutmaßungen angestellt, ähnliche Lösungen auf Dinge übertragen, wo diese definitiv nicht funktionieren, und zur Not herumhaluziniert. Die Betreiber stehen hier vor einer großen Herausforderung, denn selbst Experten in der Entwicklung von LLM, können nicht erklären, wie die Ergebnisse in dem neuronalen Netzwerk zustande kommen. Es ist sozusagen eine “einigermaßen funktionierende, aber fehleranfällige Blackbox”. Und um so größer die Datenmenge die zum Training genutzt wird ist, umso höher wird die Fehleranfälligkeit.
Ich denke einerseits sollte jedem Nutzer bewusst sein, dass wir unkontrollierbare Monstren erschaffen haben, die wir selbst in Funktion und Technik nicht mehr nachvollziehen können, und zudem sollten KI wirklich nur diejenigen Nutzen, die genug Kenntnis mitbringen um Ergebnisse kritisch hinterfragen zu können.
Ich weiß, das ist eigentlich kein Thema für ein MS-Forum, aber da es hier in letzter Zeit auch vermehrt dazu kommt, dass Menschen unreflektiert KI-Inhalte verbreiten, fand ich es wenigstens in Teilen relevant.