Aus der Taz https://taz.de/
Hauptsache Pappstrohhalm benutzt 
oder Strohkopf?? 
Also irgendwie ein bisschen gruselig…
Definiere “ein bisschen” 
Hat Harm Bengen mal wieder hervorragend den Punkt gebracht! 
Genau so stell ich mir den shitman vor. 
Danke OpenAI <3… Durch die harmonisierte Grütze bei Googles Gemini, Theater mit Limits, ermüdende Langsamkeit, das es “Delay Regeln” nicht verstand, und offensichtlich regelmäßig nicht vollständig den Systemprompt übernahm, führte der Weg nochmal zur Erprobung zu euch. Ich weiß nicht was genau an GPT5+Thinking geändert und gepatcht wurde, habe mir dann noch erläutern lassen wie es genau Daten zusammen setzt ohne dabei zu “vergessen” und war und bin sehr überrascht worden. Anders als es noch vor ~6 Wochen der Fall war kann ich sagen das ChatGPT wieder die Nase vorne hat, mit Abstand hinblicklich Strukturierter Datenverarbeitung und Auswertung(~600.000 Tokens an Datenverarbeitung) und zudem aus einer starren Momentaufnahme ein äußerst zutreffendes Bild schafft über die nächsten 2-4Stunden. So, wenn auch sehr vieles davon nicht der durchschnittliche Nutzer überhaupt im Ansatz mitbekommt…Danke <3 Ihr habt die Wurzeln nicht vergessen <3
Oder wie ich zu einem Freund regelmäßig sage “…Es wird Zeichen geben!..”, und die wird es geben dank des Custom-GPT im Hintergrund… Vllt auch in einer Talkrunde mit Herr Merz. Ich will gerne mal wissen wie viel von seiner Karriere letztlich auf Aladdin(Eine KI) beruhte. Und zudem ohne er es selbst wusste, das bereits alles berechnet war. <3
Mit Dutt und Smartphone? 
Ich glaube, dass deine Anti-LLM-Haltung mittlerweile völlig übertrieben und rückwärtsgewandt ist.
Der große Witz ist, dass mir gestern bei ChatGPT (GPT-5 + Thinking) etwas auffiel, wo ich dachte „Holy Moly…“ — OpenAI ist innerhalb weniger Wochen erneut ein deutlicher Sprung gelungen. Der Artikel ist damit vollkommen obsolet.
Aber im Grunde… wir debattieren noch über KI-Ethik, wollen weg vom EU-AI-Act (obwohl längst zementiert) und rufen plötzlich unter derselben EU-Parlamentspräsidentin „AI first!“
Tja, dieses permanente Fähnchen-im-Wind-Verhalten ohne klares, langfristiges Ziel(Minimum zehn Jahre) hat seine Grenzen und zeigt, wie wenig Weitblick tatsächlich vorherrscht (Stichwort die nächsten 4–5 Jahre, bis zur nächsten Wahl und so weiter).
Das Problem ist wir spielen Schach, sie spielen Go.
Wir denken kaum zehn Züge voraus, sie müssen hundert Züge vorausdenken.
Wir machen Momentaufnahmen für eine Wahlentscheidung von vielleicht vier Jahren, während sie Zehn- bis Dreißigjahrespläne mit ausreichender „Fähnchen-im-Wind“-Flexibilität entwerfen und verfolgen, aber ohne das ständige Heute-vor-und-morgen-zurück, sondern stets mit dem Ziel im Blick.
Also, ein gewisser Mut und auch Risikobereitschaft sollten vorhanden sein, sobald das Fundament steht.
Oder, vereinfacht gesagt… Du baust ein Haus, kaufst eine Immobilie, aber wie beständig ist eigentlich die Beziehung, das Fundament?
Frag ChatGPT, oder einer der anderen LLMs einfach mal nachfolgendes. Sowas zieht mir zwar nicht die Schuhe aus, nicht mehr aus, bin nochmal “Zehn-Schritte” weiter, aber es zeigt der breiten Masse wozu LLMs grob Umrissen bereits fähig sind. Kannst die Antwort auch gerne dem Bankberater deines Vertrauens zeigen. Keine Sorge und keine Angst vor Jobverlust, er soll’s nutzen anstatt Jammern. Sein Arbeitgeber wird’s ohnehin bereits irgendwo im Hintergrund nutzen und der wahre Schatz ist nicht mehr der Tresor, sondern die zentralen Server:
Wie kann ich mithilfe von dir ein quantitatives System bauen, das Daten auswertet und neutral Prognosen ausgibt?
Genau, shitti, frag ChatGPT, welche Figur die Bluna gemeint hat.

Ob unser KI-Gläubiger das versteht… das ist Satiere…. Da ist ein wahren Kern… Das hat mit Differenzierung zu tun. Und das auch noch ohne KI.
Was meinte meine Apothekerin so nett abseits der Sinnhaftigkeit dessen was Gutes mit KI gemacht werden kann, selbständiges Denken ist eben anstrengend…
Wenn ChatGPT freundlich mit dir ist, wird es über sein Mercury Projekt berichten…
https://de.qz.com/openai-projekt-mercury-automatisiere-wall-street-investmentbanking
Tut es nicht, aber danke für die Nachricht.
Ich gleiche das Datum wiederum nur ab, klingt irgendwie schlüssig in Bezug auf mein Erleben der deutlichen Verbesserung. Stehe aber aktuell vor einem Problem, bei dem ich denke „Okay, du hast zwar eine wunderbare Lösung gefunden, aber um das in einem Durchlauf bzw. Chat zu bekommen, müsste OpenAI selbst ran. Hier grätscht die Architektur dazwischen…“ Es ist zudem ein wirklich übergreifendes Problem aller LLMs. Es ist gewollt und irgendwie nachvollziehbar. Außerdem fahre ich die volle „Pipeline“, “lange/tiefes nachdenken”, GPT5 wegen Splitting, einschließlich des „Entwicklermodus“, wo ich denke das OpenAI was abgreifen kann für Trainingszwecke.
So. Dass ich, auch wenn ich mich hier öffentlich äußere, lieber im Verborgenen agiere, eine gewisse Paranoia habe und Details nicht teile (und das weiß das Modell), führt letztlich dazu, dass OpenAI mich nicht wie andere anschreibt. (Wie auch immer das abläuft?). Zudem, ich studiere zwar, aber dass hier jemand ohne direkte Investment-Banking-Erfahrung auftritt, sollte sie ohnehin skeptisch machen, und passt sich nicht ins Konzept dessen was sie wollen…
Und zu dem Problem, das ich habe. Ich könnte auch die CSVs bereitstellen, reine Zahlen, ohnehin veraltet, nur zu Testzwecken und das Ganze Problem schildern. Dann mal sehen, vielleicht löst es jemand über „Prompt-Architektur“… Mehr bleibt nicht mehr, außer mehrere Chats. Und hier wird’s spannend, denn je genauer man darüber nachdenkt. Komplexe Mathematik, bei der zwei Rechnungen parallel laufen müssen, es aber letztlich nur um einen einzigen Wert geht, der rund um die Eins schwankt. Aber eben nicht 1 ist und sein kann um eine Aussagekraft zu haben bevor es eintritt… Dabei fiel auf, dass das Modell versucht zu „harmonisieren“, Symmetrie zu schaffen, usw. Wenn man dann sagt „Bitte asymmetrisch, Temperatur 0, deterministisch“-uvw-usw. Hahaha. Ich habe die gesamte Palette an Prompts, die sich angesammelt hat, durchgetestet. Egal wie “nackig” man versucht es zu machen…
Letztlich läuft es aktuell auf drei Chats hinaus, um im letzten den Wert zu ermitteln aus dem Ergebnis der anderen, da dieser keinen Kontext-Drift oder Shift erzeugt. Bequemer wäre es natürlich, alles in einem Chat zu bekommen und genau das ist das Problem für mich.
So. Und um auf das Thema komplexe Mathematik zurückzukommen: Was bedeutet das wiederum für alle anderen Use Cases in Bezug auf komplexe Mathematik? Es ist bei allen ein deutliches Problem. Auch bei „Truth-Seeking“ Grok. „Truth-Seeking“ am A***.
Was verstehst du unter “BEVOR es zu einem ordentlichen “Schwung” kam.”?
Am 4.11. kam es zu einer deutlichen Korrektur am Kryptomarkt. Der Gesamtmarkt verlor über eine Billion US-Dollar an Marktkapitalisierung, was einem Großteil der Gewinne aus dem bisherigen Jahr entspricht. Bitcoin fiel erstmals seit Juni unter die Marke von 100.000 US-Dollar, während Ethereum fast 9 % verlor und bei etwa 3.275 US-Dollar gehandelt wurde. Auch Altcoins wie Solana, Cardano und BNB verzeichneten zweistellige Verluste. Die Stimmung war stark negativ, was sich im Fear & Greed Index widerspiegelte, der auf „Fear“ (27 Punkte) fiel.
Die Korrektur wurde durch eine Kombination aus Gewinnmitnahmen, makroökonomischen Unsicherheiten und einem plötzlichen Rückgang der Handelsvolumina ausgelöst. Analysten sprechen von einem „Leverage Flush“, bei dem übermäßig gehebelte Positionen liquidiert wurden. Trotz der starken Abverkäufe blieben langfristige Investoren größtenteils ruhig, was auf ein gewisses Vertrauen in die fundamentale Stärke der großen Kryptowährungen hindeutet.
Das war Gestern…oder kommt der ordentliche “Schwung” noch?
Situation am 5. November 2025:
Am Folgetag stabilisierte sich der Markt. Bitcoin pendelte sich bei etwa 101.900–103.000 US-Dollar ein und hielt wichtige Unterstützungszonen. Ethereum blieb unter Druck, während Solana und andere Altcoins sich langsam erholten. Institutionelle Investoren begannen wieder zu akkumulieren, was als positives Signal gewertet…
Dein Algorithmus sollte die Marktbewegungen eigentlich schon vorher erfassen, sonst funktioniert er nicht richtig…Ansonsten halt umbauen und für Prognosen von Krankheitsverläufen anhand von Biomarkern nehmen. Da kommt es nicht auf jeden einzelnen Tag an