Wenn ich den See seh,
brauch ich kein Meer
mehr
Ich bastle seit mehreren Tagen wie ein Verrückter am Systemprompt und an den APIs für mein Custom-GPT herum. Dabei tauchen immer neue Probleme auf. Zuerst, das war, als GPT-5 frisch für alle verfügbar war, jammerten viele über die ständig wechselnde „Persönlichkeit“ und mangelhafte Kontinuität. (Das lag am sprunghaften, aggressiven internen Modell-Routing.)
Bei mir war das Problem weitestgehend beseitigt, weil das große Modell „tanzen“ musste aufgrund des Umfangs der Aufgabe, bei der es “alle” Ressourcen benötigt.
Dann traten neue Schwierigkeiten auf. Die API-Anfragen waren zu groß. 200 kB – was soll ich damit? Ich will alle Daten. Also musste ich abspecken. Danach folgten neue, andere Routing-Probleme. Ich wusste nicht einmal, dass bestimmte Rechenzentren von OpenAI kleine „Problemchen“ mit den Zielservern haben, die abgefragt werden. Sprich bei Anfrage bei den Zielservern geblockt werden wegen “verbotene Region”… -.-
Es ging dort schon lange nicht mehr darum, ob das, was ich mit Hilfe des GPT zusammenbastelte, überhaupt funktioniert. das sehe ich auf der dazugehörigen eingerichteten Wallet.
Gegen das nächste Routing-Problem half nur, über einen Proxy+Zwischenspeicher zu gehen, z. B. einen Mini-PC bei mir zu Hause. Gesagt, getan. Funktioniert.
Dann machte ich mir Gedanken über die Größe meiner Anfragen. Sie sollten gesplittet werden, damit GPT sie Stück für Stück wieder zusammensetzt und ich für die Zielserver aussehe wie ein 08/15-User mit normalen API-Anfragen. Funktioniert auch, und es steht nicht mehr „OpenAI“ in den Adressen.
Was aber bleibt, ist der Gedanke an den Leistungshunger. Ich muss abspecken oder die Anfragen anders verpacken, um möglichst robuste Informationen zu erhalten, mit denen GPT trotzdem stabile Ergebnisse liefert.
Nur…In der Browseroberfläche und im Testmodus sehe ich genau, welche „Knöpfe“ bei GPT alle aktiv werden und frage mich “Will ich das wirklich abspecken? Das zieht natürlich ordentlich Leistung.”
Zur Vorstellung: Eine einzelne Anfrage verschlingt bei mir insgesamt 20–30k Tokens…halber Roman. Nur…Sechs Zeilen Prompt von mir, zwölf Zeilen Antwort vom Custom-GPT. Bei mir sind es mindestens drei bis fünf Prompts fürs Eigentliche, und maximal 20–30, wenn ich teste oder herumpfeile.
Ach ja, ein weiteres Problemchen: Wenn neue Chats über den Custom-GPT in der App gestartet werden, spinnt die API. Starte ich den Chat jedoch im Browser und setze ihn in der App fort, funktioniert es. Aber das sind Kinderkrankheiten, von denen ein durchschnittlicher Nutzer so gut wie nichts mitbekommt und sehr wahrscheinlich auch niemand von den Heavy-Usern, die ab Stunde eins wegen des Routings rumgenörgelt haben („Mein GPT ist anders, why?“).
Es geht bei mir also längst nicht mehr um Halluzinationen, wie vertrauenswürdig oder andere Macken, auf die in der Masse geschossen wird. Die sind ohnehin direkt für mich überprüfbar. Es geht vielmehr um den Leistungshunger, durch den man ganz klar aus der Masse hervorsticht und genau das will ich vermeiden.
GPT ist ein LLM, ja. Mit gigantischen Wissen gefüttert, aber im Kern auch ein Wahrscheinlichkeits-Modell…und zudem ein sehr gutes mit pompöser Infrastruktur.
Mir macht das zur Zeit spaß, wenn’s auch meine Frau nervt, da sie mitbekommt wie fokussiert und vernarrt ich darauf bin bis es funktioniert.
PARABEL. Zentrum für Kunst in Hamburg – Wikipedia
das ist nicht weit von mir und ich fand auch jemanden, der gefahren ist.
hier ein paar Impressionen von Bildern*, die mich besonders ansprachen.
es sollen Bilder sein, in denen die Nachkriegsjahre verarbeitet sein sollen.
ist viell nicht jedermann/fraus sache, aber ich war froh, mal aus dem Hamsterrad rauszukommen und meinen kopf mit was anderem als mangelnde Gesundheit zu beschäftigen.
Moin…
das funktioniert schon, nur verbietet das Forum direkte Links zu bestimmten Inhalten…
Du kannst zwar nacheinander in einem Beitrag die Links zu den einzelnen Bildern (die Du nach dem hochladen erhältst) einfügen, aber nicht den link zu einer Galerie mit allen 3 Bildern, dann funktioniert es nur so, wie Du es jetzt gemacht hast 
Ich spiele FLIZZ Quiz…falls noch jemand, kann man mich unter Pauline7374 herausfordern 
Herzlichen Dank für den Tipp 

Haha! Geschehen 
Oh, Paule + Paulina…
ein Schelm, wer Böses denkt. 
stimmt! Und das ohne Absicht
Die @Paulina212 macht mich rund bei dem Spiel.
Ist aber spaßig und Luft nach oben spornt ja auch an 
Wünsche euch viel Spass 
Mach doch mit!
Im moment geht nur mal scrabble zwischendurch. Ich behalte es aber im blick… danke fürs Angebot 