Eine Sache die vielleicht dem ein- oder anderen nicht so ganz bekannt ist:
LLMs (also 'KI's wie 'ChatGPT', 'Bard', etc.) lernen nicht aus euren Eingaben. D.h. Der Bot lernt nicht während dem Chat dazu.
Ja, wie - oh grosser Bitschieber im All - kann sich chatGPT denn dann an Dinge erinnern, die ich einen oder ein paar Sätze vorher gesagt habe?
Ganz einfach, diese "Erinnerung" ist ein Feature der Benutzerschnittstelle des Bots - bei jedem neuen Query hängt diese die bisherige Chat-Historie (das was ihr bisher eingegeben habt) klammheimlich und unsichtbar für euch an die neue Eingabe an. Damit vergrössert sich diese auch ständig und irgendwann wird sie dann - älteste Eingaben von euch zuerst - gekappt, damit das System nicht vor lauter Eingabemenge erstickt. Dieses 'Kappen' wird auch vom LLM selbst erledigt, indem im Hintergrund eine knappere Zusammenfassung eurer Eingaben erzeugt wird - aber in jedem Fall geht Information (die ihr früher im Verlauf eingetippt habt) dabei bei längerem Chat-Verlauf verloren.
Damit orientiert sich die nächste Ausgabe am Verlauf der bisherigen Konversation, ist aber nicht wirklich am „Lernen“. Das neuronale Netzwerk selbst wird nicht aktualisiert. Ein solches vollständiges Update des NN dauert nämlich sehr sehr lange (u.U. Tage/Wochen).