Ich habe letzte Woche versucht, mit einem KI-Tool eine Zusammenfassung für ein Projekt zu erstellen, und das Ergebnis hat mich echt stutzig gemacht. Es klang nicht nur seltsam unpersönlich, sondern hat auch einen zentralen Punkt aus meinen Notizen komplett weggelassen, obwohl ich ihn klar formuliert hatte. Jetzt frage ich mich, ob ich dem Tool einfach zu vage instruiert habe oder ob so etwas öfter passiert. Mir ist klar, dass die KI keine Absichten hat, aber es fühlt sich trotzdem komisch an, wenn ein Text durch eine KI-Halluzination plötzlich eine andere Richtung nimmt. Geht das nur mir so, oder habt ihr auch schon erlebt, dass die Ergebnisse manchmal inhaltlich abdriften, obwohl die Eingabe doch spezifisch war?
Ja klar das kenne ich du schickst eine klare Notiz und bekommst eine KI Antwort die sich kalt und unpersnlich anfühlt
Die Halluzinationen kommen nicht aus Absicht sondern aus Wahrscheinlichkeiten Kontextfenster und Token Grenzen oft fehlt der Bezug zum zentralen Punkt weil der Text auf Muster statt auf Bedeutung zielt
Vielleicht habe ich den zentralen Punkt selbst zu vage beschrieben und der Algorithmus hat ihn als weniger relevant eingestuft obwohl ich ihn klar formuliert hatte
Stimmt die Prämisse dass die KI keine Absicht hat oder ist das eher eine Vereinfachung damit man sich nicht fragt wer was anstrebt
Ich bin skeptisch ob feines Prompting allein reicht oft hilft nur ein klarerer Output Goal sonst driftet der Text ab
Vielleicht lohnt es das Thema als Rahmen statt Richtung zu betrachten also erst eine Struktur zu geben und dann die Inhalte zu prüfen statt die ganze Richtung dem Modell zu überlassen
Eine Idee wäre dem Modell explizite Beschränkungen zu geben damit es relevante Punkte zuerst zusammenfasst ohne zu sehr abzuschweifen