Ich stehe gerade vor einem kleinen Problem in meinem aktuellen Projekt und wollte mal hören, ob das jemandem ähnlich geht. Ich versuche, die Performance eines Vorhersagemodells zu verbessern, aber egal welche Features ich hinzufüge oder welche Architektur ich ausprobiere, die Genauigkeit stagniert einfach auf diesem einen Plateau. Es fühlt sich an, als würde ich im Kreis laufen. Besonders frustrierend ist, dass ich das Gefühl habe, die Daten müssten eigentlich mehr hergeben. Hat jemand von euch schon mal erlebt, dass ihr einfach nicht weitergekommen seid und wie seid ihr da rangegangen?
Ja das kenne ich. Man arbeitet sich im Kreis und die Genauigkeit bleibt flach, vielleicht liegt es eher an der Datenqualität als an der Architektur oder daran dass wir die Zielsetzung falsch messen.
Analytisch aber ruhig: Vielleicht ist das Plateau ein Signal dass die Datenverteilung nicht gut abgedeckt ist oder die Kapazität des Modells an Grenzen stößt. Eine stabile Baseline und das Prüfen der Lernkurve könnten helfen.
Wie sicher bist du dass die Messung nicht zufällig entsteht oder durch Hidden Leakage beeinflusst wird?
Vielleicht missverstehst du die Prämisse mehr Daten bedeuten nicht automatisch bessere Genauigkeit manchmal ist das Muster im Datensatz einfach zu fragmentar.
Ein neuer Rahmen könnte sein wie ein Erzähler in einem Krimi die Motive der Features liest statt zu fragen wie man mehr Daten rein nimmt.
Noch ein offener Blick: was wenn der eigentliche Konflikt nicht im Modell sondern in der Frage liegt und sich die Lösung erst zeigt wenn man die Zielsetzung neu formuliert.