Moin!
Alternative zu sqlite wäre ja zB. einfach ein serialisiertes Array. Wie schaut es denn bei 3.000 Datensätzen mit je ein paar Zeilen Text pro Datensatz aufgeteilt in verschiedene Variablen mit der "Performance" aus. Liest sqlite um Datensatz-X zu extrahieren, oder einige zu Filtern immer die komplette DB in den Arbeitsspeicher ein oder durchläuft ("parst") es das Stückweise?
Du musst vor allem bedenken, dass du mit der Serialisierungsvariante immer den gesamten Datenbestand im Speicher rumschleppst. Das kann sinnvoll sein, das kann aber auch hinderlich sein.
Oder gilt: über Performanceprobleme macht man sich Gedanken, wenn man sie hat (Sven) und o.g. ist schlicht Geschmackssache?
Ja, Performanceprobleme sind dann relevant, wenn man sie erlebt, und die Art der Datenspeicherung ist immer auch eine Geschmacksfrage. Allerdings kann man sich bei manchen Projekten nie sicher sein, dass die Datenmenge nicht doch mal anwächst - warum auch immer - so dass es grundsätzlich keine schlechte Idee ist, die Speicherung lieber einem Subsystem zu übergeben, was darauf ausgerichtet ist, Daten zu speichern und schnell wiederzufinden.
- Sven Rautenberg