Halihallo Michael
hast Du mal den Quelltext von "tail" gelesen?
Nein, aber deine Ausführungen reichen für das Verständnis.
Mein Ansatzpunkt für eine wirklich performante [tm] Lösung wäre, alles zu verwenden, was an Information vorhanden ist.
Hm. Angestrebt war eine Lösung in Perl, aber das Verfahren liesse sich portieren (s.
Christian Seilers Beispiel, danke Christian!).
Dies würde die Disk-I/O-Rate bei großen Dateien wahrscheinlich stark reduzieren.
Stimmt. Ich mag mich da an einen log-file-analyser erinnern, der auch auf diese Weise
performant Daten selektieren sollte (die Suche ist grad überlastet, sonst würde ich
verlinken).
Eben. Meine Idee versucht sogar, gar nicht erst die ganze Datei zu lesen.
Ja, der Vorschlag ist sehr gut! - Die binäre/random-access Lösung finde ich sehr gut und
ist für eine wirklich effiziente Lösung nötig. Ich war hier zu textuell an das Problem
gegangen :-) [naja, ich wollte nicht die perfekteste aller Lösungen, sondern eine, die
auch halbwegs in 300 Zeichen unterzubringen ist und man für die 10-last-lines Frage
verwenden kann]
Danke an alle für den Input!
Viele Grüsse
Philipp
RTFM! - Foren steigern das Aufkommen von Redundanz im Internet, danke für das lesen der Manuals.
Selbstbedienung! - Das SelfForum ist ein Gratis-Restaurant mit Selbstbedienung, Menüangebot steht in den </faq/> und dem </archiv/>.