derletztekick: Einlesen mit XMLHttpRequest() begrenzen

Beitrag lesen

Hallo Christoph,

Wenn ich es denn erwerben würde^^
https://forum.selfhtml.org/?t=107053&m=664594
Wie dort beschrieben kann ich nicht mit getElement(s)by... auf Teile des Strings zugreifen...

Autsch, ja, meine Schuld, hab' ganz vergessen das Dein Server nicht auf XML eingestellt ist, 'tschuldigung.

Und ich dachte schon, ich würde mich zu blöd anstellen ;-)) Das es mit XML Dateien funktioniert, habe ich bereits bemerkt. Daher war einer meiner drei Fragen, warum die XML Datei nicht als solche ausgeliefert wird. Würde sie nicht als text/plain kommen, hätte ich mit Hilfe einer Checkbox den User vor die Wahl gestellt, ob er eine IndexSuche oder eine VolltextSuche möchte. Bei der IndexSuche hätte er dann nur die XML geladen, in der ich verschiedene Suchbegriffe selbst definiert hätte - lokal funktioniert das auch, aber media-n macht mir da ja ein Strich durch die Rechnung. Dann müsste zwar immer noch eine Datei geladen werden, aber was ist das schon im Vergleich zu 8 oder mehr?
Auch sonst sollte es meiner Meinung nach nur möglich sein mit getElement(s)By... auf einen bestimmten Teil zu zugreifen, wenn es sich um eine XML Datei handelt. Einen Weg, bestimmte Elemente anzusprechen wenn es sich um eine nicht XML Datei handelt habe ich (@localhost) noch nciht gefunden.

Ach, da wirst Du in Deinem Leben noch so manche vermeintlich gute Idee wegschmeißen müssen, glaub's so einem altem Sack wie mir ruhig ;-)

Da ich eigentlich immer nur ein wenig probiere und "spiele" dauert ein Script manchmal länger als es nachher aussieht. Von daher suche ich natürlich primär eine Lösung ohne das bereits erstellte vollständig über den Haufen zu werfen - ich denke das wird auch einem alten Hasen nicht anders gehen?

keyword[0] = new Array ('Wort1', 'seite1.html', 'seite2.html');
keyword[1] = new Array ('Wort2', 'seite2.html', 'seite4.html', 'seite5.html');
...

Ja, das ist ein Inverted Index. Drum heißt er ja auch _inverted_ Index ;-)

Aha, dann lag ich ja gar nicht so falsch - wer hätte das gedacht ;-)
Mal sehen, wie und ob ich das mache. Immerhin habe ich nur ganze 8 Seiten, die zu durchsuchen wären (das meinte ich mit probieren und spielen) - ob das Lohnt?

Du solltest Dir wenigsten ActivPerl besorgen, Perl erleichtert so einiges. Grundkenntnise in Perl sind eh zu empfehlen.

Sind sie? Habe im winter gerade mal ein bischen mit PHP was gemacht, zuviel Veränderung sind auch in jungen Jahren nicht vorteilhaft^^
Mir wäre es da lieber, wenn ich das eine erstmal etwas perfektionieren könnte, als alles ein wenig anzuschneiden. Und JavaScript war letztlich nicht so schwer - zumindest das, was _ich_ kann. In der Schule hatte ich die Grundlagen in Java, so das der "Umstieg" nicht so schwer war (Syntax usw).
Der ObjektOrientiereAnsatz wurde uns jedoch nicht vermittelt, so dass ich mich hier auch schwer tue, in JS einen solchen Ansatz zu finden. Letztlich läuft es hier immer auf try & error aus - was auch nicht unbedingt schlecht ist aber mit unter viel Zeit in Anspruch nimmt...

56 Dateien? In Worten: sechsundfünfzig? Bei insgesammt 1446, dem fast sechsundzwanzigfachen? Nene, Kollege, so wird das nix mit dem Benchmark ;-)
Ja, das meinte ich damit: Bottleneck ist das Laden selber.

Also, wie gesagt: vermeide es so weit als möglich Dateien zu holen, dann klappt's auch mit der Suche Online.

Ja, als offline Suche ist es bereits okay (meiner Meinung nach)
Wie hier beschrieben:
https://forum.selfhtml.org/?t=107053&m=664633

Habe ich mit meinem JS mal die Dokumentation von SelfHTML 8.0 gescannt. In weniger als 10 Sekunden war das Ergebnis da - zufriedenstellend, wie ich finde! Online natürlich eine Katastrophe, wenn man das hochrechnen würde...

Wenn ich mir Deine Argumente mal so zu Herzen nehme, werde ich wohl mein bisherigen Ansatz ins Archiv tuen und von vorn anfangen. Vll hat ja bald einer die bahnbrechende Idee, es zu verbessern.

Mit freundlichem Gruß
Micha