, (PHP) oder (HTML) ?
Bogus
- perl
halli hallo,
infolge der umstände die ich mit meinen networks habe, bin ich jetzt drauf und dran das ganze über den haufen zu werfen. statisch generierte sites sind nämlich für ein suchverzeichniss unbrauchbar.
bei jeder änderung im layout muss ich alle sites neu generieren. bei jedem link muss ich etliche sites neu generieren, usw.
deshalb möchte ich jetzt evtl. auf .cgi oder andere files umsteigen. sprich jede seite wird automatisch generiert. dazu meine fragen:
welche sprache ist dazu am besten geeignet? .cgi, .php oder andere?
wenn ich das ganze per cgi machen würde, wie sieht es dann bei gleichzeitigem zugriff auf die datenbank aus? ist das ein problem? und gleichzeitiger zugriff auf die datei mit den layout-vorgaben......
wäre toll wenn jemand ein wenig erfahrung damit hat, und mir tips geben könnte. denn das ganze wird ein riesenaufwandt (dabei war ich schon so gut wie fertig :-( und ohne hintergrundwissen will ich nicht alles auf den kopf stellen.
PS: vielleicht könnte mir schnell mal einer ein beispiel für einen aufruf via mSQL schreiben. ich würde gerne wissen wie sowas in einer html-datei aussieht.
mfg
BOGUS
Hatte ich vergessen,
werden diese files (.cgi, .php) von suchmaschinen auch ausgelesen? oder ignoriert?
Hatte ich vergessen,
werden diese files (.cgi, .php) von suchmaschinen auch ausgelesen? oder ignoriert?
Hallo,
geh mal auf www.hughes.com.au die haben die mSQl docu, klar sind auch erfinder von mSql :-)
also ein beispiel:
Das ist der Eintragszähler meiners Jobforums, ist noch im aufbau :-) für jede Jobangebot oder Jobnachfrage, wird eine ID vergeben (= autowert von Access)
dieses Skript frägt jetzt die Ids ab, und gibt deren anzahl aus, ist ein zugriff auf die Datenbank nicht möglich wird ein X ausgegeben:
------------------BEGINN---------------------------
#!/usr/local/bin/perl
use DBI;
#Verbinden mit mSQL-Server
#Öffnen der DB
$dbh = DBI->connect('DBI:mSQL:jobboerse:www.jobforum.at',undef,undef) &error;
$sth = $dbh->prepare("SELECT ID FROM ausschreibungen");
$sth->execute();
$numrows = $sth->rows;
print "Content-type: text/html\n\n";
print "$numrows";
sub error
{
print "Content-type: text/html\n\n";
print "X";
exit(0);
}
----------------END---------------------------
mit PHP3 und MySQL kannst du auch einiges machen, leider steht mir aber PHP3 auf dem server nicht zurverfügung, daher mittels Perl und dem DBI Module
Ciao
Ludwig
also ein beispiel:
Das ist der Eintragszähler meiners Jobforums, ist noch im aufbau :-) für jede Jobangebot oder Jobnachfrage, wird eine ID vergeben (= autowert von Access)
Ganz dumme Frage mal.. Access und Unix.. ist das nicht
ein Wiederspruch an sich.. ??
Also ich bekomme immer nur mit das das die für die Unix-Fans
meist MS das böse schlechthin ist.. wie verträgt sich
das denn mit ner Access-Database ??
Sorry.. wunder mich nuir weil ich ASP-Fan bin.. *g*
gruss
Jens
ID vergeben (= autowert von Access)
Ganz dumme Frage mal.. Access und Unix.. ist das nicht
ein Wiederspruch an sich.. ??
Ich hab ja keine Access datenbank.. nur eine ID und damit jeder gleich weiß was ich damit meine hab ich halt hingeschrieben das es ungefähr sowas wie der Autowert in Access ist.
ciao
Ludwig
Kann mir einer sagen ob suchmaschinen .cgi files indexieren?
thnx
BOGUS
Hi Bogus,
kommt darauf an, Infoseek z.B. indiziert bestimmte Extensions wie z.B. .php3
generell nicht. Den meisten Suchmaschinen ist zwar die Extension egal,
aber sie indizieren nichts, was sich nur in GET-Parametern unterscheiden, wie
www.server.de/news.php3?id=21
Deshalb ist es sinnvoll, den Suchmaschinen statische Seiten vorzugaukeln,
z.B. mit mod_rewrite oder sonstigen Tricks, die dazu führen, daß die
Url wie die einer statischen Seite wirkt. Ein Beispiel für so etwas findest
Du für PHP unter
http://www.phpbuilder.com/columns/rasmus19990407.php3
Grüße
Stephan
Zur Ergaenzung von Stefan Hubers Info: Das mit den statischen Seiten ist die eleganteste Methode, sollte aber wirklich nur dann angewendet werden, wenn sich die Infos auf der entsprechenden Seite nicht taeglich aendern.
Ansonsten stehts in der Suchfibel, etwas kurz, zugegeben: "Die Grenzen der Suche im Netz."
http://www.suchfibel.de/2kunst/2frame7.htm
Ich werde es aber nochmal in das Kapitel "Selber gefunden werden" an entsprechender stelle einbauen. Man kommt leicht hin, wenn man in der Suche einfach nur cgi eingibt.
Die Robotrogrammierer handhaben das aber alle unterschiedlich, so dass keine pauschalen Hinweise gegeben werden koennen.
Aus Sicht der Robots ist es aber eigentlich klar:
Dynamisch generierte Dokumente sind nur im Augenblick der Generierung aktuell. Der Link muss also zwangslaeufig immer veraltet sein; insofern macht eine Indexierung keinen Sinn.
Seiten, die von Redaktionssytemen erstellt werden, sollte daher statisch sein. Macht auch aus Resourcensicht Sinn. Wenn eine sowieso statische Seite jedesmal neu generiert werden muss, kostet das auf Dauer ganz schoen Rechenzeit.
gruss, kaz
hye,
wie ich mitbekommen habe, geht es darum das es schlecht ist wenn die seiten sich nur durch den query-string unterscheiden bzw. wenn sie sich ständig ändern.
info dazu: die seiten ändern sich logischerweise wenn ein link dazukommt. egal ob statisch oder dynamisch.
die seiten unterscheiden sich nicht durch den übergabe-parameter, sondern für jede seite gibts ein eigenes .cgi file. ich hätte aber den vorteil das ich zb. änderungen am header nur in einer datei ändern müsste auf die die cgi fiels zugreifen. auch bei einem neuen link müsste ich die site nicht neu generierten, sobald er in der ‚datenbank ist wird er angezeigt. und auch sonst hätten .cgi datein anstelle der .shtml dateienn einen grossen vorteil für mich.
verzeiht mir wenn ich nochmal blöd fage: aber wird ein .cgi file welches zb. nur eine normale html seite ausgibt, ausgelesen...??
danke, cu
BOGUS
ich hätte aber den vorteil das ich zb. änderungen am header nur in einer Datei ändern müsste auf die die cgi files zugreifen.
Genau dafüt gibt es doch eigentlich SSI.
Meine HTML-Seiten sind im Prinzip überwiegend statisch.
Sie enthalten aber im Detail ein paar dynamische
Komponenten, beispielsweise ihre eigene URL oder das Datum ihrer letzten Änderung. Oder vielleicht auch eine Tabelle von links - das ist egal.
Die Dokumente sind dabei zunächst einmal normale HTML-Dateien, aber mit eingebetteten CGI-Aufrufen (in meinem Falle reicht SSI-INCLUDE, für komplexere Fälle würde SSI-EXEC reichen, womit Du dann CGI-Ausgaben einfließen lassen kannst).
Ich habe beispielsweise die Fußzeile für meinen gesamten Intranet-Server als HTML-Seite, die ich mit Hilfe von SSI in alle Seiten einblende. Wenn ich da was ändern will, dann ändere ich nur genau diese Fußzeilendatei, und der Webserver fügt sie bei jedem Zugriff auf eine normale Seite ein ...
auch bei einem neuen link müsste ich die site nicht neu generierten, sobald er in der ‚datenbank ist wird er angezeigt. und auch sonst hätten .cgi datein anstelle der .shtml dateienn einen grossen vorteil für mich.
Und der wäre? In beiden Fällen würdest Du CGI aufrufen, einmal explizit, einmal implizit.
SSI-Seiten werden zudem mit ziemlicher Sicherheit von den Suchmaschinen indexiert, weil die ja gar nicht merken können, daß SSI verwendet wurde.
verzeiht mir wenn ich nochmal blöd fage: aber wird ein .cgi file welches zb. nur eine normale html seite ausgibt, ausgelesen...??
?! Von wem?
Hi,
deshalb möchte ich jetzt evtl. auf .cgi oder andere files umsteigen. sprich jede seite wird automatisch generiert. dazu meine fragen:
gute Wahl :-)
welche sprache ist dazu am besten geeignet? .cgi, .php oder andere?
Mit PHP habe ich keine Erfahrung, aber es scheint mir mehr mit SSI vergleichbar zu sein. Jedenfalls halte ich CGI allgemein für sehr gut dafür geeignet.
wenn ich das ganze per cgi machen würde, wie sieht es dann bei gleichzeitigem zugriff auf die datenbank aus? ist das ein problem? und gleichzeitiger zugriff auf die datei mit den layout-vorgaben......
Wenn nur gelesen wird, ist das absolut kein Problem. Wird zwischendurch auch geschrieben, mußt Du ein bißchen aufpassen beim scripten, aber das geht auch.
wäre toll wenn jemand ein wenig erfahrung damit hat, und mir tips geben könnte. denn das ganze wird ein riesenaufwandt (dabei war ich schon so gut wie fertig :-( und ohne hintergrundwissen will ich nicht alles auf den kopf stellen.
Tja... fang erst mal klein an! Hilfe kriegst Du hier :-)
PS: vielleicht könnte mir schnell mal einer ein beispiel für einen aufruf via mSQL schreiben. ich würde gerne wissen wie sowas in einer html-datei aussieht.
Ich benutze immer meine eigenen Datenbanken, da weiß ich was ich habe. In einer HTML-Datei kann man das aber ohnehin schlecht aufrufen; Du verlinkst halt auf eine .cgi- oder .pl-Datei, welche die Datenbank bearbeitet und daraus eine "ganz normale" HTML-Datei macht.
A propos: Ich bin nicht sicher, aber schätzungsweise werden die Seiten dann von den Suchmaschinen nicht mehr durchwühlt. Steht dazu was in der Suchfibel? http://www.suchfibel.de
Cheatah
welche sprache ist dazu am besten geeignet? .cgi, .php oder andere?
Mit PHP habe ich keine Erfahrung, aber es scheint mir mehr mit SSI vergleichbar zu sein. Jedenfalls halte ich CGI allgemein für sehr gut dafür geeignet.
PHP ist eher mit ASP zu vergleichen, statt mit SSI.
Ein Freund von mir hat seine Seiten auch teilweise mit PHP in Verbindung mit mSQL an eine Datenbank angebunden und es scheint sehr gut zu funktionieren.
Eine weitere Möglichkeit wäre MIVA mit mSQL. Auch MIVA ist ähnlich wie ASP.
Maxboy