Ich wollte einfach mal herausfinden wie lange mein Script braucht. Müsste ja eigentlich nicht schwierig sein. Das, was herauskommt ist aber völlig unrealistisch!
Wo liegt das Problem?
function Los(x, y){
start = new Date();
startzeit = start.getTime();
x = parseFloat(x)
y = parseFloat(y)
var ausgabe = "<div align='right'><br/>"
var lösung = new Array
for (i=x; i <= y; i++){
lösung[i] = i*i
}
for(i=x; i<= y; i++) {
ausgabe = ausgabe + i +" ^ 2 = " + lösung[i] + "<br/> "
}
ausgabe = ausgabe + "</div>"
document.getElementsByName("ausgabe") [0].innerHTML = ausgabe
aktuell = new Date();
zeit = (aktuell.getTime() - startzeit) / 1000;
alert(zeit + " Sekunden benötigte der Script" )
}
Auf meiner Website hier könnt iíhr auch es im zusammenhang angucken.