Geschwindigkeitstest

Fragen zu allen Themen rund ums Programmieren außerhalb von phpBB können hier gestellt werden - auch zu anderen Programmiersprachen oder Software wie Webservern und Editoren.
Benutzeravatar
rockford
Mitglied
Beiträge: 846
Registriert: 27.02.2005 18:42
Wohnort: Burghausen
Kontaktdaten:

Beitrag von rockford »

Jetzt kommt die Leihenfrage...

Was wäre denn normal?
d23
Mitglied
Beiträge: 132
Registriert: 28.01.2003 13:53

Beitrag von d23 »

An Bandbreite ?

Wenn du nicht mit zuvielen zusammen liegst, sollten eigentlich 100 MBit (in Realität bis zu 12 MB / sec) normal sein. Bei Webhosting wirst du die allerdings kaum erreichen, ich denke aber, 1-2 MB / sec sollten drin sein.
Benutzeravatar
Jan500
Ehemaliges Teammitglied
Beiträge: 4199
Registriert: 01.03.2003 21:32
Wohnort: Hamburg
Kontaktdaten:

Beitrag von Jan500 »

20:05:12 (433.84 KB/s) - `datei.zip' saved [5698307/5698307]
sooo schnell ist das immernoch net :D

Jan
"Life begins at 40 Knots...!" :D
kein (kostenlosen) Support per pn, mail, icq usw. | Kostenlosen Support gibt es hier im Forum!
Jensemann
Ehemaliges Teammitglied
Beiträge: 2549
Registriert: 25.02.2002 01:00

Beitrag von Jensemann »

Ähm, wenn seine Webseiten langsam reagieren, liegt das sicherlich nicht daran das der Webserver nur 160 KB/s oder 500 KB/s ausliefert. Es sei denn, er hostet dort Videos oder ähnliche grosse Sachen.

Mach das was S2B sagte und messe erstmal die Ausführungsgeschwindigkeit der PHP Scripte, klar das macht nicht soviel Spaß wie hier lustig Dateien downloaden, bringt aber bessere Klarheit. Danach guckst du, ob das Problem alle Seiten betrifft, oder primär Seiten mit vielen Objekten (viele Grafiken, viele CSS Dateien, viele Scripte). Vielleicht nutzt der alte Hoster mod_deflate oder mod_gzip und der neue nicht. Starte Firefox und installier dir Firebug, dann guckst du mal auf den Seiten die sehr langsam sind in Firebugs Net-Tab, da steht dann wie lange jede einzelne Datei zum Download brauchte.

Meine Webseite ist langsamer bei X als bei Y, kann leider grob über den dicken Zeh gepeilt 200 verschiedene Ursachen haben. Mit ein wenig Testdownloaden, kommst du da zu keinen aussagekräftigen Ergebnissen, aber exakt die brauchst du, um deinem Hoster aufs Dach zu steigen.
Benutzeravatar
rockford
Mitglied
Beiträge: 846
Registriert: 27.02.2005 18:42
Wohnort: Burghausen
Kontaktdaten:

Beitrag von rockford »

Jensemann hat geschrieben:Ähm, wenn seine Webseiten langsam reagieren, liegt das sicherlich nicht daran das der Webserver nur 160 KB/s oder 500 KB/s ausliefert. Es sei denn, er hostet dort Videos oder ähnliche grosse Sachen.

Mach das was S2B sagte und messe erstmal die Ausführungsgeschwindigkeit der PHP Scripte, klar das macht nicht soviel Spaß wie hier lustig Dateien downloaden, bringt aber bessere Klarheit. Danach guckst du, ob das Problem alle Seiten betrifft, oder primär Seiten mit vielen Objekten (viele Grafiken, viele CSS Dateien, viele Scripte). Vielleicht nutzt der alte Hoster mod_deflate oder mod_gzip und der neue nicht. Starte Firefox und installier dir Firebug, dann guckst du mal auf den Seiten die sehr langsam sind in Firebugs Net-Tab, da steht dann wie lange jede einzelne Datei zum Download brauchte.

Meine Webseite ist langsamer bei X als bei Y, kann leider grob über den dicken Zeh gepeilt 200 verschiedene Ursachen haben. Mit ein wenig Testdownloaden, kommst du da zu keinen aussagekräftigen Ergebnissen, aber exakt die brauchst du, um deinem Hoster aufs Dach zu steigen.
Hi... Danke für Dein Statement.

Meine komplette Seite ist reines HTML und CSS... von PHP keine Spur. Dann sieht es schlecht aus mit der Geschwindigkeitsmessung.

Ich werde den firebug mal bemühen. Vielleicht ergibt sich dabei ja was.
Jensemann
Ehemaliges Teammitglied
Beiträge: 2549
Registriert: 25.02.2002 01:00

Beitrag von Jensemann »

rockford hat geschrieben: Meine komplette Seite ist reines HTML und CSS... von PHP keine Spur. Dann sieht es schlecht aus mit der Geschwindigkeitsmessung.
Im Gegenteil, es fallen diverse Ursachen weg (langsamere Scriptausführung, SQL Probleme, ...)
rockford hat geschrieben: Ich werde den firebug mal bemühen. Vielleicht ergibt sich dabei ja was.
Jepp. Davon ausgehend, dass du keine dynamischen Seiten hast, wie du ja eben sagtest, würde ich vermuten das der Server deines neuen Providers entweder zu hoch ausgelastet ist oder das Routing suboptimal läuft (zu hohe Latenz oder ähnliches).

Edit: Habe mir deine Seite eben selbst angesehen. Die Geschwindigkeitsprobleme resultieren sicher nicht aus dem Downstream. Die HTML Seite kommt stets sehr flott, alle anderen Requests (auch welche der gleichen Grösse, insbesondere Bilder) kommen oft langsam.

Man muss aber auch sagen, dass deine Seite generell viel zu gross ist und aus zu vielen Teilen und auch zuvielen schlecht komprimierten Bildern besteht. Gute Performance ist dabei eher Glückssache.
Benutzeravatar
rockford
Mitglied
Beiträge: 846
Registriert: 27.02.2005 18:42
Wohnort: Burghausen
Kontaktdaten:

Beitrag von rockford »

Jensemann hat geschrieben:
Man muss aber auch sagen, dass deine Seite generell viel zu gross ist und aus zu vielen Teilen und auch zuvielen schlecht komprimierten Bildern besteht. Gute Performance ist dabei eher Glückssache.

Hi nochmal....

mit den Bildern hast Du absolut recht... Die meisten stammen noch aus einer Zeit, in der ich von Photoshops Weboptimierung keine Kenntniss hatte.
Aber was meinst du mit die "Seite ist generell viel zu gross"???

Jensemann hat geschrieben: Die HTML Seite kommt stets sehr flott, alle anderen Requests (auch welche der gleichen Grösse, insbesondere Bilder) kommen oft langsam.

Und woran könnte das liegen, wenn nicht am Downstream?



Viele Grüße

Dario
Jensemann
Ehemaliges Teammitglied
Beiträge: 2549
Registriert: 25.02.2002 01:00

Beitrag von Jensemann »

rockford hat geschrieben:
Jensemann hat geschrieben: Die HTML Seite kommt stets sehr flott, alle anderen Requests (auch welche der gleichen Grösse, insbesondere Bilder) kommen oft langsam.
Und woran könnte das liegen, wenn nicht am Downstream?
Ich versuche das Problem mal allgemein zu erklären:

Gegeben ist eine Webseite mit 50 Dateien (HTML, Grafiken, CSS, Javascripte, ...). Jetzt kommen diese 50 Dateien meinetwegen am Ende auf 200 KB. Jetzt lade 200 KB mit 500 KB/s runter und mit 200 KB/s. Natürlich siehst du einen Unterschied. Aber das Ergebnis ist für das Szenario von dem wir hier sprechen irrelevant: Wir haben nicht eine Datei, sondern 50. Dein Webbrowser baut eine Verbindung zum Server auf und holt 1-X Dateien (wobei X meist nicht mehr als 4-5 ist). Dein Webbrowser verwendet max. 2 Verbindungen gleichzeitig zur selben Domain. Es werden also laufend Verbindungen aufgebaut, ein paar Dateien geholt, Verbindung geschlossen. Es wird eine neue aufgebaut, ein paar Dateien werden geholt u.s.w. ... Was ich damit sagen will: Es geht in der Praxis mehr Zeit für ständigen Verbindungsaufbau drauf, also für den Datentransfer im eigentlichen Sinne. Für die Zeit des Verbindungsaufbaus, ist der Durchsatz auf der Leitung aber EGAL! Folgendes: Ein Verbindungsaufbau sind ca. 200-500 Byte. Übertrage 500 Byte über 200 KB/s und über 500 KB/s, siehst du einen Unterschied? Nein! Der Unterschied ist so klein, der ist nichtmal vernünftig messbar.

Woran liegt es also, das ein Verbindungsaufbau bei Server X länger braucht als bei Server Y?

Verschiedene mögliche Ursachen: Der Server ist mehr ausgelastet (kannst du als Anwender nicht gescheit feststellen). Der Server hat eine Anbindung mit schlechter Latenz (z.B. ungünstiges Routing). Oder einige andere Ursachen. Aber das ist egal, da kannst du nichts dran machen. Wenn die ein Hoster nicht gefällt, setze ihm eine Frist das Problem zu lösen, kriegt er das nicht hin, wechsle.

Was kannst du nun kurzfristig und ohne Vertragswechsel machen?

Die Dateianzahl pro Seitenaufruf zu reduzieren wird i.d.R. nicht ohne weiteres möglich sein. Du kannst aber folgendes machen: Erstelle dir 2-3 Subdomains zu deiner Domain (z.B. images1.domain.tld, images2.domain.tld, images3.domain.tld). Diese Subdomains sollen alle auf das selbe Web zeigen. Anschliessend verteilst du die Grafiken auf Grafiklastigen Seiten (z.B. das Bilderalbum) auf diese 3 Subdomains. Auf diese Weise, kann der Webbrowser mehr parallele Verbindungen nutzen um die Dateien zu holen. Das heisst, es müssen weniger Verbindungen im ganzen aufgebaut werden.

Der Datendurchsatz ist, ausgenommen von extremst differenzen, nur für grössere Einzeldateien relevant (z.B. Videos, 500 KB Flashdateien, Javaapplets oder ähnliches).

Edit: Du könntest auch zusätzlich oder als ganz schnelle kleine Abhilfe per .htaccess die Cache-Zeit für Grafiken hochsetzen (die Dokumentation zu mod_expire ist dein Freund).
Antworten

Zurück zu „Coding & Technik“