Salü shrek
Eine Problematik ist auch noch, dass nicht alle Testserver gleich schnell sind. Z.B. beim Sunrise Server hatte ich noch knappe 8'000 kbs up, bei Green ebenfalls keine berauschenden Resultate. Nur die Testserver von Bluewin (Swisscom) sowie der von Cablecom kommen auf Werte um die 15'000 kbs.
Meiner Meinung nach ist aktuell ist alles über 8'000 kbs eine Leistung, welche nicht wirklich genutzt werden kann. Es gibt kaum Server, von wo man die Daten mit höheren Geschwindigkeiten saugen kann.
Wenn ein Hoster angiebt, dass seine Server an Leitungen mit einer Leistung von insgesamt 100 mbs angeschlossen sind, heisst das noch gar nichts. Denn an dieser Leitung sind noch viiiiiiele andere Server angschlossen, alle verbunden über Switchs ond Router, welche bei viel Datenverkehr auch interne Sachen zu routen haben und bei Packetkollisionen die verlorenen Packete neu anfordern müssen, was nicht gerade unerheblichen an Performance kosten kann.
Theorie:
20 Benutzer saugen über diese 100 mbs Leitung gleichzeitig eine Datei, welche 100 MB gross ist. Wenn nun jeder User einen eigenen Anschluss von 10 mbs hat, würde der Download ein klein wenig mehr als 10 Sekunden dauern (100 MB / 10 mbs = 10 MB/s = ~10 Sekunden).
Nun ist im Rechenzentrum aber folgendes:
20 Sessionen (User) wollen eine 100 MB Datei, welche über eine 100 mbs Leitung versendet wird. Also, müssen sich diese 20 User die Leitung teilen und jeder erhält nur noch 5 mbs, folgedessen dauert der Download etwas mehr als 20 Sekunden pro User, trotz seiner 10 mbs Leitung...
Utopisch, dass gleich 20 Benutzer gleichzeitig eine Datei wollen? Einzig die Grösse der Datei ist hoch gegriffen, um den Effekt rechnerisch aufzuzeigen. Je nach dem kann es in einem Rechenzentrum mit einer 100 mbs Leitung über 20 Racks, jedes mit bis zu 42 Server haben. Also sind so 840 Server reingehängt, jeder Server hat noch ca. 100 Kunden drauf, somit ca. 84'000 Kunden im Rechenzentrum, welche sich diese eine 100 mbs teilen müssen...
Da jeder Server auch noch 100 Kunden zu bedienen hat, kann es auch dort zum Flaschenhals werden, lasse nur mal 50 Tasks auf einem normalen PC gleichzeitig laufen, das kann je nach dem schon langsam kritisch werden... Auf dem Server laufen vielfach auch noch mehrere Dienste, sprich Mail (POP+SMTP), FTP, HTTP (+ HTTPs), PHP, mysql und und und...
Klar, vieles Theorie, doch in der Praxis nicht gross anders, es ist schwierig, etwas von einem Server herunter zu laden, bei welchem man seine Bandbreite voll nutzen kann. Somit, meine Feststellung, dass aktuell alles über 8'000 kbs verschenkte Nutzungsleistung ist. Ausnahme: Downloadmanager, welche grosse Daten von verschiedenen Server gleichzeitig zusammentragen, da könnte man seine Bandbreite nutzen...
Sola, etwas viel, vor allem technisches, geschrieben. :gruebel:
Gruss in den Abend
Tobias