Der Schwund ist überall: Festplattenkapazitäten, DSL-Anschlüsse, Benzinverbrauch…
Überall stehen bessere Werte drauf/drin als tatsächlich möglich ist.
In meinem Netzwerk z.B. haben wir Macs mit Gigabitports, Cat5e-Kabeln und ein TP-Link Gigabitswitch.
Das Maximum, was wir an Datenraten zwischen den Rechnern rausbekommen ist 320 Mbit/s, also 40 Mbyte/s, wobei es im Schnitt nur 35 Mbyte/s bzw. 280 Mbit/s sind.
Ich weiß, ich weiß, ich kann jetzt nicht erwarten, das volle Gigabit/s aus der Leitung zu quetschen, aber etwas mehr hätte ich schon erwartet.
Was sind denn realistische Werte? Kann ich bei mir noch was optimieren bzw. habe ich irgendwo einen Flaschenhals?
der flaschenhals? ganz klar, deine HD ist der flaschenhals… theoretisch gehen ja 940MBit drüber laut wikipedia, aber die Festplatten die derartigen Datendurchsatz haben willst du dir nicht leisten…
[quote=“Cotton McKnight”]Der Schwund ist überall: Festplattenkapazitäten, DSL-Anschlüsse, Benzinverbrauch…
Überall stehen bessere Werte drauf/drin als tatsächlich möglich ist.
In meinem Netzwerk z.B. haben wir Macs mit Gigabitports, Cat5e-Kabeln und ein TP-Link Gigabitswitch.
Das Maximum, was wir an Datenraten zwischen den Rechnern rausbekommen ist 320 Mbit/s, also 40 Mbyte/s, wobei es im Schnitt nur 35 Mbyte/s bzw. 280 Mbit/s sind.
Ich weiß, ich weiß, ich kann jetzt nicht erwarten, das volle Gigabit/s aus der Leitung zu quetschen, aber etwas mehr hätte ich schon erwartet.
Was sind denn realistische Werte? Kann ich bei mir noch was optimieren bzw. habe ich irgendwo einen Flaschenhals?
MfG
Cotton[/quote]
Versuchen kann man immer was. Geht bei festen IPs los, Switch-Management, unnötige Protokolle deaktivieren, Kabel überprüfen, RAIDs-in die Rechner (wo es geht), Potenzialausgleiche über die Schirmung messen und ggf. unterbinden… also die Liste der Möglichkeiten ist lang, ob es sich lohnt steht aber auf einen anderen Blatt.
Hast Du es denn eher mit großen oder mit vielen kleinen Dateien zu tun? Wenn es eher kleine sind, kann man noch etwas rausholen, da der Finder durch die Kopierverwaltung sich selbst in der Leistung hemmt. Irgendwo gibt es da eine Copy-Spool-Programm, was dafür sorgt, das die Dateien nacheinander über das Netz geschoben werden und sich bei der Übertragung nicht selber ausbremsen, damit sollen erheblich bessere Übertragungswerte erzielt werden (haben wir irgendwo hier auf einem älteren Mac-Server, muss mal suchen - vielleicht kennt es zufälligerweise jemand hier, bevor ich wieder im Betrieb bin)
Ich schließe mich der Meinung meiner Vorredner an, möchte aber noch einen erschwerenden Punkt ergänzen: Das Filesystem selber.
Wenn du aus einem modernen Dateisystem (ext?, ZFS, UFS, reiser, jfs, …) mit einem Prozess der die Arbeit macht im Schnitt 30 MB/Sek. raus bekommst dann ist das gut. Jedes wird bei sehr kleinen Files in den KB-Bereich einbrechen und bei großen mehr erreichen. Höhere Leistungen kann man mit mehreren Prozessen die arbeiten erreichen, das geht dann bis ans Limit der Platte oder des Plattensubsystems.
Eine schwache CPU oder eine suboptimale Systemarchitektur könnte je nach verwendetem Protokoll ev. auch noch ein limitierender Faktor sein.
Das Netzwerk besteht aus einem Mac Pro und einem 24" iMac. Beide haben natürlich 7200er Platten drin.
Mir geht es in erster Linie um den Transfer größerer Daten, die jeweils 3-4 GB haben. Es stört mich ja auch nicht wirklich. Ich wollte eigentlich nur mal wissen, ob das normal ist und wenn nicht, woran es liegen könnte.
Schnell genug ist es genau genommen.
3GB in unter 2 Minuten übertragen ist für meine Aufgaben völlig ausreichend…
Hm, bei so großen Dateien könnte es so aus dem Bauch raus gesagt schon schneller gehen.
Wie überträgst du die Dateien?
Es könnte in diesem Fall auch am Protokoll liegen.
Probier mal ftp im Binary Mode und zwar jeweils mehrere put und dann mehrere get hintereinanderer.
Der sollte bei Files über 1 MB bis 10 MB (groß genug, passt aber noch in den Cache) die machbare Datenrate liefern.
Verschiedene ftp Versionen sind beim put oder beim get schneller.
Hast Du denn schon mal versucht, die Rechner direkt mit einem Netzwerkkabel zu verbinden (Auto-Sensing macht es mit einem normalen Patchkabel möglich)? Sollte die Direktübertragung (GBit/Duplex etc. ggf. von Hand einstellen) schneller sein, als über den Switch, bleibt im Netzwerk auf jeden Fall was hängen (wäre gut, um die Relation zum Netzwerk zu erkennen).