Stand
Jänner 2023
Erklärung
Auf dieser Seite werde ich den Zusammenbau des Computers, sowie die Hardware im einzelnen beschreiben.
UPDATE (24.05.2007):
So, ich habe nun die neuen Komponenten (CPU, Ram, Grafikkarte, Netzteil). Ich werde einfach die alte Hardware ausblenden und die
neue beschreiben.
UPDATE (22.04.2008):
Hinzugekommen sind die Tastatur, Maus und TFTs, sowie das neue Netzteil und die 2. Grafikkarte.
UPDATE (26.05.2009):
Habe nun ein neues Core-/Sub-Sys auf Nehalem-Basis.
UPDATE (04.10.2013):
Neues System auf Haswell-Basis inkl. einiger Komponenten.
UPDATE (23.12.2019):
AMD Ryzen, Motherboard, Ram, M.2-SSD & Luxus Monitor
UPDATE (26.04.2021):
Flight-Sim Hardware
UPDATE (31.01.2023):
ATX3 Netzteil, Intel CPU, DDR5 Ram, M.2-SSD, Grafikkarte
Die Hardware
Lieferung, noch verpackt:
-> November 2005
Hier haben wir die Hardware, noch frisch verpackt und jungfräulich^^
Das ist alles was ich mir dieses Jahr als Upgrade gekauft habe. Was vlt.
noch dazukommt ist ein CPU-Kühler ("Noctua NH-U 12" oder "Scythe Ninja")
(mit der Maus auf ein Objekt im Bild zeigen, bis die Erklärung dazu aufscheint)
-> April 2009
Nun habe ich endlich auf ein neues System aufgerüstet und gleich noch ein paar Extras eingekauft... wie den superkleinen und
superschnellen (~30MB read) USB-Stick, oder das Stoff-Mauspad.
Auf dem Bild außerdem zu sehen: das Netzteil für den Windows-XP-Rechner.
-> Oktober 2013
Zu Anfangs wollte ich "nur schnell" ein Motherboard, CPU & Ram kaufen. Sprich finanziell kein Ding.
Natürlich habe ich mir dann mein
altes System genauer angesehen und musste feststellen, dass es schon an mehreren Ecken hackte:
Z.b. wird der Haswell-CPU sehr heiß und außerdem bräuchte ich für meinen bisherigen Noctua ein neues (kostenloses!)
Mounting-Kit ,
weshalb ich lieber gleich einen besseren (Noctua) Kühler gekauft habe.
Weiters dachte ich mir schon beim letzten Umbau, dass ich den sehr guten Antec-Tower austauschen möchte, da er einfach vieeel zu eng ist
und die Kabelverlegung ein wahrer, stunden andauernder Krampf ist.
Dann natürlich das USB2 BD-Laufwerk (von meinem Bruder), welches einige (wenige) Discs nicht mehr liest und somit gewechselt gehört.
Und weil man schon dabei ist und Windows sowieso neu installiert werden muss, passt eine moderne SSD sehr gut dazu; dann hat man mit der alten
Intel-SSD endlich eine super-schnelle
externe Platte :-)
Meine Impressionen und Erfahrungen sind mit der restlichen Hardware unter
Zusammenbau nach zu lesen!
Tower + Lüfter:
-> November 2005
2005 : 121.42 €
-> Review
Ich habe mich für diesen Tower entschieden, weil mich der unübliche Aufbau fasziniert, und ich einen vielseitigen
und "mit allen Finessen" ausgestattetes Gehäuse wollte. Es ist zwar um einiges schwerer (16kg Leergewicht!) als andere
gute Gehäuse (zB. Thermaltake Shark - 6,8kg), doch haben mich einfach seine Austattungsmerkmale überzeugt:
bis zu 4*120mm UltraSilent Fans (das stimmt sogar wirklich: die Lüfter bei meinem Thermaltake Armor sind um einiges lauter!)
getrennte Wärmekammern (unten: Netzteil & Festplatten, oben: rest)
gedämmtes Gehäuse durch 4-Schichten-Wände (Stahl und Plastik)
Festplatten sind gummi-gelagert und in einem herausnehmbaren Käfig
Festplatten, Laufwerke und Diskettenlaufwerk werden mit "Klemmen" festgemacht (diese halten sehr gut, nicht wie beim Armor, wo man die Hardware leider zusätzlich anschrauben muss)
Lufteinlässe haben einen abnehmbaren Staubfilter
Tower steht zwecks Vibrationsabsorbierung auf 4 großen Gummifüßen
VGA-Kühler (optionaler Luftkanal mit montierbarem 80mm Lüfter, welcher die Abwärme der Grafikkarte direkt aus dem Gehäuse befördert)
dezentes, ansprechendes Design
die Ausmaße: Höhe:530mm, Breite:205mm, Tiefe(=Länge):505mm
Einbaumöglichkeiten: 4x 5.25" Geräte (CD-LW , DVD-LW, ...), 1x ext. 3.5" (FDD ), 6x int. 3.5" (HDD )
So, dann mal an's auspacken... den schweren Tower kriegt man am leichtesten aus dem Karton, in dem man
diesen unten ganz normal öffnet und das Packet einfach umdreht, sodass die offene Seite am Boden steht. Dann
kann man den Karton ganz einfach nach oben hin wegziehen und die restliche Verpackung vom Tower nehmen.
Und so kommt dieses Monster zum vorschein:
-> Oktober 2013
2013 : 92.89 €
-> Review
Tower - Vorne
Ich hab mir zig Reviews zu diversen Gehäusen durchgelesen und hatte schlussendlich folgende zur Auswahl übrig, welche
der geforderten Größe und Kühlleistung, bei gleichzeitig niedriger Lautstärke erfüllen:
Ich habe nur 2 Gehäuse gefunden die sogar noch besser sind, die haben jedoch auch einen Preis von jenseits der 200€; sowas für ein Case zahlen, no thanks!
Es war ziemlich spannend, zwischen dem eher besser kühlenden, aber lauteren (weil schlechteren Lüftern) Fractal und dem rund-um guten und leisen, aber etwas wärmeren Nanoxia.
Fractal Design Arc Midi R2 Nanoxia Deep Silence 1 Erklärung
B × H × T 230 x 460 x 515 215 x 512 x 532 das Nanoxia ist leider etwas weniger breit
Gewicht 10,7 kg 11,34 kg dafür schwerer und stabiler (?)
Extern 2x 5.25" 3x 5.25" der zusätzliche Laufwerksschacht ist mir wieder egal
Intern 8x 3.5"/2.5" 8x 3.5"/2.5" trotz der Breite, schaut es nicht so aus, als ob der Fractal bei den HDs mehr Platz hätte (zum anschließen der Kabel)
PCI 7 8 ist jetzt nicht DER Vorteil, aber eine 3. Doppel-Grafikkarte wäre mit 8 möglich
GPU max. 290mm (430mm) max. 315mm (445mm) da ich den oberen HDD-Käfig zwecks besseren Luftzufuhr ausbaue, wäre bei beiden genug Platz
CPU max. 180mm max. 185mm kann nicht genau sagen wie knapp es ist, aber der 140mm Noctua-Kühler ist schon recht groß...
Lüfter:
vorne 2x 140mm, 1000rpm 2x 120mm, 1300rpm eindeutig kleiner Vorteil für den Fractal
hinten 1x 140mm, 1000rpm 1x 140mm, 1100rpm
seite - 1x 140mm (optional) hier siegt klar der Nanoxia
oben 2x 140mm (optional) 2x 140mm (optional)
unten 1x 140mm (optional) 1x 140mm (optional)
Zusätzlich:
Anschlüsse 2x USB 3.0, 1x Mikrofon, 1x Kopfhörer 2x USB 3.0, 2x USB 2.0, 1x Kopfhörer, 1x Mikrofon unwichtiger Sieg für den Nanoxia
Lüftersteuerung 1x 3er Lüftersteuerung 2x 3er Lüftersteuerung Ein wichtiger Punkt, der klar an den Nanoxia geht!
Luftfilter vorne, unten vorne, unten, seite
diverses Standard-Lüfter laut (zumindest oben, da vertikal verbaut) -
Aufgrund des besseren Gesamtpackets entschied ich mich dann für den Deep Silence 1.
Netzteil:
-> Februar 2004
BeQuiet BQT P5-470W-S1.3
2004 : 78.80 €
-> Review
Ein extrem gutes Netzteil, mit hohem Wirkungsgrad (~80%) und sehr leisen Lüftern! Kann man jedem nur empfehlen; vorallem, da der Support einfach Spitze ist: so habe ich innerhalb weniger
Tage - nachdem das alte abgeraucht ist - ein neues bekommen; ohne wenn und aber!
-> Mai 2007
2007 : 123.60 €
-> Review
Seasonic besticht schon seit langem mit hochqualitativen Netzteilen mit sehr hohem Wirkungsgrad (~85%). Ich habe mich für dieses aus folgenden Gründen entschieden:
hoher Wirkungsgrad & sehr leise
modular : es werden nur die Kabel ans Netzteil angesteckt, welche man auch wirklich braucht (bei diesem Tower sehr empfehlenswert!)
flexible PCIe-Stecker
anstatt des Enermax Liberty 500W (welches ungefähr die selben Eigenschaften hätte) :
es hat genau die Kabelsätze, welche ich benötige; sprich getrennte 5V-/SATA-Stromkabel und es hat ein vierfach SATA-Stromkabel -> dieses kann ich gut für meine 4 in der unteren
Tower-Kammer eingebauten HDs benützen, da ich nur ein, anstatt zwei Kabel brauche.
-> April 2008
2008 : 160.00 €
-> Review
Coolermaster kennt man vorallem aus dem PC-Tower Bereich, in dem diese Firma durch qualitativ hochwertige und funktionell ausgereifte Gehäuse aufzutrumpfen weiß. Aber auch ihre Netzteil-Serie hört sich verdammt gut an
und nachdem auch ComputerBase beim Review-/Test-PC dieses NT einsetzt, bin ich guter Hoffnung, keinen Fehlgriff damit gemacht zu haben. (also viel Power hat es und sehr leise ist es auch!)
Es stellt sich natürlich die Frage: wieso - nach nur einem Jahr und wo doch das "alte" Netzteil absolut Spitze ist - ich schon wieder ein neues brauche. Tja, da ich nun vorhabe, SLI auszuprobieren und mir deswegen eine
zweite 8800GTX gekauft habe (welche derzeit um extrem günstige 230€ zu haben ist!) brauchte ich 2 weitere 6polige PCIe-Stromstecker (da beim Seasonic nur 2 vorhanden sind). Deshalb habe ich mir zuerst natürlich 2
Stromadapter besorgt, welche zwei 4polige Molex (für PATA -Festplatten und Laufwerke)
zu einem PCIe-Stecker verbinden. Und nachdem eine Verbrauchs-Messung ergeben hat, dass ich auch unter Vollast nur ca. 300W brauche, müsste das 500W-Seasonic-Netzteil eigentlich ausreichen; möchte man meinen. Denn leider startete
der Computer mit angeschlossener zweiten GTX nicht mehr.
Deshalb braucht man wohl anscheinend echte 4 PCIe-Stromstecker, auch wenn man NIE(!) 850W beim PC verbrät! Ich bin schon richtig gespannt, ob und wieviel SLI (mit meinem CPU/Ram) bringt...
Hier noch schnell die Eckdaten:
hoher Wirkungsgrad (>85%)
sehr leise (135mm Lüfter)
Intels neuester ATX v2.3 Standard
modernes, leistungsfähiges 6-Rail Design mit insgesamt 128 A ! (sprich, es wird die 12-Volt Schiene auf sechs Strom-Kreise aufgeteilt)
12V1 & 12V2 : für Mainboard, CPU und Geräte
12V3 & 12V4 : für 2* PCIe-8-Pin
12V5 & 12V6 : für 2* PCIe-6-Pin
geeignet für 2*8 + 2*6 oder 4*6 polige PCI-Express Stromstecker
modular : es werden nur die Kabel ans Netzteil angesteckt, welche man auch wirklich braucht (bei diesem Tower sehr empfehlenswert!)
flexible PCIe-Stecker (oft/manchmal ist es so, dass ein Ferrit-Kern zur Störunterdrückung am Stecker-Ende befestigt ist, weshalb man das Kabel nicht biegen kann und es somit aus dem Gehäuse herausragt)
auch hier gibts - wie beim Seasonic - ein 4-fach SATA-Stromkabel
-> Jänner 2023
2023 : 189.93 €
-> Geizhals
Mit der nVidia RTX 4000 - Serie, hält der neue PCI-Express 5.0 Stromstecker einzug.
Dieser sehr kontrovers aufgenommene neue Stecker, mit dem es viele / einige wenige (je nach dem wie man es sieht) Probleme mit Überhitzung und verschmoren des Steckers gegeben hat, muss sehr viel Strom an die Grafikkarte liefern und bei nicht ganz 100% gefertigten Adaptern, kann es wohl schon mal passieren, dass diese zu heiß werden.
Meine Überlegung: ein PCIe5 Netzteil, was diesen Stecker "original" mitbringt, wird da noch der sicherste Weg sein. Und wie ich beim einstecken feststellen konnte, sitzt dieser wirklich gut, obwohl er leicht reingeht.
Außerdem ist mein altes NT auch schon relativ alt und die Spannungswandler bzw. mehr die Transistoren sind nach über 14 Jahren schon gut gebraucht^^.
Unterbrechungsfreie Stromversorgung (Batterie):
-> Februar 2004
2004 : 237.67 €
Sehr starke USV, welche ich eigentlich nur für Spannungsschwankungen und kurzen Power-Outages habe. Und funktioniert
sehr gut, wie ich sagen muss.
Ohne diesem Teil wäre mein PC des öfteren diversen Gewittern, Elektrikern^^ zum Opfer gefallen; stattdessen
kann ich ohne Probleme einige Zeit auch ohne Netz auskommen.
-> Sommer 2009
Bei einem kurzem Stromausfall ist mir aufgefallen, dass der Rechner trotz USV abgeschaltet wurde. Daraus würde ich schließen,
dass entweder der Akku zu alt ist, um am Limit betrieben zu werden, oder die USV überhaupt unterdimensioniert ist.
Ich habe die USV deshalb kurzerhand auf's Abstellgleis gestellt. Ob ich noch mal eine USV kaufen werde, ist fraglich, da ich
dann wohl etwas stärker in die Geldtasche greifen müsste, was für einen reinen Gaming-PC doch etwas übertrieben wäre...
Motherboard:
-> November 2005
2005 : 159.41 €
-> Review
Ich habe dieses und nicht das "A8N32-SLI Deluxe" genommen, weil es
billiger ist
schneller ist (laut diversen Reviews)
mehr Ports bietet (2*PCIe16, 2*PCIe1, 3*PCI)
genausoviele Anschlüsse hat (8*SATA, 4*PATA, 2*NIC , ...)
und ebenfalls passiv gekühlt wird
Die einzigen
Nachteile (wenn überhaupt) bestehen darin, dass
beim SLI-Betrieb die PCIe16 - Ports jeweils "nur" 8 Lanes haben (was aber auch heutzutage und in naher Zukunft noch locker ausreichen sollte), anstatt den jeweils dediziert 16-Lanes pro PCIe16-Port des nForce4-SLIx16-Chipsatzes
der 2. Netzwerkanschluss via PCI-Kanal angeschlossen ist, weshalb dieser nur als "besserer 100MBit Anschluss" angesehen werden kann, da man maximal 100MB/sec über PCI drüberbringt und dort außer den PCI-Karten auch noch die PATA-Laufwerke (HD, CD, ...) angeschlossen sind! (beim SLIx16 wird dieser über eine PCIe1 angebunden)
die 4 extra SATA Ports des Marvel-Chips keine SATAII-Ports sind und ebenfalls am PCI-Bus hängen (was den Nachteil noch vergrößert). Beim SLIx16 sind dies 4*SATAII Ports und via PCI-Express angebunden
Ansonsten dürften sich diese Boards nicht recht unterscheiden. Nur die Austattung sollte anscheinend beim
Premium besser sein.
Gleich beim Öffnen der Motherboard-Schachtel fällt einem praktisch schon die überreiche Ausstattung
des Premium -Boards entgegen! Da wurde nichts ausgelassen...
Ob für externe SATA-Platten (unten rechts), oder für FireWire, es ist alles dabei: (mit der Maus auf ein Objekt
im Bild zeigen, bis die Erklärung dazu aufscheint)
Unter dem Zubehör liegt in einer antistatischen Verpackung und auf einer dünnen Schaumstoffmatte liegend, das Motherboard.
Beim herausnehmen dieses (und eigentlich bei allen PCBs )
sollte man halt drauf aufpassen, die Platine nicht vollständig mit den Händen zu betatschen, sondern wenn möglich nur an den Rändern,
Slots oder beim CPU-Kühler-Halter angreifen.
Und am wichtigsten: Eventuelle ! Elektrostatische Aufladung zuerst ableiten !
Also zB. an ein angeschlossenes PC-Gehäuse oder einen Heizkörper greifen, damit sich er Körper entlädt.
-> April 2009
2009 : 278.37 €
-> Review
Mainboard-Box
X-Fi, GreenGenie, D-LED2, MoBo
Ich habe mit meiner Tradition gebrochen und KEIN Asus-Board genommen (wie das "Asus P6T" beim PC
meines Bruders ),
da die Features und die Port-Anordnung meines erachtens bei dem Eclipse "besser" sind. Vorallem was den SLI-Betrieb anbelangt:
2 Ports Abstand zwischen den PCI-Express-x16 Slots (bessere Kühlung der DualSlot-Grafikkarten im SLI-Betrieb!)
2 Ports Abstand zum Motherboard-Boden (das ist einer der wenigen Kritikpunkte meines Tower; unten benötigt man Platz um die Stromkabel verlegen zu können)
SLI fähig
Creative X-Fi Xtreme Audio inkludiert
8* USB hinten (sowie 2 interne Anschlüsse)
CMOS Reset-Switch auf der Backplate (leicht zugänglich, wenn beim OCen was fehlschlägt^^)
Power- und Reset-Tasten (sehr hilfreich beim Testaufbau inkl. OC!)
sieben (benützbare!) Ports; die meisten anderen MoBo's haben nur 6
Prinzipiell hätte ich zwar auch das etwas billigere "MSI Platinum SLI" kaufen können, doch die meisten Reviews beschreiben nur das Eclipse
und ich wollte sichergehen, ein sehr gut OC-fähiges Motherboard zu bekommen.
Backplate
Leider gibt es auch einiges negatives zu berichten:
So habe ich mir gleich am Anfang das Motherboard "zerschossen", als ich das Bios via BIOS-Internen Update-Tool auf die neueste Version
flashen wollte, welche auf einem USB-Stick abgespeichert war. Der Update-Vorgang selbst lief zwar ohne Probleme durch, doch nach
dem obligatorischen CMOS-Reset startete das Board nicht mehr.
Zum Glück liegt dem Mobo eine Diagnose-LED bei, welche man rechts unten aufs Motherboard steckt und die Boot-Prozedur visuell
ausgibt. Und da blieb das ganze bei "CPU Init" hängen... habe leider
diesen Eintrag
im MSI-User-Forum erst zu spät gelesen; somit musste ich das Board zurückschicken und auf ein neues warten.
Was mir aber ganz recht war, da auch ein Plastik-Befestigungspin beim Northbridge-Kühler fehlte.
Als dann das neue kam, hab ich - wie man es halt machen "
sollte " -
einen USB-Stick als DOS-Startdiskette formatiert, dort das Flash-Tool, sowie
das neueste Bios-File raufgegeben und via DOS geflasht. Und siehe da: es hat funktioniert. Also auch der Reboot^^.
Block-Diagramm
Leider fehlten bei diesem Board gleich mehrere Befestigungspins. Da ich aber das Board nicht nochmal zurückschicken wollte und ich in den
Foren gelesen habe, dass der
IOH (= Northbridge) sehr heiß wird (>80°C), habe ich mich entschlossen den IOH-Kühler inkl.
des via Heatpipe verbundenen
ICH (=Southbridge) Kühler runterzugeben, zu putzen
(was ziemlich aufwendig war,
da das benutzte Wärmeleitpad steinhart war -> kein Wunder dass es zu hohe Temperaturen gab) , eine Wärmeleitpaste draufzugeben
(habe hierzu die WLP "NT-H1" des Noctua-CPU-Kühlers
verwendet) und den Kühler fester zu montieren. Zum Glück fand ich einige Plastikschrauben, mit denen ich den Kühler festzurren konnte!
Draufsicht
Hier die gemessenen Temperaturen beim Testaufbau
(mehr hierzu gibts unter dem Link Overclocking ) ,
einmal mit draufblasendem 120mm Lüfter, einmal ohne:
vor dem Umbau nach dem Umbau
ohne Lüfter mit Lüfter ohne Lüfter mit Lüfter
CPU ~27°C ~27°C ~26°C ~26°C
IOH ~80°C ~57°C ~75°C ~45°C
Sys ~37°C ~28°C ~38°C ~26°C
Wie man sieht sind die Temperaturen ohne Lüfter generell zu hoch. Ok, laut Intel darf der IOH 120°C heiß werden, doch möchte ich dann keine
Geräte wie Soundkarte und Grafikkarte in der Nähe haben... trotzdem hat sich der Umbau gelohnt: 45 anstatt 57° sind nicht schlecht
und da mit einem solche Lüfter auch die relativ heißen Ram-Module gekühlt werden, kann dies vorallem im Sommer dazu beitragen, dass sich das
Board besser zum Übertakten eignet!
Zubehör
Wie man am linken Bild erkennen kann, wurde an nichts gespart: die obligatorische Backplate-Blende für den Tower, diverse Handbücher
und Treiber-/Software-CDs, USB-Bracket, Temperaturfühler, eSATA-Backplate inkl. eSata-Kabel, CrossFire-Bridges & SLI-Bridge,
Pata-/Sata-Kabel, sowie Y-Kabelsplitter, 24->20pol ATX Anschluss und die kleinen Front-Panel-Connectors.
Außerdem liegt diesem Motherboard eine Creative X-Fi XtremeAudio auf PCIe1x Basis bei; leider gibt's keinen Onboard-Audiochip, denn eigentlich
wollte ich keine Creative-Soundkarte mehr verwenden, da es erstens seit Vista sowieso kein EAX mehr gibt und zweitens deren Treiber-Entwicklung
unter aller Sau ist.
-> Oktober 2013
2013 : 139.56 €
-> Review |
Review
Es gibt ja eine unglaubliche Menge an Motherboards; selbst wenn man rein die
Z87
Boards betrachtet!
Und auch wenn möglicherweise der
USB-Bug
bei mir nicht zur Geltung kommen würde, wollte ich doch von Anfang an ein MoBo mit der zweiten Revision des Chipsatzes und die gibt's derzeit
nur von Asus, was die Wahl dann doch wieder sehr übersichtlich macht :-)
Die Preise gehen von 100 bis 330€ und unterscheiden sich grundsätzlich nur von den (Hardware) Features.
Und natürlich vor allem bzgl. des angepassten Bios bei den
RoG -Übertakter Motherboards.
Da ich jedoch nicht glaube, dass sich eine CPU im 300€ Board besser übertakten lässt als in einem normalen Asus Board, und ich nicht wahnsinnig viele
Features benötige (brauch ich vielleicht WLan? -> GBit 4 the win!^^) und vor allem die Slot-Anordnung bei allen Boards gleich gut
ist (PCIe16 - 2 frei - PCIe16) , hab ich mich für das ziemlich billige "Basis" Motherboard Asus Z87-Plus entschieden.
Das einzige das ich vielleicht etwas vermisse, ist der eSATAp -Port. Aber da genug USB3.0 Ports vorhanden sind (2* Intel, 4* Asmedia) ,
kann man das wohl vernachlässigen.
-> Dezember 2019
2019 : 211.75 €
-> Review |
Overview |
X570 Spreadsheet
Gesamt
Accessories
Audio
Backplate
Für einen neuen CPU braucht man ein neues Motherboard; da ich diesesmal unbedingt einen AMD wollte, hatte ich die Möglichkeit den ersten
PCI-Express 4 Chipsatz zu kaufen.
Dies bieten die neuen "X-570" Motherboards, welche leider Aufgrund der Hitzeentwicklung des Chipsatzes einen Lüfter benötigen.
Zum Glück ist dieser unhörbar; selbst im Testbetrieb (außer CPU keine anderen Lüfter) ist er selbst wenn er läuft (erst ab einer gewissen Temperatur) absolut silent!
Die Lage dieses Lüfters bei zumindest diesem Motherboard ist auch nicht so bescheiden, da nicht
hinter der Grafikkarte. Es wird bei einer Custom-gekühlten GPU wie bei meiner
1080Ti natürlich trotzdem die warme Luft draufgeblasen; die Temperaturen halten sich aber in Grenzen (~60°C bei Dauerlast).
CPU + VRM + M2 Slot
M2 Cooler
Northbridge Cooler
-> Jänner 2023
2023 : 266.22 €
-> Geizhals
Was für eine Scheiße... also der Z790-Chipsatz, nicht das Motherboard!
Ich hatte zuerst das günstigere "Gigabyte Z790 UD", musste dann aber erleben, dass es ein extrem störendes, weil lautes "Spulenfieben" hat, wann immer die CPU benötigt wird. Und selbst wenn nicht...
Nach etwas recherche ist das ein bekanntes Problem, das mittlerweile jedoch mit dem UEFI-Setting "Acoustic Noise Mitigation" fast vollständig behoben sein sollte. Hat bei meinem Motherboard aber leider nichts gebracht!
Ich hab alles probiert... alle erweiterten CPU-Features deaktiviert, Boost und Auto-OC deaktiviert, RAM untertaktet , VRM Switching und Spread Spectrum geändert, -10 Ratio für AVX load -> bringt alles nichts!
Nur eine manuell gesetzte, fixe Ratio ("Sync All Cores") auf 50x (C-States = auto) hat komischerweise keinen Coil-Whine generiert...
Ich habe mich "kurzer"hand (nach Stunden und Tagen an testen!) dazu entschlossen dieses zurückschicken und ein anderes zu kaufen.
Aber ebenfalls ein Gigabyte, Aufgrund der besseren Positionierung der PCIe-Slots.
Und mit diesem gibt es unter Last zwar auch ein leichtes Spulenfiepen, aber das hört man anders als vorher kaum noch (wegen dem UEFI-Setting)!!
Vor allem in einem geschlossenen Gehäuse ist nun Ruhe!
Ebenfalls von Vorteil: der große M.2 Kühler -> und nach über 1 Monat betrieb kann ich selbst bestätigen, dass das sehr viel bringt!
Ich habe nun zwei M.2 und meine "alte" Samsung 970 hatte immer 60-70°C. Das ist für die Elektronik noch nicht übermäßig viel, aber ab 70° wird runtergeregelt, sprich die Leistung war nie abrufbar. Jetzt schon ;-) . (zugegeben: die vielfach kühlere 4090 gegenüber der 80° heißen 1080Ti spielt dabei natürlich auch eine Rolle!)
Für FlightSims verwende ich eine Bluetooth-Tastatur und dieses Mobo hat BT und Wifi6 eingebaut. Doch die Tastaturhalterung unterbricht anscheinend die Verbindung (dachte dagegen ist BT resistent!?), weshalb ich den onboard Empfänger nicht verwenden kann und erst wieder den USB-Stick benötige... what a fucking shame.
Ich hoffe aber, dass ich mit dem onboard Wifi die neue Wireless VR-Brille (Pimax Crystal) bedienen kann; ka. wie/ob das funktioniert.
Hier gibt's noch die UEFI-Settings im Excel -/PDF -Format!
Prozessor + Kühler:
-> November 2005
2005 : 356.70 €
(ada4000daa5bn)
-> Review
Ich wollte zwar zuerst einen AMD-DualCore (X2-4600+), doch nachdem ich hauptsächlich zocke und sich DC
bei Games (zruzeit) nichts bringt, habe ich mich für den nur halb so teuren AMD Athlon64 4000+ entschieden.
Der hat ebenfalls 2400MHz, jedoch 1024kB Second-Level Cache (anstatt 512kB beim 4600er) und ist in Games eindeutig schneller
(wie man in den diversen Reviews sieht)
-> Mai 2007
2007 : 334.60 €
-> Review
2007 : 35.70 €
-> Review
Da bei den heutigen Grafikkarten (GF8800, RadeonHD2900) ein 2.4GHz-CPU diese wahrscheinlich nicht mehr ausreitzen kann und ich mir keine Komplette neue Plattform (i.e. Core2Duo)
kaufen wollte, habe ich mich entschlossen, den schnellsten, für Sockel-939 erwerbbaren CPU zu kaufen, und das ist halt der FX60, welcher zwar "nur" 2.6GHz hat, dies dafür aber
1. zweimal (weil DualCore) und 2. kann man diesen sehr easy übertakten.
Bild habe ich keines; ist aber auch egal, da er genauso ausieht wie alle S939-Prozessoren ;-) (also einfach das Bild des 4000+ anschauen^^ ^)
Aus diesem Grund habe ich mir auch einen etwas stärkeren CPU-Kühler besorgt: den Scythe Infinity , welcher laut Reviews der leistungstärkste Kühler
am Markt ist. Ok, die Maße und das Gewicht (~ 1kg!) sprechen für sich; man muss schon etwas vorsichtig mit dem Kühler umgehen und er ist mit Sicherheit auch nicht in jedem Gehäuse
montierbar. Doch dbzgl. habe ich mich schon im Vorhinein informiert (wie eigentlich bei allem^^ ).
Dieser Kühler ermöglicht es mir, den CPU auf stabile 2.9GHz zu betreiben; mehr wäre möglich und ist sogar stabil gelaufen, doch beim 3DMark hängte er sich immer auf, weshalb ich
die Geschwindigkeit zurückgenommen habe.
-> April 2009
2009 : 283.25 €
-> Review |
Review |
Review |
Review |
Review
2009 : 55.01 €
-> Review |
Review
CPU-Schachtel
CPU-Schachtel
Nach langem hin und her, habe ich mich schlussendlich gegen einen Core2Duo-8600 und für diesen Prozessor entschieden,
da die Performance/Megahertz bei dieser neuen Architektur besser ist und auch die 8 virtuellen
HT -Cores
sehr gut ausgelastet werden können, weshalb dieser Prozessor überaus gut für zukünftige Multi-Threading Tasks wie zum Beispiel h264-Kodierung,
Video- bzw. 3D-Bearbeitung geeignet ist. Aber vielleicht und hoffentlich auch einmal in Games; inwieweit diese sich in mehrere Threads aufteilen lassen
ist jedoch sehr umstritten.
Um dieses Biest dennoch auch in Games mehr ausreitzen zu können, ist ein starker SLI-Verbund von nöten; deshalb werde ich wohl über
kurz oder lang auf ein "ATI HD4890 CF" oder auf ein "nVidia GTX285 SLI" umsteigen.
Doch zum Glück ist es bezüglich Performance in Games anders, als die diversen Hardware-Seiten so schreiben: denn ich habe in den Benchmarks
festellen können, dass ich mit diesem neuen CPU und meinem - gegen ein GTX285-SLI doch eher bescheidenem - 8800GTX-SLI System fast
überall mehr Performance habe! Hier einige Beispiele
(man beachte meine nicht sehr CPU-freundlichen , sehr
grafiklastigen Einstellungen!) :
Aufkleber
AMD FX60 + 8800 SLI Intel i7-920 + 8800 SLI
Armed Assault, 1920x1200, Highest 30-60 FPS 50-60 FPS
Crysis, DX10, 1920x1200, Highest 13,9 FPS 21,95 FPS
WiC, DX10, 1920x1200, Highest 9 / 22 / 56 FPS 21 / 46 / 86 FPS
X3-TC, 1920x1200, Highest 6 / 42 / 136 FPS 16 / 77 / 220 FPS
Wie man sieht: beachtliche Mehrleistung! Dies funktioniert natürlich nicht überall. So legt Stalker-ClearSky nur ein bisschen zu und
NFS Undercover gar nicht (wieso, ist bei dieser Grafik eigentlich nicht einzusehen...)
Für mehr Vergleichsbenchmarks bitte zur Rubrik Benchmarks
gehen, als Vergleich-Systeme "#18 AMD Toledo FX60 + nVidia GeForce 8800GTX SLI " und "#21 Intel Nehalem i7-920 @2.6 + nVidia GeForce 8800GTX SLI " auswählen
und auf COMPARE klicken.
Als CPU-Kühler habe ich nicht den Nachfolger meines letzten - den Scythe Mugen 2 - genommen, sondern den besten und leisesten,
den der Markt derzeit zu bieten hat: den Noctua NH-U12P aus Österreich. Sicher, der Mugen 2 kühlt genau so gut, doch laut
Computerbase-Review bei Default-Belüftung nicht ganz so leise; außerdem ist der Mugen2 sehr groß und - wie man bei meinem Bruder gesehen
hat - verdeckt/belegt er teilweise den ersten Ram-Slot.
Außerdem sind beim Noctua gleich 2 Lüfter und eine - ebenfalls ausgezeichnete - Wärmeleitpaste dabei. Bestens auch deren Service:
mir ist nämlich durch die Herumprobiererei und Verwendung bei der Northbridge die WLP ausgegangen,
weshalb ich den Support angemailt habe und gebeten habe, mir doch noch eine Tube zu schicken, da ich Aufgrund meiner Tüftelei einfach nicht
ausgekommen bin. Und siehe da: am übernächsten Tag hatte ich schon eine neue Tube NT-H1 zu Hause! That's real nice! *thumbsup*
-> Oktober 2013
2013 : 298.99 €
-> Review |
Review |
Review
2013 : 74.64 €
-> Review |
Review
Der CPU ist genau der Grund, weshalb ich das neue System gekauft habe; mittlerweile hab ich ja doch einige CPU-Generationen übersprungen:
Sandy Bridge und Sandy Bridge Extreme
Ivy Bridge und Ivy Bridge Extreme
Und wenn man nun den alten i7-920 mit dem neuen vergleicht, sind teilwese extreme Unterschiede bemerkbar
(na-no-na-net^^) :
Wie man sieht, es hat sich ja doch ausgezahlt.
Und auch wenn ich den alten CPU-Kühler hätte weiterverwenden können, so war mir Aufgrund der Reviews bewusst, dass diese CPU
sehr warm wird; selbst ohne
OC. Deshalb musst ein neuer, besserer Kühler her. Natürlich wieder von Noctua: wenn man mal deren Qualität und Support gewöhnt ist, nimmt man auch nächstesmal
wieder einen solchen
(auch wenn der Preis hoch erscheint; alle High-End Luftkühler bewegen sich in dieser Region) .
Hier zum Vergleich der alte Kühler; echt brutal, was trotz der Staubfilter an Feinstaub auf den Kühlrippen/Lüfter hängen bleibt!
-> Dezember 2019
2019 : 555.99 €
-> Review |
Review |
Review |
CPU OC
2013 : 74.64 €
-> Review |
Review
Nachdem selbst der 4770er bei diversen Spielen, aber vor allem 7zip in die Knie gezwungen wird und die neue AMD Ryzen derzeit alle Rekorde brechen, habe ich mich kurzfristig dazu
entschlossen, mir meinen nächsten Upgrade zu leisten.
Wieder mal ein AMD, nach dem legendären "Athlon 64".
12 Cores, ergibt 24 Threads...
bei bis zu 4.6 GHz...
mit 6 MB L2 und 64 MB Level 3 Cache...
und 24x PCI-Express 4 Lanes...
Ein wahres Monster von einer CPU, das ist schon fast unglaublich!
Schlägt die viel teueren Gaming und Workstation CPUs Intels in Anwendungen haushoch(!) und ist nur in einigen, wenigen Spielebenchmarks
leicht hinter dem 1.000€ Schlachtschiff von
Intel!
Der Stock-Kühler reicht - wie üblich - für diese Hitzeentwicklung imho nicht aus; zumindest wenn man eine gute Geschwindigkeit haben will, da der Maximal-/Boost-Takt hauptsächlich
von der Temperatur abhängt!
Da er in den Tests nur von seinem großen Bruder "Noctua NH-D15" geschlagen wird, bleibe ich bei meinem jetzigen Noctua. Aufgrund des neuen Sockels wird jedoch eine andere Montageschiene
benötigt... und bei Noctua
bekommt dieses Umrüstkit gratis !
Selbst für meinen letzten Noctua - der am i920 montiert war - habe ich das Umrüstkit für den i7-4770 bekommen!! Genial
:-)
-> Jänner 2023
2023 : 439.63 €
-> Geizhals
Der Ryzen war und ist eine super CPU; aber single-core und somit Spieleleistung war nie seine Stärke. Und ich verwende zwar den 7zip
sehr viel , aber Spieleleistung ist im Endeffekt trotzdem wichtiger; noch dazu, wo dieser CPU mit "nur" 8 echten Kernen (16 Threads) und 8 "efficiency" Kernen (kein Hyperthreading/SMT) schneller in 7zip und somit generell eine bessere Anwendungsperformance hat, als der Ryzen (12 Kerne, 24 Threads); win-win sozusagen!
Ich habe die neue GPU in's alte System eingebaut, um den "CPU / System"-Leistungszuwachs zu sehen; und das ist spürbar schneller!!
Siehe Vergleich : in DCS zum Beispiel ist die Flüssigkeit des Gameplays Tag und Nacht! Sicher hat man auch im alten System mit der 4090 geniale 136 FPS; aber der Frameverlauf und die Frametimes sind grottig, mit stottern und FPS-Einbrüchen jede Sekunde auf unter 20 FPS!
Mit dem i7-13000 sind diese Einbrüche nicht so oft und dann auf nur 60 FPS; kann man zwar auch wahrnehmen, aber es wird zumindest kein ruckeln daraus (und das DCS-Multithreading-Update, welches hoffentlich mal rauskommt wird dies vollends beheben).
Ich bin zwar einer der seine Hardware nicht jährlich tauscht, sondern verwendet so lange es geht, aber hier bin ich froh, auch das Subsystem - nicht nur die GPU - getauscht zu haben!!
Wie in den Reviews geschrieben: so eine Grafikkarte braucht einfach eine starke CPU, die die Daten liefert...
Und weil Noctua einfach die geilste Firma ever ist, krieg ich für meinen alten CPU-Kühler - wie schon beim Ryzen - die neue Mounting-Plate gratis!!
Bei anderen musst einen neuen CPU-Kühler um 100€ oder so kaufen; DAS ist echt ein super Produkt-Support!
Aber ich muss schon anmerken: die "Verpackung", in dem ein doch sau-teurer CPU geliefert wird ist... abenteuerlich
;-)
Blauer Karton, etwas Schaumstoff, fertig.
OC
Zum "Systemstabilitätstest" gehört für mich auch OC dazu; um rauszufinden wo die Limits sind.
RAM geht so gut wie überhaupt nichts; nicht mal die Command-Rate kann man auf 1 runterstellen. Und selbst wenn man mit den Voltages, Frequenzen und Timings rumspielt, es bringt einfach zu wenig.
Beim CPU jedoch lässt sich noch einiges bewerkstelligen; am besten wäre hierfür aber eine starke Wasserkühlung!
Mit meinem fast perfekten Luftkühler geht da nicht mehr wirklich viel...
6GHz sind teils trotzdem drin:
Zuallererst sollte man seine "2 besten Kerne" rausfinden (via Intel Übertaktungstool). Bei mir 4 & 5
Dann erhöht man die Spannung auf einen Wert, denn Profi-Übertakter als "safe" einstufen: adaptive voltage 1.45V
Außerdem kann es stabiler sein, wenn man die "Load Line" auf HIGH stellt
Nun stellt man die "active turbo ratio" auf: 60, 60, 58, 57, 55, 54, 53, 52 -> werden 2 Cores verwendet, takten diese auf 6 GHz, 3 Cores auf 5.8 GHz usw.
Das ganze wird zwar richtig heiß (100°C), und im AVX-Load ist das oft nicht mehr stabil; hier kann man aber zum Glück einen "AVX Offset" einstellen (zb. 10), dann ist die Ratio der Kerne um 10 vermindert, wenn der sehr leistungshungrige AVX Workload anliegt (also bei 2 Kernen 5 GHz, ...).
Die eCores schaltet man ab; so hat man etwas Power- und Hitzespielraum für die pCores.
Hauptspeicher:
-> November 2005
2005 : 222.50 €
(TWINX2048-3200C2)
-> Review
Die High-Performance-Speicher von Corsair waren, sind und werden immer meine Favoriten bleiben. Das nun jedoch schon 1-Gigabyte-Module mit
einer CAS-Latency von 2 zu haben sind ist bemerkenswert! Eine CommandRate von 1, sowie ein FSB von >=400MHz (kann man anscheinend bis
~470MHz übertakten) ist bei denen selbstverständlich...
Und bei den "TwinX" sind 2 Module der gleichen Serie verpackt, was einen DualChannel-Betrieb garantiert!
Geschwindigkeit pur...
-> Mai 2007
2007 : 135.42 €
(KVR400X64C3AK2/2G)
Um Gothic3, wo ich ja ua. die Sichtweite mithilfe von ini-Tweaks extrem gesteigert habe, halbwegs
perfekt spielen zu können, habe ich mir weitere 2GB Ram gekauft, da sich in meinen Tests gezeigt hat, das G3 durchaus mehr Ram benützt (hatte nämlich vor kurzem 4 GB Ram drinnen).
Somit sollte es "ruckelfreier" zu spielen sein, obwohl natürlich versprochen wurde, dass der 5. Patch dieses Problem beheben wird. Nur blöd dass niemand weiß, ob dieser überhaupt noch
released wird... br/>
Egal, ich habe mich für Kingston ValueRam entschieden, ganz einfach deshalb, weil sie am billigsten sind. Sonst hätte ich mir die Corsair-Value genommen, mit welche ich schon
sehr gute Erfahrungen gemacht habe.
-> April 2009
2009 : 86.39 €
(OCZ3P1600LV6GK)
-> Review
Zuerst wollte ich ja - typisch für mich - ein Corsair TrippleKit kaufen. Doch da dieses nicht nur teurer ist, sondern auch
höhere Latenzen hat (8 vs. 7), habe ich mich schlussendlich und zum Glück für dieses OCZ-Kit entschieden:
3* 2GB @ 1600MHz, CL7-7-7-16 , T1 , 1.65V
Das ist es, was dieser Speicher schafft! Genial, oder? Man könnte nun noch versuchen, die CL auf 6-6-6-14 zu drücken. Sollte mit etwas
mehr Spannung kein Problem sein!
-> Oktober 2013
2013 : 147.89 €
(F3-2400C10D-16GTX)
-> Review
abnehmbare Kühlrippen
Dies ist ja wieder ein "normales", kein
extreme System und hat deshalb reines Dual-Channel
(zum Vergleich: der IB-E
hat Quad-Channel!)
Und weil beim Ram
immer mehr = besser ist, hab ich mich gleich für 2*8GB entschieden^^.
Und wenn man sich da die ganz beachtliche Liste auf
Geizhals
ansieht, muss man sich folgendes bewusst werden:
Ram-Takt größer/wichtiger als Ram-Timings! (->
Memory Scaling on Haswell )
Beim Haswell ist der Standard-Ramtakt ja 1600MHz bei 1.5V; die goldene Mitte scheinen "2400 @CL9", sowie "2666 @CL10" zu sein, die natürlich nur bei 1.65V zu erreichen sind.
Ob dies mit meinem Ram möglich ist
(2400-10-12-12-31-2 ) , ist zwar fraglich, doch nach dem ein 1600er Kit nur 20€ billiger wäre (dafür bei CL8) kann man gleich auf den wichtigen,
hohen Takt setzen.
-> Dezember 2019
2019 : 272.84 €
(F4-3600C16D-32GTZN)
-> Review |
Review |
DRAM Calculator |
RAM Takt vs. Timings
Laut div. Berichten im Internet sind die
Samsung B-Dies das um-und-auf bei Ram-Modulen; und dieses Ramkit bietet diese seltenen und teuren Speicher!
Und die Performance ist einfach TOP!
CL13/14 ist bei 3600 MHz kein Problem (bei etwas erhöhter Spannung, die dieser Ram locker packt).
Geschwindigkeit ist zwar wichtiger als Timings, ABER: Zen2 schafft einen 1:1 Uncore nur bis 3600MHz, ab dann läuft dieser zum Ramtakt ungleich, was die Latenzen usw. erhöht. D.h. 3600 ist
das "goldene Maximum"! (außer man geht gleich viel weiter rauf; zb. 4400 MHz, doch da wird der Ram schon sehr teuer...)
Somit holt man das
Minimum an schaffbaren (Sub-) Timings raus um die bestmögliche Performance zu erhalten.
-> Jänner 2022
2022 : 241.80 €
(F4-3600C16D-32GTZN)
Man möchte meinen, 32GB seien nicht zu wenig, va. wenn man hauptsächlich spielt.
DCS hat mich eines besseren belehrt! Diese
FlightSim krallt sich was geht, sodass man defacto keine anderen Progs mehr verwenden kann. Wenn ich dann noch
TacView starten will, dann hab ich schon OOM (out of memory)
Fehler.
JETZT sicher nicht mehr!
Jetzt hab ich 4* 16GB auf 1600 und mit scharfen 16er Timings inkl. einer Commandrate von 1 laufen!
Zur Kontrolle habe ich gleich mal einen Memtest für ~7h durchlaufen lassen. Sollte also alles passen
:-)
-> Jänner 2023
2023 : 312.04 €
(F5-5600J3636D32GX2-RS5K)
-> Geizhals
Ok, das hat weh getan: erst voriges Jahr habe ich meinen DDR4 Ram auf 64GB um teure 240€ aufgerüstet; das machte insgesamt mehr als 600€ Ramkosten aus.
Und jetzt rüste ich um auf DDR5 und kann wieder 64GB Ram kaufen... das ist das einzige, was mich an meinem Upgrad wirklich etwas stört :-( .
So gesehen ist der neue Speicher sehr billig. Außerdem sind es nur 2 Riegel und wie ich gesehen habe, machen 4 einfach nur Probleme!
-> Oktober 2023
2023 : 255.01 €
(CMK64GX5M2B6600C32)
-> Geizhals
Na so a schaß!
Nach etwas testen bin ich mir draufgekommen, dass ein Ram-Riegel des G.Skill Sets defekt sein dürfte. Die bieten zwar lebenslange Garantie, doch
bis das ganze abgewickelt ist, vergehen ungefähr 2 Monate => ich musste mir für die Zwischenzeit ein anderes Kit besorgen (hoffte es
geht schneller und bleibe innerhalb der 30-Tage-Amazon Rücksendefrist ;-( ).
Grafikkarte(n):
-> November 2005
2005 : 460.70 €
(21073-00-50)
-> Review
OH MY GOD , diese Karte ist fett !! Und zwar nicht nur, weil ich überhaupt eine erwischt habe, oder was die
Spieleleistung oder den Strom-Verbrauch angeht, sondern auch die Ausmaße:
Breite: standard (entspricht 10cm -> da lässt sich auch nicht viel ändern :-) )
Höhe: 2 Slots (entspricht 4cm -> die Abwärme wird gleich direkt aus dem Gehäuse befördert!)
Länge: 23cm (passt wahrscheinlich nicht in jedes Gehäuse...)
Gewicht: 686g (und ich dachte letztens, meine GeForce6800GT ist schwer...)
Ein wahres Monster, durch und durch!
Hier das gesamte Package, sowie nochmal vergößert die Sapphire Select CD . Ich weiß nocht nicht, was genau es
damit auf sich hat. Doch man kann sich verschiedene Spiele installieren welche begrenzt lauffähig sind (wie die direkt
vom Internet runtergeladen Games von TryGames ). Wenn man
diese Spiele ausprobiert hat, kann man sich wahrscheinlich eins oder zwei davon aussuchen und mit den vorhandenen
Codes (logischerweise kostenlos) kaufen.
(mit der Maus auf ein Objekt im Bild zeigen, bis die Erklärung dazu aufscheint)
Und nun das Herzstück eines jeden (Gamer-)PCs, die Grafikkarte: (Vorder- und Rückseite)
-> Mai 2007
2007 : 485.07 €
-> Review
Nachdem es mit der Radeon X1800XT nicht mehr möglich ist, aktuelle Games mit maximalen Details in vernünftiger Geschwindigkeit zu spielen (siehe
Benchmarks )
und die Radeon HD2900XT doch etwas entäuscht hat (und ich nicht warten will, bis die Treiber perfekt sind, oder die HD2900XTX rauskommt), habe
ich mich entschlossen, eine GeForce8800GTX zu kaufen.
Und wie ich weiß, sind eigentlich alle normalen Versionen einer Grafikkarte gleich (also nicht die Übertakter-Versionen ) und
sind alle mehr oder weniger gut übertaktbar, weshalb es egal ist, ob man einen billigeren oder teureren Hersteller nimmt.
Leider lässt sich diese Grafikkarte nach den ersten Versuchen nicht wirklich gut übertakten; werde das aber noch genauer ansehen. Ein eigenes Bios kreieren und
dann flashen (damit man die Spannungen erhöhen kann), werde ich aber höchstwahrscheinlich nicht machen; das können Tester, welche diese Hardware "für lau", also
umsonst bekommen ausprobieren, doch ich werde meine neue, (teure) Grafikkarte nicht riskieren.
Was noch erwähnt gehört: ich habe ja geglaubt, die X1800XT wäre lang und schwer gewesen; aber dieser Saurier unter den Grafikkarten ist dermaßen lang und schwer,
dass man es schwer hat, diese GraKa überhaupt einzubauen! => dieses Super-Teil hat nicht in jedem Tower Platz! (ich habe halt kurzerhand meinen
oberen HDD-Käfig herausgenommen:-) ). Außerdem sind die PCIe-6fach-Anschlüsse so angebracht, dass sie zur Gehäusewand zeigen, sprich man braucht
flexible PCIe-Stecker beim Netzteil! (deshalb konnte ich mir auch noch gleich ein neues NT kaufen)
An Zubehör ist eigentlich alles dabei was man braucht: Manual, Treiber-CD, S-Video-Kabel, DVI2VGA-Konverter sowie 2 Games
(Spellforce2-DragonStorm , JointTaskForce ).
-> April 2008
2008 : 226.00 €
-> Review
Es wird gestartet: Projekt SLI
So, nachdem die Reviews zu SLI-Systemen zum Größtenteil positiv sind (in den meisten Games bringts 75-100% mehr Leistung), möchte ich mich nun
auch wagen, dem SLI-Club beizutreten.
Zubehör gibt's Standard, sowie Company of Heroes als
Spiele-Beilage.
Hier ist die Grafikkarte inkl. SLI-Adapter und SLI-Halterung zu sehen:
-> Jänner 2010
2010 : 359.00 €
(AX58701GBD5-MDH)
-> Review
Leider ging mir diese Weihnachten eine meiner GeForce 8800GTX ein, weshalb ich mich in letzter Zeit mit grafisch nicht
ganz so anspruchsvollen Dingen die Zeit vertrieben habe (Videos gucken, alte Games zocken).
Und eigentlich wollte ich mit dem Kauf einer neuen Graka noch bis zum Release der neuen nVidia "Fermi" warten, doch
ich kann einfach nicht mehr länger ausharren und wenn man es genau betrachtet, wird diese am Anfang noch sau teuer sein
(~500€) und schon alleine deshalb nicht mit dieser Karte konkurieren können. Sollte sich dann herausstellen, dass
die nVidia-Karte wirklich um so vieles besser ist, werde ich mir dann halt wenn die Zeit reif ist (und die Karte
etwas billiger^^), 2 von denen holen; ansonsten rüste ich einfach eine zweite 5870er nach; ist für Stalker und Crysis
teils leider notwendig.
ATI + nVidia
Und wie man im Bild sieht, hab ich noch immer die 2. GeForce im System: ich will einfach nicht auf PhysX verzichten
und es gibt ja zum Glück einen netten kleinen
Mod/Patch ,
welcher es erlaubt, bei nVidia-Grafikkarten Hardware-Physx im Control-Panel - trotz primärer ATI-Karte - zu aktivieren
(hat ja nVidia vor 1 Jahr via Treiber 'verboten')!
Nur der 3DMark Vantage stürzte immer ab, sobald PhysX aktiviert war... ansonsten hatte ich in keinem Benchmark oder
Spiel ein Problem damit...
Ein paar
Benchmarks habe ich natürlich auch gleich gemacht; zum Beweis dass es funktioniert natürlich inkl. diverser
PhysX-Benchmarks (wie Fluid Mark).
-> Dezember 2010
2010 : 473.00 €
(M2D15D5)
-> Review
Zugegeben, es ist schon etwas arg und krass, nicht mal ein Jahr nach dem Kauf einer HighEnd-Karte wie der "HD5870" schon wieder
eine neue zu kaufen. Noch dazu um dieses Geld (und die 2te kommt bald...).
Aber mir war es leid, dass ich viele Spiele nicht in der gewohnten Qualität in FullHD spielen konnte; dafür reicht eine HD5870
nicht aus; jetzt hätte man natürlich einfach eine weitere solche kaufen können, doch es gibt noch andere Gründe, wieso ich
wieder auf nVidia setze:
HD5000er (und 6000er?) Karten produzieren bei der Gothic3-Engine extrem unschöne Textur-Artefakte (=unspielbar)
(Transparency-) AntiAliasing kann nicht forciert werden, da es kein nHancer-ähnliches Program gibt (sehr wichtig für Gothic3, Risen, etc.!)
Performance-Einbrüche (=minimale FPS) in einigen Games
Kein PhysX-Support - ok, man könnte eine vorhandene 8800GTX reingeben, doch da man noch dazu CrossFire benötigt, braucht man
schon 3 Grafikkarten! => neuer Tower und neues Netzteil :-(
Kein vergleichbarer 3D-Support - ok, gilt für mich derzeit nicht wirklich da ich kein 120+ Hz Display habe und somit die nVidia-Brille auch
nicht verwenden kann; sobald es jedoch 30" Schirme dieser Art gibt, bin ich gerüstet :D
Wie schon erwähnt werde ich gleich auf ein SLI-System setzen, doch sind die Karten derzeit nur spärlich erhältlich, weshalb
ich die zweite (MSI) dann in nächster Zeit mal erhalten werde.
Hier wie gewohnt noch einige Pics:
Verpackung
Inhalt
Karte - PCIe
Karte - SLI & Power
Karte - Anschlüsse
-> Mai 2011
2011 : 389.75 €
(VGA-580-A1)
Für mich war es klar, dass ich mir Aufgrund einiger weniger sehr anspruchsvoller Games eine zweite GTX580 zulegen werde; dass es so
bald sein wird, hätte ich jedoch nicht geglaubt.
Na ja, aber nach dem nun Crysis2 rausgekommen ist (und ich natürlich gleich gekauft habe), möchte ich vorher noch den ersten Teil
mit diversen Mods & Maps spielen. Und da dieser Teil um einiges anspruchsvoller ist, was Grafikhardware betrifft, war die Entscheidung
schnell gefallen, den Kaufzeitpunkt vor zu verlegen.
Noch dazu, da ich keine Probleme mit SLI erwarte; auch nicht was diverse Spiele bzw. dessen SLI-Profile anbelangt, da man via nHancer oder
nV-Inspector selbst ganz leicht ein eigenes Profil definieren kann. Und mit Mikroruckler hatte ich bisher auch keine ernsten Probleme.
-> Mai 2014
2014 : 566.89 €
(GV-N78TOC-3GD)
Puh, das war jetzt mal 'ne Schnellentscheidung!
Eigentlich wollte ich ja bis zum "Maxwell" (erste DX12 GPU von nVidia) im Herbst warten, doch Aufgrund der (Performance-) Probleme
in "TES - Skyrim", dem legendärsten OpenWorld RPG allerzeiten, habe ich kurzerhand eine neue GraKa bestellt :-)
Ich hatte nämlich nicht nur eine stark durchwachsene Performance, mit FPS-Einbrüchen, Ruckler und teils niedrige Minimum-FPS, sondern
obwohl die Skyrim-Engine mein SLI schön ausnützte (die GPUs waren immer gut ausgelastet), gab es einen unerklärlichen und
das Spiel stark beeinträchtigenden Grafik-Fehler:
Wasser flimmert bei aktiviertem SLI! Immer!
Egal ob Fluss, See, oder Pool.
Und AntiAliasing inklusive Transparency-SuperSampling konnte man gleich komplett vergessen.
Aber obwohl die 780TI in den Benchmarks nicht immer spürbar schneller als mein altes SLI ist, ist der Performance-Unterschied in diesem
Spiel (aber ua. auch in "3DMark Firestrike Extreme" oder "Unigine Heaven 4") gewaltig!
Selbst inklusive 4x TSSSAA habe ich durchgehend über 45FPS; dies ist mein FPS-Limit, damit die Karte nicht durchgehend (und unnötigerweise) am
Anschlag läuft. Und ist besser als Vsync, da es zu keinem Maus-Lag kommt.
Resümee: ich bin hellauf begeistert!
Ein Problem - was angeblich nur diese Karte von Gigabyte betrifft - habe ich jedoch ebenfalls feststellen können:
Im
3DMark 11 , im Graphics Test 1 und 2, sind teils Artefakte wie färbige Bildunterbrechungen oder Bild-Flimmern zu sehen. Nachzulesen hier
im
Geforce-Forum .
Aber ich habe
zig Games und Benchmarks durchlaufen, ohne Probleme und nur hier gäbe es Fehler?
Das sieht mir einfach zu sehr nach einem Futuremark/nVidia/Treiber-Error aus!
Die Zukunft wird's zeigen ob ich recht behalte; denn zurückgeben kann ich die Karte jetzt nicht mehr so einfach (und so lange die Karte
nicht eingeht, will ich auch gar nicht^^).
-> April 2016
2016 : 579.83 €
(ZT-90504-10P)
Und wieder ist es ein Rollenspiel, weshalb ich mir "auf die gache" eine neue GPU geleistet habe: Risen 3 in 4k-Auflösung; der 780 geht leider der Videospeicher bei 4k aus :-(
Denn die Geschwindigkeit unter 2k ist bei der neuesten Generation nicht sooo viel besser, wie diverse
Benchmarks belegen!
Aber in den 4k-Tests kann die Karte so richtig ihren Speed-, aber vor allem Ram-Vorteil ausspielen!
Wobei man dazusagen muss: im Spiel wirkt sich das meist nicht ganz so drastisch aus -> normalerweise wird nämlich der Videospeicher sehr gut dynamisch
voll gehalten; sprich ältere/unwichtigere Daten wieder entfernt.
So hab ich in Risen (via Fraps) bei der 780er ~25-30 FPS gehabt und fast der ganze Ram wurde verbraucht.
Mit der 980er hab ich nun 35-45 FPS und es wird "nur" 4-4,5GB Ram verbraucht; -> das ist zwar um ~2GB Ram weniger, als diese Karte hat,
doch es ist auch um ~1GB
mehr Ram, als die 780 hat!!
Aber der Größenunterschied zur Custom-3-Slot 980 zur Custom-2-Slot 780 ist enorm! Auch das Gewicht ist entsprechend höher. So ist
die 980er "stabiler" gebaut; vor allem die Lüfter sind nicht mehr so filigran und zart.
Und was ich bisher sagen kann auch sehr leise!!
Aber da die Karte nicht wirklich schneller ist, gebe ich sie zurück.
-> Mai 2017
2017 : 752.46 €
(V360-001R)
Wow, also mittlerweile sind die Enthusiast/HighEnd Grafikkarten ganz schön teuer! Knapp 200€ mehr als noch 2014!
Das ist halt das Problem, wenn 1 Hersteller (nVidia) das Performance-Monopol besitzt :-(
HOFFENTLICH setzt AMD seinen Kontrahenten bald wieder mal unter Druck; wer weiß wo das sonst noch hinführt...
Wie immer habe ich mir viele Reviews durchgelesen; muss so sein, denn anders als bei der "Founders Edition", wo das Platinenlayout und der
Kühler von nVidia vorgegeben ist und somit jede Karte mehr oder weniger gleich ist, sind die "Custom" Karten komplett unterschiedlich!
Nicht nur andere Platinen mit evtl. mehr
Spannungswandlern , sondern auch total unterschiedliche
Kühler und
Lüfter , sowie ein höheres
Power-Limit ...
da gibt es einfach zu viele Variablen, als dass man sich "einfach eine Grafikkarte kaufen" könnte (mMn.).
Reviews :
->
Übersicht auf Computerbase
->
PCGamesHardware Artikel
Asus Strix OC : PCGamesHardware , Computerbase , Guru3D Laut CB die beste Karte, doch PCGH hat Schwachstellen im Kühldesign aufgezeigt (VRMs und Backplate). Weiters hat Guru3D teils sehr hohe Temps gemessen!
Gigabyte Aorus Extreme : PCGamesHardware , Computerbase , TomsHardwareGuide , Guru3D sehr hohe mögliche Leistungsaufnahme (bis zu 375W!) und genialer Kühler der alles abdeckt (Radiator bedeckt VRMs & Ram, Backplate inkl. Pads)
Inno 3D X3 Ultra : PCGamesHardware nur bis 315 Watt -> nicht weit übertaktbar; außerdem läuft der Lüfter auf Anschlag
MSI Gaming X : PCGamesHardware , TomsHardwareGuide , Guru3D nur 330W Max. und obwohl nicht so viele VRMs wie Gigabyte und eine Backplate ohne Pads, ist der Kühler leise und effizient!
Palit Super Jetstream : PCGamesHardware guter und leiser Kühler; leider nicht so gut zu übertakten? Bester Preis!
Zotac Amp! Extreme : PCGamesHardware , Computerbase , TomsHardwareGuide , Guru3D Schnellste Karte Out-of-the-box, aber viel zu laut!
Vergleichstabellen :
Watt def. PT inc. Watt Phasen
Asus Strix O11G 275 +20% 330 10+2
Caseking Custom Loop 250 +20% 300
EVGA GTX 1080 Ti FTW3 280 +17% 350
EVGA GTX 1080 Ti SC2 250 +20% 300
Gigabyte Aorus (Xtreme) 250 +50% 375 12+2
Inno 3D X3 (Ultra) 270 +17% 315 7+2
MSI Gaming X 11G 280 +17% 330 8+2
Nvidia Founder’s Ed. 250 +20% 300
Palit GTX 1080 Ti Super Jetstream 250 +40% 350
Zotac AMP! Extreme 320 +20% 384
Clock, Boost, Std. Sone, Last, Std. Temp, Last, Std. Max OC
Zotac AMP! Extreme 1.898 MHz 3,6 71°C 2.038 MHz
MSI Gaming X 11G 1.810 MHz 1,9 72°C 2.076 MHz (72°C, 1.520rpm)
Asus Strix O11G 1.823 MHz 2,2 70°C 2.050 MHz (71°C, 1.650rpm)
Inno 3D X3 (Ultra) 1.835 MHz 1,8 78°C 2.025 MHz (max rpm)
Gigabyte Aorus (Xtreme) 1.747 MHz 1,8 72°C 2.075 MHz (2.880rpm)
EVGA GTX 1080 Ti FTW3 1.898 MHz ? 71°C 2.000 MHz
EVGA GTX 1080 Ti SC2 1.797 MHz ? 68°C 1.950 MHz
Palit GTX 1080 Ti Super Jetstream 1.759 MHz ? 70°C 1.936 MHz
Caseking Custom Loop 1.747 MHz 0,5 47°C 2.025 MHz
Nvidia Founder’s Ed. 1.531 MHz 4,4 86°C 1.900 MHz
Was für eine Conclusio kann man ziehen?
Wenn man den Tatsachen des Asus-Kühler glauben schenkt, bleiben nur 2 Karten in der engeren Auswahl übrig:
"MSI GTX 1080 Ti Gaming X 11G" vs. "Gigabyte GTX 1080 Ti Aorus Xtreme Edition"
Und ich hätte mich für die Aorus entschieden, wenn nicht der Preis (~50€ teurer) und die Lieferzeit (nicht lieferbar^^) gewesen wäre.
Außerdem muss ich noch die "Palit GeForce GTX 1080 Ti Super JetStream" erwähnen, welche das beste Preis/Leistungsverhältnis hat (wenn man in dieser Klasse überhaupt davon reden kann^^)
Deshalb hab ich mir "kurzerhand" die MSI GamingX gekauft :-)
Hier nur ein kurzer Größenvergleich zu alten GraKa:
Gigabyte 780 Ti: 1.025 Gramm
MSI 1080 Ti: 1.265 Gramm
780 ist etwas länger
1080 ist höher und breiter(!)
Benchmark-Vergleich
Und zum Abschluss noch etwas witziges: MSI hat nicht nur einen Quick-Setup-Guide beigelegt, sondern auch einen "
Einbau-Comic "! Erfrischend anders^^
Folgend noch meine Überaktungsergebnisse (vollständige Benchmarks
siehe hier ):
MSI GTX 1080 Ti GamingX Overclocking
Software:
OC-Tool 1: MSI Gaming App
OC-Tool 2: MSI Afterburner (für ALLE Grafikkarten geeignet; auch AMD!)
Bench 1: Unigine Heaven 4 (DX11, Ultra, Extreme Tesselation, 8xAA, 1600x900)
Bench 2: Futuremark Fire Strike Ultra
Bench 3: Futuremark Cloud Gate
Overclocking:
GPU Clock (MHz) Volt (V) Temp (°C) FAN (rpm) Mem Clock (MHz) Verbrauch (ges. System!) (W)
Idle 202 0,686 <63 0 405 42-90
Load 1.898 1,031 70 1.450 5.508 325-370
MSI Gaming App
Gaming Mode 1.911 1,04 69 - 5.508 -
OC Mode 1.936 1,05 70 - 5.562 -
MSI Afterburner
Voltage: +100 Power: 117% Temp: 90°C 1.949 1,093 70 1.590 5.508 370-400
GPU: +100 Mem: +500Heaven stable 2.038 1,093 73 1.615 6.003 390-420
GPU: +80 Mem: +500Firestrike stable 2.012 1,081 73 1.745 6.003 390-410
Ergebnisse:
Cloud Gate Graphics | Physics FireStrike Ultra Graphics | Physics | Combined
GPU: def | CPU: def 28.649 152.012 | 7.460 6.833 7.110 | 10.471 | 3.770
GPU: OC | CPU: def 28.418 150,410 | 7.403 7.137 7.469 | 10.314 | 3.978
GPU: OC | CPU: OC 33.768 177.079 | 8.811 7.400 7.627 | 12.405 | 4.049
Daraus folgt: überakten bringt bei niedriger Last nichts; erst Ultra-High-Detail Full-HD oder 4k sehen einen spürbaren Gewinn durch's übertakten!
=> ich werde normalerweise die Grafikkarte
untertakten (alles im Afterburner auf "Minus" stellen) und nur bei anspruchsvollen Games & VR auf das OC-Profil schalten!
Anschlüsse :
2x DisplayPort v1.4 : 32 Audio-Channels (HDCP 2.2) , 1440p@240Hz, 4k@120Hz, 5k@60Hz, 8k@30Hz, HDR10, HDR Video, no Dynamic HDR, no Variable Refresh Rate, Display Stream Compression (4k@120Hz, 8k@60Hz inkl. HDR10, 30bit/px, HDR)
2x HDMI v2.0b : 32 Audio-Channels (HDCP 2.2) , 1440p@144Hz, 4k@60Hz, 5k@30Hz, HDR10, HDR Video, no Dynamic HDR, no Variable Refresh Rate, no Display Stream Compression
1x DualLink DVI-D : no Audio, 1080p@120Hz, no HDR
-> Jänner 2023
2023 : 2282.94 €
(VCG409024TFXXPB1)
Der Name... etwas längeres hätten sie sich nicht einfallen lassen können?
Na ja, aber darum geht es zumindest nicht. Laut überraschendem PCGH-Test ist dies die
mit Abstand leiseste 4090 die es gibt; und ja, das schließt die Wassergekühlte MSI mitein!!
Und es ist wirklich genial: da zockst du stundenlang, die GPU wird mit 60° mal "handwarm" und ist absolut unhörbar! Also nicht nur ist dies die schnellste GPU mit dem größten Generations-Performance-Sprung den es jemals gab, sie ist außerdem die effizienteste Highest-End Karte (low-end haben natürlich weiterhin eine bessere "per Watt Performance")!
Deshalb ist es auch absolut egal, dass diese Karte keine 600W "erlaubt", sondern nur 450. Denn selbst das wird so gut wie nie benötigt.
Ich schwanke unter Vollast bei 200-400W. Ist zwar trotzdem viel, aber der massive Kühler steckt das anscheinend leicht weg (wurde ja für 600W konzipiert!).
Ich hätte nicht geglaubt, dass es nach der genialen 1080Ti, nochmal eine Grafikkarte mit derart überdurchschnittlichen Performance gibt; das ist ja der einzige Grund, wieso ich die 2000er und 3000er Generationen "überspringen" konnte, weil die 1080Ti noch mehr als ausreichend war.
Nur in wenigen Spielen (wiedermal DCS), sowie natürlich Raytracing war die alte GPU zu schwach. Da keine RT-Cores sogar unvergleichbar schlecht:
3 FPS in Quake2-RTX, gegenüber ~135 FPS bei der 4090 .
Preis.
Ja, wenn die "modernen" Preise nicht wären...
Seit dem die Chipsatzfabrik zerstört wurde (Japan? Tsunami?), und dann mit den scheiss Scalpern und vor allem den Crypto-Minern (Bitcoin & Etherium), waren die GPU-Lager leer, was zu hohen Preisen bei der 2000er und 3000er führte.
Und obwohl beides nicht mehr ist (Mining ist mit Sommer 2022 zusammengebrochen), bleiben die Preise schmerzhaft und unverschämt hoch; und laut nVidia CEO (und auch AMD) wird sich das auch nicht mehr ändern.
Klar, es hat sich gezeigt, dass die Leute bereit sind diese vielfach überhöhten Preise zu zahlen.
Man möchte meinen, dass hier diverse Gesetze gegen derartige Praxis vorhanden sind und die Politik/das Gesetz da eingreift, aber dem ist leider nicht so.
Denn so gut, genial und toll die Grafikkarte ist:
über 2.000€ sind ein Wahnsinn !
2005 X1800 XT 460€
2007 8800 GTX 485€
2010 GTX 580 470€
2014 GTX 780 570€
2016 GTX 980Ti 580€
2017 GTX 1080Ti 750€
2020 RTX 2080Ti 1.500€
2021 RTX 3080Ti 1.900-2.300€
2022 GTX 4080 1.500-2.000€
2022 RTX 4090 2.300€
Und obwohl man meinen möchte, dass die Karte schon relativ am Limit läuft kann man durchaus noch übertakten; vor allem den RAM, was durchaus was bringt! (hier im 3DMark Speedway Benchmark):
default 9.794
nVidia Auto-OC (Afterburner-Spannungskurve) 9.955
GPU +215 MHz 9.919
Max: GPU +215 MHz RAM +1500MHz 10.489
Stable: GPU +200 MHz RAM +1250MHz 10.480
Soundkarte:
-> Jänner 2016
Derzeit sind alle alten Soundkarten in den alten PCs und habe mich noch für keine Neue entschieden.
Verwende derzeit also den Realtek Onboard-Sound vom Motherboard! (hat 7.1, sowie Stereo-Upscaling -> was will man mehr?^^)
-> Februar 2017
2017 : 72.60 €
Da ich nun schon länger div. Onlinespiele zocke und die Qualität der Eingangs-Elektronik des Onboard-Chips zu bescheiden ist, habe
ich mich entschlossen doch wieder eine dedizierte Soundkarte zu kaufen; und ich bereue es nicht!
Ich bleib jetzt definitiv bei meinem bisherigen Standpunkt: JEDE dedizierte Karte ist einer Onboard-Lösung überlegen!
(mit einer sehr raren Ausnahme: wenn solche dedizierten Chips direkt am Motherboard verbaut sind UND gute, vom Rest des Motherboards
getrennte Bauteile verwendet werden!)
bietet Dolby Digital Live!
EAX 5
6-Kanal Klinke
Toslink in + out (optisch)
Mic/Headset Klinke
Als möglichen Gegenkandidaten gab's nur noch die Asus D2X, doch ist das ein Auslaufmodell und nicht mehr wirklich erhältlich...
Und ja: ich habe das beigelegte Mini-Stand-Microphon einige Zeit probiert und sie funktionierte erstaunlich gut!
Ein Mikro zum Anstecken ist trotzdem besser ;-)
Mikrofon:
-> Februar 2017
2017 : 11.95 €
Ein "billiges" chinesisches Mikrofon, dass mich ehrlich gesagt positiv überrascht hat!
Vor allem in Verbindung mit der neuen Soundkarte - welche einfach eine weitaus besser Input-Elektronik hat! - ist die Sprache
extrem gut verständlich!
Da man aber hier keinen "ausschalter" hat, ist das Mikro "always on"...
Abhilfe:
die Software MicMute , welche autom. beim Systemstart das Mikro stumm schaltet und auch Hotkeys unterstützt. Eigentlich ziemlich geil, aber ich hatte oft das Problem, dass das re-aktivieren des Mics dessen Lautstärke nicht auf 100% anhob, sondern auf 0% blieb und mich deshalb niemand hört :-(
was soweit perfekt funktioniert: NirCMD + ein kleines Script, mit dem man das Mikrofon an/aus-schaltet:
nircmd setvolume 1 0xffff 0xffff
nircmd mutesysvolume 2 default_record
Keyboard-Shortcut funktioniert, in dem man diesen beim Desktop-Shortcut einen vergibt!!
In den Windows-Startup (Autostart) Ordner geb ich einen "Shortcut" rein, welcher das Mic zum Systemstart deaktiviert:
C:\Windows\nircmd.exe mutesysvolume 1 default_record
-> Februar 2019
2019 : 41.63 €
Nach dem das chin. Mic leider eingegangen ist, hab ich mich entschlossen ein teueres zu kaufen ("buy once, cry once").
Als High-End Alternative gäbe es auch noch das
Antlion ModMic 5 , welches aber fast doppelt so teuer ist...
Includiert ist nicht nur ein
MIC off Schalter, sondern auch eine Lautstärkeregelung
-> hoffentlich ist das kein all zu billiges Poti; diese Teile werden meist sehr
schnell kaputt!
:-\
Headset / Kopfhörer:
-> Juni 2005
2005 : 64.20 €
Hat wie ich finde sehr gute Lautsprecher (8 insgesamt), welche eine gute Postionsbestimmung zulassen. Auch das Headset arbeitet einwandfrei. Sehr bequem und gut zu tragen.
Die Receiver-Box (an der das Headset angeschlossen wird), wird via 3*3.5mm-Klinkenstecker zwischen der Soundkarte und dem Boxensystem
angeschlossen.
-> Mai 2010
2010 : 59.90 €
Es gab mit dem alten, jedoch tollen 5.1-Headset ja schon immer das Problem, dass es extrem empflindlich gegenüber Funkstrahlen (sprich Handy) ist. Dann wurde
auch noch das Mikro defekt, weshalb ich mich entschlossen habe, ein neues zu kaufen.
Diesesmal hab ich mich jedoch wieder für ein Stereo-Headset entschieden; es ist billiger und die Lokalisierung der Spiele-Gegner sollte nicht um so vieles
schlechter sein. Im Gegenteil kann es sogar
besser funktionieren, da es "geschlossene" Ohrmuscheln sind, sie also die Ohren vollständig umschließen,
was sich wirklich sehr gut anhört!
-> Oktober 2017
2017 : 146.22 €
Ich hab einige Kopfhörer/Headsets getestet, doch so genial wie diese 350€ Kopfhörer sind wohl nur sehr wenige am Markt!
Vor allem, wenn man via Equalizer den Bass raufdreht, den die Treiber locker und gern vertragen!!
Mehr dazu in
diesem Artikel !
Der einzige Nachteil: es gibt keine Lautstärkeregelung (und kein Mikrofon). Mic hab ich - da ich am liebsten mit Lautsprecher zocke - sowieso ein anderes und zwecks Lautstärkeregelung musste
ich mir noch etwas suchen.
Zum Glück kann man das sehr lange Kabel entfernen, so brauchte ich "nur" ein neues. Und da ich's nur für VR brauche (lokal am PC kann ich schnell via Keyboard-Audio-Drehrad verstellen), sollte
es außerdem ein kurzes Kabel mit 2x Klinkenstecker sein.
Tja, viel spaß beim Suchen :-(
Schlussendlich bin ich sogar fündig geworden, aber halt bei einem billigen chinesischen Anbieter (wie schon beim Mikrofon):
SODIAL Audiokabel (3.5mm Klinke zu Klinke inkl. Volume-Regler, 1m)
Und da es nicht wirklich viel kostet, wär auch nicht viel verloren; also hab ich's einfach mal probiert.
Leider lag das Packet wohl sehr lange beim Zoll, denn von China selbst war es sehr schnell in AT!
Das Gute : billig wirkt es im ersten Moment gar nicht! Die 3.5mm Stecker stecken gut und fest, das Drehrad läuft ohne wackeln und ohne Spiel flüssig und das Poti - die größte Schwachstelle! -
funktioniert perfekt! 0-100% und absolut kein rauschen oder kratzen!! Geil :-)
Mögliche Alternativen:
Lautsprecher:
-> August 2002
2002 : 517.61 €
-> Review
Sehr gutes und starkes 5.1 Surround-System mit THX-Zertifikat, das einen unglaublichen Klang und mörderische Bässe bietet! Außerdem
ist eine Receiver-Box dabei, an der externe Soundquellen angeschlossen werden können, sowie Stereo-Quellen via "Dolby Pro Logic II"
auf 5.1 aufgewertet werden.
Solid State Disks:
-> Dezember 2009
2009 : 359.00 €
(SSDSA2MH160G2R5)
-> Review
Intel SSD - Retail
Man könnte schon fragen: wieso eine Intel SSD nehmen, wenn es andere gibt, die schneller sind?
Dies stimmt jedoch nur ansatzweise, hierzu folgende Tabelle
(ich nehme hier OCZ's Vertex als
Vergleichsbasis der Performance stärksten Indilinx-Controller SSDs, sowie die Western Digital Raptor mit 300GB als schnellsten "HDD"-Vertreter) :
Intel X25-M G2 160GB vs. OCZ Vertex 128GB (MB/sec)
Intel OCZ WD
Große Datenblöcke (2MB - sequentiell ) read 258 255 120
write 101 185 120
Kleine Datenblöcke (4KB - random ) read 64 38 0,7
write 41 14 1,5
Zugriffszeit (ms) read 0,05 0,1 6,8
write 0,09 0,35 7,8
Disk-Info
Wie man sieht, liegt die schnellste verfügbare HDD (meist) weit abgeschlagen hinten; nur bei den sequientiellen Raten kann sie halbwegs mithalten. Aber
genau hier liegt Intel's Achilles Ferse: denn die Schreibraten sind hier sehr mager (lesend sind praktisch alle SSDs gleich).
Dafür kann sich die Intel SSD bei den wohl wichtigeren random reads & writes weit vor die Konkurenz setzen! Wichtiger deshalb, da
vorallem das System, aber natürlich auch Programme und Games nur bei der Installation "sequenziell" (in einem zusammenhängenden Block)
auf die Platte schreiben
(wobei Platte natürlich als Synonym für Festplatte und nicht für
die Platter bzw. Datenscheiben einer HDD gilt^^) , im Betrieb gelten wohl eher die verteilten Zugriffe.
Ausnahmen bilden hier Spiele, welche Levels, Texturen etc. in den Hauptspeicher laden, was auch wieder sequentiell lesend erfolgt (und somit keine "moderne" SSD
im Nachteil ist)
(-> wieso modern? Weil vorallem die ersten und älteren SSDs mit dem langsamen JMicron-Controller, aber
zum Teil auch neuere SSDs mit Samsung-Controllern, massive Performance einbußen gegenüber Intel-/Indilinx-Controller haben. Und deshalb generell
nicht gekauft werden sollten!)
Packungsinhalt
Somit finde ich, ist die Entscheidung welche SSD derzeit die beste ist, ziemlich einfach und eindeutig
;-) . Das einzige,
das einen wirklich stören könnte, sind die unterdurchschnittlichen Firmware-Programmierer, welche Intel der SSD-Abteilung zugeteilt hat. Denn
nun ist es schon zweimal passiert, dass Intel Probleme mit der FW hat.
Eigentlich hätte Intel schon am
27.10. eine neue Firmware für die "Postville" getaufte zweite Revision der SSDs veröffentlich, welche
in Verbindung von "Windows 7" das TRIM-Kommando an das Laufwerk durchreicht. Doch kurz darauf, am
28. wurde diese
Aufgrund eines Fehlers wieder zurückgezogen!
o_O
Seit dem wartet jeder Intel SSD v2 Besitzer darauf, das Intel endlich den Kopf aus'm Arsch zieht und eine fehlerbereinigte
Firmware veröffentlicht!
Was auch ziemlich krass und extrem kundenunfreundlich ist: diese Trim-Firmware gibt's nicht für die erste SSD-Revision, welche
erst vor einem Jahr sündhaft teuer rausgekommen ist, und auf denen die
early adopters nun sitzenbleiben... *intel: that's a no-go!*
Weiters sieht man im Bild (und natürlich bei der Produktnummer "...G2
R5 "), dass ich die etwas teurere Retail-Version genommen
habe, da ich keine Möglichkeit gehabt hätte, diese 2.5" Platte in meinem System zu verbauen (nur 3.5" Einbauschächte) und bei dieser
Version ein Einbaurahmen beiliegt. Höchstwahrscheinlich werden zukünftig die Tower zusätzlich zu den 3.5" auch gleich mit 2.5" Schächten ausgestattet
werden.
Zu guter Letzt habe ich im "
Vergleiche "-Bereich meiner Bilder diverse Benchmarks meiner SSD erstellt (inkl. alte/neue Firmware!).
-> Oktober 2013
2013 : 199.97 €
(MZ-7PD256BW)
-> Review
links unten die kleine SSD
Die
alte Intel-SSD ist ja jetzt nicht wirklich langsam, trotzdem wollte ich schon allein Aufgrund der Größe eine moderne SSD. Natürlich, schneller
ist diese um ein vielfaches, doch stellt sich immer die Frage, ob man diesen Performance-Unterschied (zwischen 2 SSDs) auch wirklich "spürt"
(was ich doch irgendwo bezweifle) .
Und als "the best and greatest" sind zwei Produkte übriggeblieben:
Samsung SSD 840 Pro 256GB vs. SanDisk Extreme II 240GB
Und der einzige Benchmark, wo die SanDisk wirklich besser ist, ist der neue Uber-Benchmark "AnandTech Storage Bench 2013"; ein Workload, der so
wohl nicht vorkommen dürfte und das war mir dann doch zu wenig, um
den bisherigen König der SSDs vom Thron zu holen; außerdem ist die Samsung auch schon länger heraußen und konnte sich somit im Betrieb bewähren; da
ist die Zukunft bei der SanDisk doch eher ungewiss
(man denke an die schlechten Erfahrung bei OCZ mit deren Vertex 3 usw.) .
-> Jänner 2014
2014 : 485.04 €
(MZ-7TE1T0BW)
-> Review
Tja, was soll ich sagen; selbst für mich ist eine "Daten"-SSD schon etwas over the top , aber da ich beim Aufnehmen mit Fraps so massive
Frame-Drops habe, konnte ich vor kurzem etwas interessantes feststellen. Meine Daten HDDs waren nämlich voll, weshalb ich kurz auf meine
Samsung-SSD aufgezeichnet habe und ich musste erstaunt feststellen, dass die FPS nur geringfügig zurückgingen!!
Ich war mir schon im klaren, dass das Aufnehmen die HDDs beansprucht - RAW Daten bei mind. Full-HD in 30FPS..., aber dass ich deshalb statt mit
~15FPS, jetzt mit der SSD nun 30FPS (fixiert) aufnehmen kann, war schon ein Hammer!
Deshalb ist mir die Entscheidung relativ leicht gefallen, nun auch eine Daten-SSD einzusetzen. Videos aufnehmen/schneiden ist VÖLLIG anders, als
mit HDDs! Einfach genial :-)
-> März 2016
2016 : 280.18 €
(MZ-75E1T0B)
-> Review
Da SSDs einfach begeistern, was Geschwindigkeit angeht, hab ich mich beim aktuellen, relativ niedrigen Preis dazu entschlossen, meine
längst veralteten 1TB-HDDs durch diese SSD auszutauschen.
Und bereuen kann man so einen Schritt einfach nicht :-)
-> Februar 2019
2019 : 121.04 €
(WDS100T2B0A)
-> Review
Pff, mitten in seinen besten Jahren geht mir die "Samsung 840 Evo 1TB" ein; nach "nur" ~107 Terabyte written (war ja doch die Capture SSD)^^
Na ja, laut Specs sind es 72 TBW und 1.5 Mio Betriebsstunden .
Laut Anandtech's Best SSDs Q1/2019 ist diese SSD mit 5 Jahren Garantie und einem günsten Preis
die wohl beste Wahl (NVMe und M2-Sata sind unnötig).
Es gäbe zwar noch billigere SSDs, zb. von Intenso, doch von diesen ungekannten billigst-Anbietern lasse ich lieber mal die Finger...
Und selbst Kingston oder Crucial sind nur sub-optimal, da diese nur 3 Jahre Garantie bieten, anstatt 5 Jahre bei WD^^.
Na ja, mal schauen wie lange diese durchhält... da es eine Sata-SSD ist, sind die Specs mittlerweile so gut wie egal, weil jede SSD die Schnittstelle auslastet; nur IOPS, 4k read/writes und Latency
sind noch etwas von Bedeutung.
-> Dezember 2019
2019 : 203.58 €
(MZ-V7S1T0BW)
-> Review |
Review
Zwar habe ich mit dem neuen Motherboard nun die Möglichkeit,
PCIe 4 M2-SSDs zu verwenden, doch die derzeit erhältlichen sind nicht wirklich schneller als die
alten
PCIe SSDs!
Und die Samsung Evo
Plus ist im Schnitt sogar besser als die Pro und bei 1TB hab ich nun endlich genug Platz für meine Spielepartition^^
-> Jänner 2023
2023 : 216.50 €
(CSSD-F2000GBMP600PXT)
-> Geizhals
Die Samsung 970 Evo Plus gilt als die schnellste PCIe3x SSD; die Corsair als die schnellste PCIe4x. Im Betrieb schenken sich beide nichts; aber ist einfach cool, wenn man Daten mit über 1.5
GB/sec überträgt... Da macht backup und die Spielepartition transferieren "spaß"^^
Ich hätte fast die Samsung PCIe4x SSD "990 Pro" gekauft; aber diese ist spürbar teurer und nicht schneller; nur eine bessere "Konsistenz", sprich sie ist länger schnell. Na ja, ich konnte va. bei Samsung immer das Gegenteil sehen; egal ob Sata oder M2 SSDs, nach einigen Monaten nimmt die Performance einfach spürbar ab.
Und nur ein sehr aufwendiger ATA-Reset hilft dagegen.
Ich hoffe einfach, diese SSD ist so schnell, dass sie selbst wenn sie Performance verliert, nur unmerklich langsamer wird.
Festplatten:
-> November 2005
2005 : 182.29 €
(WD740GD)
-> Review
Ich wollte diese Festplatte vor allem deshalb, weil das langsamste an jedem PC ganz klar die Festplatte ist und ich diesen
Flaschenhals wegbringen wollte. Ok, langsam ist diese HD im Vergleich zu den restlichen Komponenten (zB. RAM) natürlich
noch immer, doch ist diese die zurzeit schnellste einzelne Festplatte am Markt!
Und warum kein Raid-0 Array aus langsameren, billigeren und größeren Platten?
Dies habe ich letztens gehabt (2* Maxtor 6Y160P0) und auch wenn die Transferleistung beachtlich ist, so ist die im Betrieb
erhaltene Leistung mies. (Vergleiche "Anwendungsindex" bei Raptor-Single und Maxtor-Raid0 ) Außerdem ist es
erwiesen, dass jegliches Raid die Performance der Swap-File extrem hindert! (was ich am langwierigem Swappen in Games beim
altem Computer schmerzlich erfahren musste)
-> Mai 2007
2007 : 152.40 €
(WD740ADFD)
Ist die etwas neuere Version der im November 2005 gekauften WD740GD, welche zwar etwas höhere Transfergeschwindigkeiten bietet, doch das bei etwas schlechteren Zugriffszeiten. Die
"alte" ist jedoch leider nicht mehr verfügbar.
-> Juni 2007
2007 : 119.66 €
(HDT722525DLA380/0A31636)
-> Review
Die wohl schnellste 250GB-SATA Festplatte! Verwende ich aber nur als Storage- und Backup-HDs, da für das System und den Games die Raptoren zuständig sind.
-> Juli 2009
2009 : 74.90 €
(HD103UJ ref. B)
-> Review
Samsung F1 1TB
Sehr schnelle und auch billige 1 Terabyte Festplatte, die ich als Storage anstatt den nunmehr defekten Hitachi 250GB Laufwerken verwende.
Es sei jedoch angemerkt, dass diese HDD im Betrieb meist schneller ist, als meine schon etwas betagte Raptor
:-\
-> November 2010
2010 : 49.83 €
(HD103SJ)
Dies ist einfach eine zweite 1TB-Daten-Disk (die F1 gibt's praktisch nicht mehr), um die Platten in einem Windows7-Software-Raid1 - sprich "mirroring" -
zu betreiben. Zur "echten" Datenspeicherung habe ich zwar den Server, doch mittlerweile habe ich auch am
Desktop-System ziemlich viele Daten, die zwar nur temporär liegen, dies jedoch für die nächsten Monate.
Weshalb ich mich dazu entschied eine Basis-Ausfallsicherheit zu schaffen.
externe Datenträger:
-> April 2009
2009 : 17.90 €
-> Review
Stick in der Verpackung
Ein genial-kleiner USB-Stick, welcher fast im USB-Port verschwindet^^
Und er bietet nicht nur 8GB (16 gibts auch), sondern ist auch noch überaus schnell: 29MB lesen!
Ich glaube nicht, dass ich mir nochmal so einen kleinen Speicher besorgen werde, man verliert diese zu einfach^^
-> Oktober 2013
2009 : 359.00 €
(SSDSA2MH160G2R5)
-> Review
Dies ist meine vorige "System-SSD", sprich Details zu dieser Hardware können unter SSD nachgelesen werden!
2013 : 30.51 €
(optionale) Stromversorgung, USB3, eSATAp
Reviews zu externen 2.5" Gehäusen mit USB 3.0 Anschluss fallen generell etwas... negativ aus. Und professionelle Reviews finden sich - wenn überhaupt - nur sehr
schwer.
Ich hab einfach mal das von Fantec genommen (weil Qualitätshersteller).
Man muss halt aufpassen, dass USB3 auch wirklich
aktiv ist : also richtiger Port/Controller, richtiges (und funktionierendes!) Kabel, neuester Controller-Treiber
usw. Wenn man also folgendes beim Anstecken sieht
(kann man auch unter "Geräte und Drucker" bei den Geräteeigenschaften sehen) , hat man ein Problem:
Ich hab in dieses Gehäuse nun meine SSD eingebaut und weiß somit, was ich an Performance zu erwarten habe.
Und man kann wohl sagen, dass das Gehäuse zumindest bei mir funktioniert!
Benchmarks gibt's hier unter Bilder > Vergleiche > HDD, SSD Benchmarks
Intel Sata2 Intel Usb3 Toshiba Usb2HDD Vergleich
Sequentiell read/write 252,5 / 104,8 248,4 / 98,4 33,2 / 28,9
4K read/write 15,6 / 38,9 15,4 / 22,79 0,38 / 0,83
Access Time read/write 0,134 / 0,113 0,205 / 0,201 17,926 / 4,671
Gut, bei kleinen Blockgrößen ist die SSD via USB3 etwas langsamer, aber nicht all zu viel. Und vor allem im Vergleich zur normalen 1.8" USB2 HDD (von Toshiba),
einfach ein Traum!
Da bin ich echt schon gespannt, wie sich das im Betrieb auswirken wird -> da erwarte ich mir sehr viel :D
-> August 2015
2015 : 109.20 €
(MXUB3MLXY-256G)
-> Review
Absolut unglaubliche Geschwindigkeit mit 220/140 MB/sec lesen/schreiben. Außerdem 256GB. Um diesen Preis.
Leider wird er sehr schnell sehr
heiß . Für Benchmarks ist er also nicht so geeignet...
-> Mai 2021
2021 : 104.00 €
(ASE760-1TU32G2-CBK)
Externe
PCI-Express / M.2 / NVMe SSD mit einem modernen USB-C der "USB 3.2 Gen2" (10 Gbps / SuperSpeedPlus) unterstützt und eine Datenrate von ~1 GB/s lesen & schreiben bietet.
Laufwerk:
-> Mai 2007
2007 : 38.17 €
-> Review
Als Laufwerk habe ich nur diesen LiteOn LH-20A1S Retail DVD-Brenner.
-> Oktober 2013
2013 : 71.73 €
(HD103SJ) -> Review
Ein neues Laufwerk kaufen ist ja immer etwas... problematisch.
Auch wenn man das nicht glauben möchte, bei so einem "Standardteil", doch man braucht ziemliches Glück um ein Laufwerk zu finden, dass Medien sehr gut (und schnell) lesen
kann, sowie eine annehmbare bis gute Schreibqualität bietet!
Die meisten anderen Komponenten kann man Aufgrund der Performance und Reviews auswählen, aber beim Laufwerk kann man sich nur auf sein Glück/Bauchgefühl verlassen :-\
Aber neue (2013), interne BluRay-Brenner gibt's zum Glück nicht so viele und auch hier blieben nur zwei über:
Pioneer BDR-S08XLT LG Electronics BH16NS40
BD-R /BD-RE /BD-ROM 15x/2x/12x 16x/2x/16x
BD-R/BD-RE DL 14x/2x 12x/2x
BD-R TL/QL 8x/6x 6x/6x
DVD+R/DVD+RW/DVD-R/DVD-RW/DVD-RAM/DVD-ROM 16x/8x/16x/6x/5x/16x 16x/8x/16x/6x/5x/16x
DVD+R/DVD-R DL 8x/8x 8x/8x
CD-R/CD-RW/CD-ROM 40x/24x/40x 48x/24x/48x
extras Millenniata Medien (zur Archivierung)
Software PowerDVD 10, PowerDirector 9, Power2Go 7 PowerDVD 10, PowerProducer 5, Power2Go 6, PowerBackup 2.6, LabelPrint 2.5, MediaShow 6, MediaEspresso 6.5
Tja, brennen tu ich eigentlich so gut wie nichts mehr, deshalb sind mir die meisten Specs auch auch wurscht.
Aber wieso dann einen Brenner? Schon bei CD-Laufwerken war es so, dass ein CD-Brenner selbst solche Discs lesen konnte, mit denen ein CD-Rom-Laufwerk nicht fertig wurde.
Und das war bei DVDs nicht anders. Und ich würde sagen, bei BDs ist es nun genau so.
Und nach dem Firmware-Updates so wie's aussieht beide Hersteller anbieten, hab ich mich dann für den LG entschieden, weil bei dem das sehr interessante und
mehrfach ausgezeichnete "MediaEspresso" dabei ist: ein Video-Konvertierungstool, welches technisch schon immer an vorderster Front war. Ganz egal ob GPU encoding,
oder wie für mich interessant,
QuickSync : Intels Version
von einer Grafikkarten beschleunigten h264 Kodierung
(d.h. nur Intel CPUs mit einer integrierten Grafikkarte (= iGPU) können QuickSync!) .
Es wird leider überall/oft behauptet, dass dies beim Haswell eine schlechtere Qualität bietet, als noch beim Ivy Bridge vorher. Und dieser konnte schon nicht mit
der reinen Softwarelösung x264 mithalten.
-> siehe hierzu das
"HTCP"-Review von Anandtech.
Ich habe selbst die Probe aufs Exempel gemacht.
Hierzu hab ich mir ein 4k-Video von YouTube runtergeladen und dann mit QuickSync bzw. x264 kodiert. Und ich hab das bei mehreren Szenen nachgestellt und so
überraschend es klingen mag: QuickSync sieht besser aus !
Nicht immer und überall, aber vor allem was Details anbelangt wie Schriften oder Gesichter, macht Intels Lösung einfach eine bessere
Figur! Und das, obwohl die Kodierung x-mal schneller ist! (MediaEspresso zeigt leider keine Kodierdauer an :-\
-> hier noch ein QuickSync-Review: Missing Remote.com , welche zum selben Ergebnis
kommen wie ich.
Displays:
-> Juni 2005
2005 : 275.00 €
Da ich meinen großen LCD sicher nicht auf Lan-Parties mitschleppe, habe ich schon zu 22"-CRT-Zeiten diesen kleinen, qualitativ hochwertigen und schnellen
17" LCD gekauft; hat mich bisher nicht ein einziges Mal enttäuscht und bietet in seiner Klasse beste Qualität!
Seit 2010 leider defekt; schade drum. Der nächste 2.-Monitor wird dann wohl ein 3D-Gerät werden.
-> Mai 2007
2007 : 1179.00 €
(LS27HUBCB)
-> Review
Mit 27" und einer Auflösung von 1920x1200 ist dies nicht nur ein Monstrum von einem Computer-Display, sondern bietet auch noch eine unvergleichliche Qualität!
Ganz egal ob Fotos, Videos, Spiele, oder natürlich und vorallem High-Definition Videos; es sieht atemberaubend aus! Wer zB. Starship Troopers oder
Transformers auf diesem Bildschirm in HD gesehen hat, will diesen Monitor nicht mehr hergeben!
Meine Settings:
Picture Magic Bright = Custom
Size = Wide
Custom Contrast = 65
Brightness = 40
Magic Color Pro Magic Color = Full
Color Tone = Cool4
Gamma = +0.2
6-Color Saturation Red = 50
Green = 50
Blue = 50
Cyan = 50
Magenta = 50
Yellow = 50
Hue Red = 50
Green = 50
Blue = 50
Cyan = 50
Magenta = 50
Yellow = 50
-> Februar 2012
2012 : 539.00 €
-> Review
Das Hauptaugenmerk dieses Monitors liegt nicht in seinen respektablen 27" (was kleineres geht nach dem Samsung einfach nicht^^),
noch in der etwas kleineren 16:9-Full-HD Auflösung von 1920x1080 (16:10 = 1920x1200), sondern auf der Tatsache, dass dieser Monitor
der 2. derzeit verfügbare 27ig-Zöller ist, welcher nVidia 3D Vision 2 unterstützt!
Dieser Monitor beinhaltet also nicht nur den integrierten IR-Emitter zur Ansteuerung der nVidia Brille (welche natürlich ebenfalls in der neuen
Revision beiliegt), sondern kann unter anderem mit dem sehr nützlichen 3D-Feature "Lightboost" aufwarten.
Bisher war ja einer der größten Nachteile, dass 3D Filme/Spiele um vieles dunkler waren, als in 2D; das stimmt zwar auch jetzt noch
zu einem gewissen Grad, doch wurde dieses Problem mit Lightboost so gut wie behoben.
Dies ergibt einen so gut wie perfekten 3D Genuss und ist der beste nVidia-3D-27"-Monitor, den man sich derzeit kaufen kann. Denn,
was schon im 2D-Betrieb stimmt, "size does matter", ist für 3D sogar eine noch wichtigere Komponente! Deshalb wäre ein 30"
3D Display bei meiner Aufstellung (~75cm vom Auge zum Display) am Besten. (und dann natürlich
gleich ein 120Hz IPS 3D Panel mit 4K /QFHD> Auflösung *träum*^^)
Zuest noch mein 27" 3D-TFT Shootout: Asus vs. Acer
und hier noch meine Settings:
Splendid (=Profile) Scenery
Color Brightness = 55
Contrast = 45
Saturation = 40
Color Temp User = 100, 100, 100
Skin Tone Natural
Smart View = Off
LightBoost = max
Image Sharpness = 60
TraceFree = 60
Aspect Control
ASCR = Off (=dynamischer Kontrast)
Position
Focus
System Setup Splendid Demo Mode = Off
3D IR Mode = Consumer Compatible (muss so eingestellt werden, damit auch andere IR-Geräte - wie Fernbedienungen - funktionieren!)
ECO Mode = Off
OSD Setup H-Position = 100
V-Position = 0
OSD Timeout = 30
DDC/CI = ON
Transparency = 0
Language = English
Information
All Reset
Einstellungen
nicht änderbar !
Nur im
3D-Betrieb ; außerdem ist dann nur mehr "Brightness" und "Contrast" einstellbar,
alles andere wird von den 2D-Settings übernommen!
-> Dezember 2019
2019 : 2379.99 €
-> Review |
Review |
Review |
Review
Nach über 12 Jahren hat nun mein treuer, alter Samsung 27" Bildschirm ausgedient und leider ist mittlerweile auch 3D Vision tot (nicht mal das in 3D legendär-gute Tomb Raider
unterstützt es noch!).
Ich weiß, ich weiß: dieser Luxusmonitor ist einfach VIEL zu teuer... 2.800€ für einen Monitor ist schon etwas crazy, aber es ist halt derzeit das non-plus-ultra und ich wollte nicht
noch 1-2 Jahre warten bis diese Technik quasi-alltäglich wird.
Denn wenn man sich so umschaut, ist die für HDR imho zwingend notwendige FALD (full array local dimming) Technik super-teuer und auch richtiges HDR (Dolby Vision zertifiziertes HDR-1000)
ist sehr selten. Dann noch das teuere HDR-GSync-Modul von nVidia...
Quick-Specs:
35" QuantumDot VA Panel
3440x1440 (= 107 dpi) (leider wird es erst ab 160 dpi interessant, da man dann bei normaler Sitzdistanz - 30-60cm - kein Aliasing mehr sieht!!)
Curved: R1800 (=1,8m Radius) (je kleiner, umso intensiver/immersive ist das ganze!)
bis zu 200 Hz! (DP 1.4) (144 Hz bei 10bit für HDR)
8 - 12 bit (color/LUT)
HDR-1000
512 FALD
GSync Ultimate
Da nicht nur das Backlighting, sondern auch das GSync-Modul hohe Hitze abgeben, ist leider ein Lüfter verbaut; zum Glück anders als beim direkten Konkurenten "Acer Predator X35" leise!!
(unhörbar wenn man sein Ohr nicht direkt oben am Monitor hält).
Ohne meinem Review bzw. Vergleich mit dem 5k Monitor "34WK95U-W" von LG etwas vorwegzunehmen: die (HDR-) Qualität ist ein Wahnsinn!
Ich würde hierfür liebend gerne Bilder und Videos herzeigen, doch
leider kann keine PC-Software HDR-taugliches Material erzeugen (und eine Profi-HDR-Kamera habe ich nicht...) !
D.h. für mich auch, dass ich von HDR-Games
keine Youtube-Videos erzeugen kann, da die Farben nicht stimmen und das Bild überhell ist!
;-(
Und ich hab mir nie viel aus hohen Herz bzw. VRR (variable refresh rate) gemacht, doch ein IMMER ruckelfreies und tearing-freies Bild ist absolut Goldwert!
Außerdem sorgen die vielen Bildwiederholungen (auch wenn die Grafikkarte nicht so hohe FPS schafft) für ein schlierenfreies Bild mit
niedrigerer Eingabelatenz !!
Achtung : Angeblich gibt es mit einigen Spiel Probleme! Das Display kann teils flackern und vertikale Linien anzeigen!
Hierfür hat Asus (und derzeit NUR Asus) ein Firmware-Update bereitgestellt!
-> das sollte aber auch nur eingespielt werden, wenn man dieses Problem hat; laut unbestätigten Meldungen diverser User kann man nämlich evtl. seinen Monitor "bricken", sprich
unbrauchbar machen!
Da ich derlei Probleme nicht habe , habe ich das Update auch noch nicht eingespielt!!
nVidia Settings
60 Hz -> 144 Hz (max Herz für 10 color bits bei vollem Chroma Subsampling!)
32-bit Farbtiefe
<120 Hz -> 12 bit144 Hz -> 10 bit (10 bit für echtes HDR notwendig!) >144 Hz -> 8 bit
RGB
Full Dynamic Range
Monitor Settings - SDR
Over Clocking (max refresh 200 Hz) Off
Blue Light Filter Level 0 Level 0 - 4 -> Off, Browsing, Multimedia, Reading, Dark Room
GameVisual (= Profil) Racing Mode
Color Brightness 60
Contrast 50
Color Temp User: 98/94/100
Gamma 2.2
Image OverDrive Normal
Dark Boost None brightens dark areas
Variable Backlight Fast "blooming" visible on Windows desktop, but real black levels in games and videos!
Auto Black Level Off “Increases the black level according to the ambient brightness, making different shades of grey more visible to human eyes.”
Aspect Control Aspect 1:1 = 1024x768 wird klein dargestellt Aspect = wird so weit wie möglich auf die Monitorgröße vergrößert, ohne das Bild zu verzerren Full = wird immer auf 21:9 vergrößert
Input Select Display Port selected
Auto Switch Off
System Setup Language English
Light in Motion Level 0 RGB-Projection of selected symbol on to the desk
Aura Sync Off sync monitor RGB lighting with other Asus ROG devices
Aura RGB Rear Cover Off Rainbow, Color Cycle, Static, Breathing, Strobinglighting settings for the monitor-top
Base Off Color Cycle, Static, Breathing, Strobinglighting settings for the monitor-bottom
OSD Position default
Key Lock Off buttons and joystick get deactivated; press "Exit OSD" button for 5 sec to unlock
Information Input Resolution @ Herz Color Depth Format (= Chroma Subsampling) Range (Full or Limited Color Range) EOTF (SDR-sRGB or HDR-ST2084)
Diplay Port Deep Sleep On
HDMI Deep Sleep On
ECO Mode Off
Auto SDR Brightness Off should change the display-brightness with regards to ambient lighting, but doesn't work!?
Display SDR Input Wide Gamut broadens the color range from sRGB to be able to display the needed colors for the HDR1000 certification!
Warning Message (HDR) On displays a small message that HDR is now activated
DP SDR YCbCr sRGB Gamma On no idea what this is!???
HDMI SDR YCbCr sRGB Gamma On no idea what this is!???
-> 08.06.2023
2023 : 1100.17 €
-> Review |
Review |
Review
Das war klar... der teuerste Monitor ever (Asus 1.000 nits HDR Monitor) mag auf einmal nicht mehr; und das ein paar Monate nach ablauf der Garantie...
Also musste ein neuer Monitor her und zum Glück, gibts seit ca. Mitte 2022 auch schon OLEDs auf dem (PC-) Monitor Markt.
Diese sind, darf man den Reviews glauben, in allen Belangen besser als die herkömmlichen LCD Monitore; selbst bzw. vor allem HDR, da kein lästiges Backlight benötigt wird!
Doch grad im HDR-Bereich sind die OLEDs derzeit auch noch nicht so gut wie mini-/micro-LED: die maximale Helligkeit ist einfach noch weit nicht so gut!
LCDs schaffen da 1.000 bis 2.000 nits; im Prinzip vollflächig!
OLEDs bringens nur auf ~250 nits, bzw. 600 nits bei ~10% weißer Fläche. Das ist leider auch sichtbar. Punktuell natürlich super schön grell, aber nicht bei großflächigen Szenen.
Dafür ist Schwarz auch wirklich schwarz, da ein solches Pixel einfach "abgeschaltet" wird. Sprich, unendlicher Kontrast und das ist natürlich generell super, SDR wie HDR!
Leider ist es ein Samsung "Smart" Monitor, sprich inkl. Internet & TV. Das Problem dabei: das "OS" des Monitors ist saaaauuuu-laaaaanngsaaaam!!
Auch wenn man nur gach was umstellen will, dauert das gefühlt ewig.
Virtual Reality Hardware:
-> März 2017
2017 : 899.00 €
Zubehör
2017 : 35.38 €
-> Review 1 | Review 2
Nach dem ich PS4-VR auf der Wiener Gamecity 2016 ausprobieren konnte und danach beim Mediamarkt die Rift getestet habe, wurde ich sehr schnell von "VR" überzeugt! Virtuelle Games
sind einfach dermaßen geil, man kann es einfach nicht in Worten ausdrücken... man ist so mittendrin...
Man muss es einfach selbst ausprobieren, und jeder der dies bisher bei mir getan hat (ua. auch mein Vater^^) ist extrem begeistert!
Sicher, die Qualität ist noch nicht wirklich fantastisch: zu niedrige Auflösung, somit "Fliegengittereffekt", sprich sichtbare Pixel. Zu wenig Performance bei der GPU (zumindest für SuperSampling, was
ein absoluter MUSS ist!). Hier mal ein kleiner Vergleich:
FullHD : 1920×1080 = 2,07 MP @60 FPS = 124,4 millionen Pixel pro Sekunde
4k : 3840×2160 = 8,29 MP @60 FPS = 497,7 millionen Pixel pro Sekunde
Vive : 2x 1080×1200 = 2160×1200 = 2,59 MP @90 FPS = 233,3 millionen Pixel pro Sekunde
Vive und 2 faches SuperSampling : 4320×2400 = 10,37 MP @90 FPS = 933,1 millionen Pixel pro Sekunde
Nur um mal zu verdeutlichen mit welchem Leistungshunger man hier konfrontiert wird!
Das ist also fast die doppelt benötigte Leistung als bei 4k!
Leider wird für ein gestochen scharfes Bild 8k pro Auge benötigt! Und das bei mindestens 90 Bilder pro Sekunde!!
VR ready resolution : 2x 7680×4320 = 15360×4320 = 66,36 MP @90 FPS = 5.972 millionen Pixel pro Sekunde
Das wäre die absolut wahnsinnige 48-fache Leistung als bei FullHD! o_O
Genau deshalb wird an Techniken/Tricks gearbeitet, dies zu verringern.
Zum Beispiel nVidias Single Pass Stereo , bei dem beide Bilder auf einmal berechnet werden; d.h. man benötigt nur mehr ca. die Häflte der Leistung!
Oder Foveated Rendering , welches im Prinzip herstellerunabhängig so funktioniert, dass via Eye-Tracking nur der zentrale Bereich voll dargestellt wird und nach außen hin (Peripheral Vision) alles mit immer niedrigerer Auflösung/Detail berechnet wird. Wieviel das bringt ist noch unklar, aber man geht von der Hälfte bis ein Drittel der Leistung aus.
Für unser "ideal Headset" wären das aber immer noch 1.493 - 995 millionen Pixel pro Sekunde!
Also die 8 bis 12 fache Leistung als bei FHD.
Und mit auch ein Grund, wieso ich mir jetzt schon eine VR Brille geleistet habe: bis das perfekte Gesamtpacket verfügbar ist, vergehen noch Jahre oder Jahrzehnte. So lange will ich eigentlich nicht
warten :P
Und da PS4-VR auf die PS4 (na-no-na-net) und im Sitzen beschränkt ist, und selbst die Rift mehr für Sitzen bis Stehend ausgelegt ist, habe ich mich für die HTC Vive mit ihrem Roomscale entschieden,
da ich finde, dass es genau das ausmacht: man steht/geht/bewegt sich IN DER WELT und sitzt nicht teil-/bewegungslos "vorm Bildschirm".
Leider ist das ganze noch Kabelgebunden, weshalb ich folgendes Zubehör gekauft habe:
Damit kann ich nun ohne Probleme im ganzen Raum herum und habe immer genug Kabel :D
Hatte bisherk eine Probleme von wegen zu langem HDMI/USB!
Was in der (näheren) Zukunft in VR generell verbessert gehört:
höhere Auflösung und mehr Performance
kabellos , wie zb. von IMR
"Eingabegeräte": noch besser als spezielle Plastikwaffen mit VR-Tracking (zB. Avenger )
wäre ein Full-Body Druckanzug, bei dem man einfach die virtuelle Waffe in die Hand nimmt !
Fortgewegung: entweder auf der Stelle laufen , ein Laufstall
(Omni oder Cyberith Virtualizer ),
oder eine Art bewegliche Laufmatte im/auf dem Boden.
Doch vielleicht ist ja doch das einpluggen in die Matrix
realistischer ^^
Ganz wichtig : Links und Software für ein perfekteres VR-Erlebnis^^
VR Hardware
VR Setup / Software
HTC Manual, Setup (Treiber/Store/Steamclient), Software (nur Store)
Oculus (Treiber und Store)
Manuals
Kopfhörer für VR
HTC Deluxe Audio-Strap : der Strap/Headband ist genial; die Headphones sind halt eher *meh* (nicht ohrumschließend, kein Bass, durchschnittlicher Klang)
Philips Fidelio X2 : einen perfekteren Klang wird man kaum finden! Egal ob Höhen, Mitten oder Tiefen! Leider wäre ein kurzes Anschlusskabel (kann man ja tauschen) inkl. Lautstärkeregelung nicht verkehrt (siehe Review !)
Turtle Beach Stealth 350VR : "speziell" designtes Headset; schaut gut aus, bzw. liest sich gut. Getestet hab ichs bzgl. Klangqualität aber nicht...
Ossic X : die bestesten (VR) Headphones von-ganz-überhaupt. 500€ für ohraufliegende(!) Headphones? Glaub ich erst wenn ich es sehe... (3.2 Mio USD raised? -> I call scam on that one)
Zusätzliches
Diverse Infos/Howtos
VR Software
Vive Video : 360° Videos am PC anschauen
Opera : kann ganz neu Internet-Videos in VR abspielen!
ReVive : Oculus-Games auch mit der Vive spielen!
OpenVR Advanced Settings : "in-VR" Settings für Vive und ReVive *wichtig*
VorpX : 2D-Games in VR spielen! Funktioniert zB. überaus gut in FEAR und GTA5!
VR Games
Abschließend möchte ich noch ein paar Bilder und Infos zur Vive hinzufügen:
-> Juni 2023
2023 : 2204.48 €
Endlich scheint die Zeit reif für "VR 2.0" zu sein: hochauflösend (kein Screendoor Effekt mehr), hoher Field-of-View (nicht wie durch Papierrollen schauen) inkl. Hand- und Eyetracking, sowie Wireless.
Gut, an Wireless wird immer noch gearbeitet, das funktioniert noch nicht, aber der Rest ist einfach absoluter Hammer!
So ein klares bild (Aspherische Linsen aus Glas!) und ein so scharfes Bild Aufgrund der High-Res LCDs (leider nicht OLED, aber dafür mit Local-Dimming!!) sieht man selten. Bzw. gar nicht, weil Pimax diesbezüglich angeblich Marktführer ist.
Hervorzuheben ist auf jeden Fall auch das Eye-Tracking und zwar wegen DFR (dynamic foveated rendering): damit wird nur der zentrale Bereich mit hoher Auflösung gerendert und der "Außenbereich" des vom Auge Sichtbaren wird mit minderer Qualität berechnet. Das bringt ENORM viel Leistung, da man die "Pixel Density" auf 45% stellen kann, ohne dass man davon was merkt. Die inneren ~35% mit kann man dann mit Super-Sampling sogar auf 125% Pixel berechnen lassen, da genügend Leistung da ist^^
Hand-Tracking funktioniert... ja. In den Demo-Apps funktioniert das wirklich sehr gut. Die einzelnen Finger bewegen, Sachen greifen usw.
In DCS hingegen funktioniert das nicht wirklich gut. Erstens verliert das Tracking sehr schnell die Hände (weil man im Cockpit halt auch sehr im Außenbereich, und nicht vor dem Gesicht hantiert) und zweitens werden Eingaben einfach nicht zuverlässig erkannt. Hier würde eventuell eine "Bluetooth Finger Mouse" helfen, aber das gibts nicht wirklich zu kaufen und müsste man selber basteln und es bliebe das dritte Problem: in VR ist man "im Cockpit", d.h. auch die Controlls sind halt 1:1 zu greifen. Da stößt man mit den Fingern aber sofort an was an, da in der realen Welt an dieser Stelle vielleicht der Throttle oder der Tisch oder der Stuhl im Weg ist :-(
Da kann Pimax oder DCS nichts dafür, aber das vermindert den Spielspaß doch um einiges, weil man eben nicht einfach die Schalter greifen kann... Dafür würde man entweder ein 1:1 Cockpit-Nachbau benötigen (kostet gleich mal 250.000 €), oder ein "SimPit", das möglichst frei/offen ist. Und selbst das hilft nur bedingt, da der HOTAS unbedingt notwendig ist; man könnte zwar auch den Stick und den Throttle virtuell bedienen, doch ich kann mir nicht vorstellen, dass das (gut) funktioniert. Auch die wichtigsten Buttons am Hotas: ohne physischen Kontakt kann das sicher gar nichts.
Dafür wären dann Haptic-Feedback-Gloves gut. Die könnten das - bei perfekter DCS integration - eventuell simulieren. Nur kostet sowas auch 2.000 bis 20.000 Euro und wie gut das tatsächlich funktioniert ist eine gute Frage...
Setup
Angeschlossen ist alles schnell: "Glasfaserkabel" vom Headset verlegt man (Wireless geht noch nicht), dessen DisplayPort schließt man an der Grafikkarte und die 2 USB-Anschlüsse schließt man am powered-USB-Hub an, der ebenfalls direkt am PC angeschlossen wird.
Dann noch den PimaxPlay- , sowie den neuesten UltraLeap Client installieren und den PC neu starten (ganz wichtig).
Nun kann man via PimaxPlay seine Brille (und die Controller) updaten und konfigurieren.
Room-Setup ist leider nach jedem PC start neu vorzunehmen!!
Den Eye-Tracker muss man ebenfalls zuerst kalibrieren; würde das sogar mehrmals machen, bis es wirklich relativ gut klappt, die Punkte anzuvisieren. Aber keine Angst, "ingame" funktioniert das besser^^
Leider benötigt SteamVR sehr viel Leistung; allgemein ist das schwer abzschätzen, aber in DCS hat man ungefähr 40fps statt 50fps.
Deshalb finde ich: OpenXR muss installiert und verwendet werden! Ist in allen Fällen besser, wenn es unterstützt wird (hab ich noch zuwenig ausprobiert, aber es müsste eigentlich mit jedem Spiel funktionieren, da auch SteamVR via OpenXR funktioniert! Siehe Settings > OpenXR Runtime)
Also, OpenXR (OpenXR Runtime), Pimax-OpenXR (Pimax Zusatz) und QuadViews (DFR Zusatz) runterladen und installieren.
Für DFR muss unbedingt die Wiki durchgelesen werden, da das nicht in jedem Spiel funktioniert bzw. gewisse Einstellungen vorzunehmen sind (in DCS zb. sind Blur, Bloom, etc. zu deaktivieren!).
2023 : 299.00 €
Die Controller der Crystal sind für den alleinstehenden Gebrauch (Inside-Out-Tracking) gedacht und sind nicht mit Vive-/Lighthouse-Tracking ausgestattet.
Deshalb muss man noch Lighthouse-fähige Controller kaufen.
Tastatur:
-> Februar 2008
2016 : 120.50 €
Im Prinzip muss man sich schon fragen: wieso benötigt man eine Tastatur mit LCD? Tja, ich hätte ja schon fast die G11 (ohne) genommen, doch ist die noch im alten (wie ich finde hässlicheren) Design,
weshalb ich dann doch die etwas teuere G15 genommen habe.
Zum Glück, denn die Tastatur schaut nicht nur extrem Geil aus (vorallem im abgedunkeltem Raum), sondern das LCD ist überaus Sinnvoll zum Anzeigen der Uhrzeit oder der CPU/Ram-Auslastung. Aber ein noch viel
besseres Feature ist die Kontrolle des Winamps: via den Multimedia-Tasten kann man diesen MP3-Player immer bedienen und über das Display bekommt man Info's bezüglich des Titels und der Playlist! Fantastisch!
Die Helligkeit der Tasten und des Display lässt sich einstellen auf low , normal , aus wobei sich der Treiber die letzte Einstellung nicht merkt; was ich aber nicht so störend empfinde, da auch die
hellste Einstellung beim Spielen im absolut dunklen Raum nicht stört; nur zum Fernsehen schalte ich die LEDs gerne aus.
Die Makro-Tasten sind so funktionsvielfältig, dass man sich im ersten Moment gar nicht auskennt^^ . Doch nach kurzem herumprobieren hat man die Funktionsweise heraußen und es lassen sich
pro Taste beliebig viele Aktionen inkl. Pausen definieren (auch OnTheFly im Spiel via den "MR"-Knopf!). Leider habe ich bisher noch kein Spiel oder Program gehabt, wo ich diese Tasten benötigt hätte (Warcraft 3, World of Warcraft, etc. könnte ich mir
damit aber sehr gut vorstellen!); außerdem ist's durchaus schwierig, für jedes Programm 3*6 Makro-Tasten zu merken. Deshalb wurde ja auch die Anzahl zum Vorgänger von 3*18 Tasten verringert.
-> Februar 2016
2008 : 69.75 €
-> Review
Seit ich die G15 habe, besser gesagt eine Tastatur mit Display, möchte ich dieses gar nicht mehr missen!
Es ist ein derart großer Mehrwert, wenn man Fraps oder Aida direkt
auslesen kann!
Vor allem Aida ist hier extrem mächtig beim Kontrollieren der CPU-, Ram- & GPU-Auslastung, sowie der
verschiedenen Temperaturen,
während des spielens! Und nur da macht es Sinn!
Ich kapier es nicht, dass mittlerweile nicht alle neuen Gaming-Tastaturen mit sowas ausgestattet werden, sondern statt dessen
ist dies selbst von Logitech die letzte LCD-Tastatur!?!
Das ist auch der Grund wieso ich sie mir gekauft habe; wenn meine G15 mal kaputt werden sollte, will ich einen Ersatz haben.
Und ich finde ARX von Logitech zwar super, aber man braucht eben auch wieder sein Smartphone, was sehr batterielastig ist und
nicht "nebenbei" läuft, sondern immer auch extra gestartet werden muss.
Ich hätte ja zu gerne eine mechanische Tastatur gekauft, doch gibt es eben keine mit LCD (und wird es wohl auch nie geben).
Back2Topic: Full RGB-Beleuchtung (wie meine neue G502 Maus^^) inkl. LCD, Medientasten (Lautstärke
rad ) und programmierbaren
Sondertasten.
Super Handballenauflage und stabiler als noch bei der (eher wackeligen) G15!
Mir persönlich gefallen nur die grau-eingfärbten WASD, sowie Pfeiltasten nicht; aber die G510 kriegt man überhaupt nicht mehr; selbst
diese ist schon sehr selten geworden, da nicht mehr produziert. Und deshalb auch sehr teuer :-(
-> November 2018
2018 : 0.00 €
-> Review
Leider ging beim alten Keyboard das Laustärke-Rad kaputt, weshalb ich einen Tausch auf Garantie angefordert habe. Leider - oder zum Glück? - wurde die G510s aber nicht mehr hergestellt,
weshalb ich mir eine "gleichwertige" neue Tastatur aussuchen durfte.
Ich habe etwas hoch gepokert und deren damals beste mechanische Tastatur gewählt; und erhalten!! :-)
Leider gibt's jetzt kein integiertes Display zur Anzeige der
AIDA64 Daten mehr... deshalb hab ich mich nach einer anderen Lösung umgesucht und Aida unterstützt wirklich viele
Displays!
Von Profi-Einbau LCDs um einige 100€, bis zu 0-8-15 "Picture Viewers"; solches hab ich via Ebay gekauft:
Samsung SPF-75H
Dieses hat 7 Zoll, somit steht es nicht all zu groß neben dem Display und bietet 800x480 Pixel zu einem günstigen Preis (wenn man das Teil noch findet!).
Es hat zwar einiges an Zeit gekostet, doch nach dem ich das Layout im Aida fertiggestellt hatte, sieht das richtig gut aus und bietet eine MENGE an Infos an!!
Leider ist die "Handballenauflage" (wenn man die überhaupt so nennen will) unter jeder Sau! Vor allem für ein 200€-UVP Keyboard!!
Diese hab ich also gleich mal demontiert und mich nach einer Alternative umgesehen; hab da einige ausprobiert, doch verkehrt aufgeklebt passt das
Speedlink SATEEN Wrist Pad EXTREM gut
und ist richtig angenehm!!
(dieses hab ich einfach mit einem Baustellenkleber aufgeklebt -> hält bombenfest!)
Maus:
-> November 2005
2005 : 39.25 €
-> Review
Von der Ergonomie her wie meine Vorgänger-Maus, die MX500, jedoch nicht beschichtet, was den Vorteil hat, dass die Beschichtung nicht runtergehen kann. Außerdem kann man die DPI/Auflösung, d.h.
die Zeiger-Geschwindigkeit via 2 Tasten verstellen, wobei man im Treiber maximal 5 Stufen von 400 - 1000 dpi einstellt.
Da jedoch die Programm-Umschalttaste (ganz oben) und die vordere Daumen-Taste so gut wie unerreichbar sind, sollte man diese im Treiber deaktivieren (was glücklicherweise möglich ist).
Ich wär ja auf der Suche nach einer Maus mit mehr erreichbaren Tasten; so wie die Microsoft Sidewinder , welche die Daumentasten untereinander hat. Dafür geht das Mausrad
viel zu leicht. Oder eine Maus, welche 2 weitere Tasten für den Zeigefinger bietet, welche links neben der "Haupttaste" liegen; so wie die Logitech Nano ; welche
jedoch nicht so ergonomisch ist und auch keine Daumentasten bietet. => Abwarten, irgendwann kommt die kombinierte Uber-Maus^^ .
-> Mai 2010
2010 : 49.90 €
-> Review
Ergonomisch wie die MX518, jedoch mit zusätzlicher Daumentaste (somit hat man endlich 2 erreichbare ^^) und 2 zusätzlichen Zeigefinger-Tasten!
Und die sind echt der Hit, da sehr gut erreichbar!
Außerdem gibt's jetzt auch ein "4D"-Mausrad (sprich man kann auch nach links/rechts scrollen), sowie Gewichte. Und als wär das nicht genug, hat die Maus auch
noch einen Profilspeicher. Leider nur für ein Profil, was jedoch während des Betriebes durch einstellbare Games/Programme on-the-fly ausgetauscht werden kann.
Eine gewohnt geniale Maus von Logitech!
-> Februar 2016
2016 : 69.49 €
-> Review
Zuerst dachte ich ja: oh mann, wie soll sich diese kantige, ja geradezu futuristische Maus wohl anfühlen? Nichts mehr mit toller, glatter
Oberfläche...
Dachte ich!
Die Kanten berühren einen - im wahrsten Sinne des Wortes! - nämlich überhaupt nicht und jede Oberfläche ist angenehm glatt und "robust".
Da war ich durchaus positiv überrascht (im Mediamarkt hatten sie die alte ausgestellt, da konnte ich sie mal "anfühlen")!
Die Daumen und auch die Zeigefingertasten sind etwas anders angeordnet als zuletzt bei der G500; doch nicht unpraktisch, sondern gut erreichbar.
Der einzig mögliche Kritikpunkt: das Mausrad ist schon fast zu haptisch! Grenzt schon an schwerfällig; dafür kann man wohl bei dieser Maus
auch mal die "dritte" Maustaste (Mausrad-Klick) verwenden (endlich).
Die Bodenplatte - zum Wechseln der Gewichte - ist zwar nur sehr leicht via Magnet verschlossen, doch bisher traten noch keine Probleme auf.
Sprich klappern, schleifen am Mauspad oder ähnlichem.
Ich muss sagen, vor allem, da diese Maus gewohnt ergonomisch ist (geht zurück bis zur MX518!), ist diese Maus allen Logitech-Rechtshändern(^^)
ohne Ausnahme zu empfehlen!!
Mauspad:
-> April 2009
2009 : 4.75 €
Review habe ich keines, aber ich hab's in der PCGamesHardware in der "Top10 der Mauspads" auf Platz 1 gesehen. Na ja,
da dachte ich mir, bei diesem Preis probier ich dieses Mauspad mal aus.
Und ich finde es richtig geil! Sehr groß, super-flach und einfach extrem angenehm und schnell .
Joystick:
-> September 2002
2002 : 89.00 €
-> Review
Galt früher als Novum unter den FF -Joysticks und ist meiner bescheidenen Meinung noch immer der beste Joystick; vor allem was Verarbeitungsqualität, Kraft und Genauigkeit betrifft!
Unschlagbar in Flug- & Weltraum-Simulationen und auch für Rennspiele geeignet!
-> Februar 2017
2107 : 200.66 €
Ich habe verschiedene HOTAS ausprobiert
(Logitech X-52 Pro, Logitech X56-Rhino, Thrustmaster T16000m FCS) doch bei diesem "hängen geblieben" :-)
Wieso erfahrt ihr in diesem Test!
Mittlerweile ist es etwas mehr als ein Joystick und das alles ist unter "FlightSim " zusammengefasst!
Lenkrad:
-> November 2009
2009 : 315.00 €
-> eigenes Review
Ich will hier gar nicht zu viel dazu schreiben; für detailierte Infos einfach zu meinem Review schauen, das ich hier verlinkt
habe.
Nur so viel: ich habe mich dazu entschlossen ein Lenkrad zu kaufen, da moderne Rennspiele so gut wie nicht mehr via Tastatur
zu bedienen sind, sondern auf analoge Eingabegeräte angewiesen sind (NFS-Shift, GRID, ...). Und da ich seit dem Joystick weiß,
wie wichtig Forcefeedback ist, musste es natürlich (einen möglichst realistischen) FFB haben; außerdem wollte ich Kupplung
und Ganghebel dabei haben. Nur eine Handbremse gibts derzeit anscheinend nicht.
Gamepad:
-> Mai 2017
2017 : 50.42 €
-> Review 1 | Review 2
Ich habe erst 1x mit einem Controller spielen müssen ; nämlich auf der GamesCon am Red Faction -Stand
und ich hab es gehasst! (zugegeben geht's da eher stressig zu und man hat keine Zeit, sich an ein Gamepad zu gewöhnen: da heißt es friss oder stirb^^)
Leider gibt es ein paar Oculus-Exklusive Spiele bzw. andere Games ohne Touch-Controller Support, die nur via Gamepad funktionieren,
weshalb ich in den Sauren Apfel beißen und damit umgehen lernen muss...
Ich bin schon gespannt wie's mir mit dem neuen, haptisch verbesserten Rumble-Controller von Microsoft gehen wird!
2017 : 21.17 €
Man kann das Gamepad zwar auch via USB benützen, doch um einiges bequemer (Couch-Potato-Mode^^) ist es Wireless; und mein PC hat kein integriertes Bluetooth.
(leider scheint es kein verbilligtes Bundle zu geben, wie's noch beim letzten Controller der Fall war :-(
Head-Tracking:
-> Dezember 2020
2020 : 211.55 €
"Head-Tracking" habe ich immer als sinnlos erachtet: man muss den Kopf ja trotzdem drehen und somit verliert man den zentralen Blickpunkt am Bildschirm.
Nicht nur, aber auch weil ich nun einen Breitbildschirm mit 21:9 Aspect Ratio mein eigen nenne, funktioniert das aber deutlich besser als ich gedacht habe!
Ganz egal ob in einer Flugsimulation oder in der Militärsimulation Arma3 -> ich kanns mir ohne Headtracking gar nicht mehr vorstellen...
Eindeutig ein sogenannter "Game Changer", da man einfach so viel mehr "mitten im Spiel" ist!
Ich habe natürlich kurz auch den Eye-Tracker (welches ebenfalls Head-Tracking bietet) von
Tobii probiert, aber dieses ist einfach nicht so
genau wie TrackIR;
vor allem, wenn man den im Gamerset beinhalteten "TrackClip:Pro" verwendet! -> dies ist ein auf's Headset geklippter, an einem USB-Port angeschlossener
aktiver
Tracker, der eine geniale Präzision hat!
Gut, ein Kabel mehr, doch einfach mit dem Audio-Kabel des Headets verbunden ist es nicht spürbar; nur da ich meist ohne HS, sondern mit Boxen zocke, brauche
ich weiterhin den altbekannten, passiven Tracker mit Reflektoren...
Den TrackIR selbst "montiert"/stellt man auf den Monitor; für den Pro-Clip etwas seitlich, da ja dieser seitlich am Headset montiert ist.
FlightSim Hardware:
-> Februar-April 2021
Nun habe ich mich endlich entschlossen, nach dem HOTAS und TrackIR nicht nur Mounts, sondern auch MFDs zu kaufen. Billig - vor allem die über-teuren Mounts - war's nicht, aber
es ist schon extremst geil!
TrackIR ist für SIMs einfach ein muss; egal ob Flight, Racing oder Military, aber auch das taktile Gefühl von echten Tasten eines MFD
bieten einen derartigen spielgenuss, das ist absolut geil; es fühlt sich einfach "richtig" an :-) .
So zb. auch im uralten EF-2000 vom legendären, britischen Hersteller DiD: DOS + 3dfx + TrackIR + MFDs ist schon fast zu gut um wahr zu sein! (auch wenn einiges an Skripting & Tricks notwendig ist,
die MFDs gut zum Laufen zu kriegen^^).
2023 : 1498.51 €
Dieser High-Quality Joystick und Throttle sind einfach genial. Vor allem im direkten Vergleich mit dem eher günstigen "X52 Pro" ist die Haptik der Knöpfe, die flüssige Bewegung der Achsen und der gesamtheitliche "Feel" um Welten besser!
Der gegenüber dem X52 "unergonomische" Schubregler ist durchaus angenehm und komfortabel zu bedienen und der "kalte Stahl" des Sticks im Vergleich zum Plastik ist ebenfalls angenehm, also no worries here!
Nur dass der neue Throttle weniger Stellräder hat ist lästig und das kann man auch mit nichts ausgleichen; verwendbar ist er trotzdem.
Die Software hingegen... ein absoluter grauß! Nicht nur was die UI angeht, sondern auch das nicht vorhandene Manual oder Hilfen oder ähnliches. Bis man rausgefunden hat, wie man was macht vergehen Stunden und zig Youtube Videos!
Und dann kann man noch nicht mal Keyboard-Tasten reinprogrammieren! -> also das ist DER NACHTEIL überhaupt; das ging beim X52 im Treiber. Einfach so. Inklusive erweiterten Makros usw.!!
-> hierfür hab ich mir dann ein - zugegebenermaßen sehr mächtiges und Hersteller unabhängiges - Tool gekauft: Joy-2-Key .
Bisher habe ich damit noch alles herzaubern können, was ich mir so vorgestellt habe. Zum Beispiel 2 unterschiedliche Makros, je nachdem ob man den Button nur kurz oder lang drückt!
Dies ist die
WarBRD-D Base und der Constellation ALPHA Prime [R] (rechts):
Weiters der
MongoosT-50CM3 Throttle :
Und für Helicopter gibt's einen
SharKa-50 Collective Grip inkl.
Collective TCS Plus Base :
2023 : 232.21 €
Pedale sind imho für moderne Jets zu vernachlässigen; aber für Helicopter sind sie unbedingt notwendig und für Warbirds (WWII) sind sie sehr zu empfehlen!
Natürlich wäre hier Virpil logisch gewesen, wo auch die restliche Hardware von denen stammt.
Aber diese hier sind:
kleiner (ich hab zwischen Tower und Subwoofer nicht viel Platz)
und man... steht auf den Pedalen und drückt nicht von vorne dagegen; was möglicherweise (andere habe ich nicht getestet) besser zu einem normalen Sessel passt, weil man nicht so niedrig sitzt und diese somit leichter zu bedienen sind
2023 : 748.6 €
Geniales Teil: anstatt für jeden Jet ein eigenes UFC kaufen zu müssen, hat man bei diesem verschiedene Covers und ein Gerät! Sicher, das ist dann keine 1:1 Replica eines echten UFCs, aber es bietet verschiedenste zusammengefasste Funktionen vieler verschiedener Jets.
Und das funktioniert überaus gut, inkl. DCS-Integration
Somit können via den Buttons und Schaltern nicht nur Eingaben getätigt werden, sondern Werte werden auch auf den OLED-Displays ausgegeben!! Echt geil!
2021 : 159.98 €
Moderne Jets haben sogenannte "Multi-Function-Displays" eingebaut und zumindest die Knöpfe sind mit dieser Hardware simuliert und werden per USB angeschlossen.
Somit kann man die Knöpfe taktil in Echt betätigen, welche im Spiel dargestellt sind. Das ist schon ein sehr genialer Mehrwert bei Flugsimulationen!
Leider sind hier nur die Knöpfe bedienbar; einen angeschlossenen Bildschrim gibts nicht (eh klar bei diesem Preis).
Diese müssen selber besorgt/moniert/kompatibel gemacht werden; hierzu kauft man sich Zusatzdisplays welche man "dahinter steckt"; die Monster-Tech Mounts
machen dies einfach, doch diese Displays müssen im Spiel natürlich auch erstmal zum Laufen gebracht werden (DCS kann das, da man hier die Display-Anordnung
via LUA-Scripts festlegen kann, wodurch die "ingame MFDs" via LUA auf diese externen, Extra-Displays verschoben werden können).
Will man spezielle Makros und die bis zu 5 unterstützen Ebenen der MFDs benützen (sprich 5*28=140 Tasten pro MFD!), so muss man die MFDs via
"Target" Software ansprechen; d.h. die MFD-Tasten werden nicht direkt via Spiel belegt, sondern via Target-GUI oder -Script.
DOCH TARGET UNTERSTÜTZT NUR 2 MFDs!
Obwohl prinzipiell bis zu 8 MFDs am System via Treiber verwendet werden können, sind diese via Software nicht konfigurierbar!?!
Ein paar findige haben es (natürlich) trotzdem geschafft, das ganze für den Script-Editor zum Laufen zu kriegen: Third MFD working in TARGET
2021 : 620.40 €
-> Review
Und hier kommt eine kleine, chinesische Firma (oder ein Privater?) ins Spiel, der sich genau darauf spezialisiert hat!
Der verkauft die passenden Displays - welche via USB angeschlossen werden, was Ausgänge bei der GraKa spart - und schickt einem auch die passende
DCS LUA-Config mit, für ein reibungsloses Plug-n-Play.
Ok, ob's dann wirklich so einfach ist, wird sich noch zeigen, denn diese müssen erst geliefert werden (außerdem muss ich mich überhaupt mal erst
mit DCS auseinandersetzen und diese FlightSim lernen *LOL*).
Mittlerweile wurden die Display -
nach einem halben Jahr Wartezeit! - doch noch geliefert und alles funktioniert! D.h. kein Defekt durch den Versand oä.
Die Stromkabel sind ~190cm und die USB-Kabel sind ~151cm lang.
Zwei "klitzekleine" Probleme gab's jedoch:
Bei mir installierte Windows nicht automatisch den Treiber! Nach etwas Suche fand ich den passenden für das Device Dev = USB-VGA-17 | VID = 17E9 | PID = 0377 und der gute Herr schickte mir auf Anfrage noch den Downloadlink direkt beim Hersteller (DisplayLink )
So wurde das Device erkannt und als Display ansprechbar. Doch es stimmten die Farben nicht und Text war nahezu unlesbar ! Rot sah wie Cyan aus und Blau war ein sattes Rot!?! Ich hab ein Display kurzerhand bei einem anderen PC probiert und da funktionierte der LCD perfekt. Nach längerem Suchen kam ich auf den Fehler drauf: Aufgrund von HDR habe ich im nVidia ControlPanel 10bit Farbraum eingestellt; stellt man das auf standardmäßige 8 bpc zurück, funktioniren die Displays auch!
Puh, noch mal Glück gehabt!
Beim Montieren auf die Monstertech-Platten viel mir (natürlich erst nach der Montage...) auf, dass ich die abgewinkelten USB- und Stromstecker nicht anschließen kann!! FUCK!
Jetzt habe ich noch bei den Alu-Platten diese ausschneiden/-brechen müssen.
Hier sieht man auch noch die schaltbaren Strom- und USB-Verteiler:
Hier nun das fertige Ergebnis:
2021 : 813.91 €
Zum Stilgerechten befestigen des HOTAS + Zubehör habe ich mich für den "Mercedes" unter den Mounts entschieden; einfach, weil dieser in Österreich
lieferbar ist, sehr anpassbar ist und viele Optionen/Adapter bietet:
HOTAS Halterung :
2 Tisch-Halterungen mit Klemmen; jeweils für den Joystick & Throttle
Tastatur Halterung :
Ebenfalls eine Tisch-Halterung mit Klemme, denn für die Tastatur gilt das selbe wie für die Maus -> man kommt einfach nicht mehr zur normalen Tastatur dazu.
Hier habe ich sogar gegen meine Regel ein wireless (Bluetooth) Keyboard gekauft, damit ich nicht zu große Probleme mit den Kabeln bekomme. Und weil's diese
auch in kompakten Maßen gibt, da ich zwischen den HOTAS-Mounts nicht den Platz für eine normalgroße Tastatur habe... (deshalb habe ich auch die schmälere Mausplatte genommen)
Maus Adapter-Platte :
Da man ja weiter hinten sitzt, kann man nur schwer nach vorne auf den Tisch greifen; außerdem müsste man um den Joystick rumgreifen um
zur Maus zu gelangen => diese Halterung wird neben dem Joystick montiert und man hat die Maus wie bisher gleich daneben (man muss halt mit den
Abständen beim Joystick inkl. Z-Achse aufpassen, damit auch genug Platz ist!)
Joystick Pitch Adapter :
Mit diesem kann der Joystick stufenlos geneigt werden; ist deshalb durchaus von Vorteil, da HOTAS generell für den Tischbetrieb, nicht für eine
niedrigere Halterung vorgesehen sind, weshalb es ergonomisch besser ist, den Joystick um 10-15° nach vorne zu neigen!
seitliche MFD Adapter :
2 MFD-Halterungen, welche an die HOTAS-Mounts geschraubt werden; hierfür habe ich mir aber noch extra 2 Gelenke dazugekauft, um diese besser
positionieren zu können
zentrierter MFD Adapter :
Um das 3. MFD mittig platzieren zu können
Der Zusammenbau braucht zwar einiges an Zeit, ist aber va. mit den Videos (
Youtube ) einfach durchzuführen!
Nur da ich einen etwas engeren Aufbau habe, musste ich mir mit den schon erwähnten 2 Extragelenken aushelfen und ich musste den Center-MFD-Mount anpassen,
da ich diesen "invertiert" befestigen musste, sprich ich habe die Halterung nicht "von unten":
sondern "von oben" montiert, weshalb ich einige Löcher bohren und Vertiefungen ausbohren musste; das funktioniert so aber überaus gut:
2023 : 164.94 €
Halterungen für den neuen Virpil HOTAS, sowie das Multipurpose-UFC:
2023 : 45 €
Der Collective muss am Sessel befestigt werden. Das ist eine echte Drecksarbeit, außerdem musste ich bei meinem Stuhl noch die linke Armstütze absägen, aber im Endeffekt funktioniert das ganze dann ganz gut.
2021 : 97.77 €
Wie schon angesprochen, habe ich noch eine Bluetooth-Tastatur inkl. BT-Receiver benötigt (Logitech K810 + LogiLink BT0015):
Da ich aber auch noch mehrere USB-Anschlüsse brauche und ich die Ausgänge ein-/ausschalten wollte, habe ich mir noch einen 10-fach USB3-Hub von
Sabrent gekauft:
Und dieser funktioniert in der Tat perfekt (zumindest soweit^^). Sehr gute Tasten, kein "Spannungsabfall" oder Abtrennen der anderen Ports beim Schalten!
Deshalb hab ich mir für den neuen Virpil-Hotas gleich noch einen (etwas kleineren)
Sabrent mit 7 Ports zugelegt!
Sim-Pit Bilder
Bis auf die integrierten Displays sieht das ganze dann so aus:
Bzw. hier die neusten Bilder mit den Neuanschaffungen:
Zusammenbau:
-> November 2005
Wenn man nun alle Teile ausgepackt vor sich liegen hat, so fängt man damit an, den Prozessor in den Sockel am Motherboard
zu geben. Einfach auf die Markierung achten; ein Prozessor rutscht immer ohne Wiederstand in den Sockel. Es darf natürlich
nicht vergessen werden, die Aretrierung (mit dem kleinen Hebel am Sockel) vorher zu öffnen und nach dem Einsetzen des Prozessors
wieder zu schließen.
Jetzt wäre ein guter Zeitpunkt, die Ram-Riegel laut Motherboard in Single-/Dual-/Tripple-Channel Konfiguration in den richtigen
Slots einzusetzen, da große CPU-Kühler bzw. Lüfter oft über die Ram-Slots hinausragen. Achtung: Immer auf die Kerbe bei den
Ram-Modulen achten! Auch wenn beim reindrücken der Module relativ viel Kraft aufgewendet werden muss
(das Motherboard hierzu besser hinten mit der Hand stützen) , so lassen diese sich nur
richtig einsetzen -> die zuvor aufzuklappenden Halterungen seitlich der Slots sollten sich durch die Kraft von selbst
schließen und meist hörbar klicken; wenn nicht einfach darauf achten, dass diese Halterungen schön zugeschnappt sind.
Danach vorsichtig den CPU-Kühler laut Anleitung befestigen (Achtung: vorher eventuell die Backplate montieren! Manchmal muss hierzu
auch der Prozessor-Sockel entfernt werden!) . Dies erfordert mit unter etwas gut dosierte Kraft,
wobei darauf zu achten ist, den Kühler nach dem aufsetzen auf den Prozessor nicht zu sehr zu verschieben (damit die Wärmeleitpaste /
das Wärmeleitpad nicht verwischt) und den Kühler nicht einseitig auf den CPU zu drücken, sondern nur direkt von oben
Kraft auszuwirken.
Jetzt kann man soweit möglich alle Teile vom Gehäuse entfernen (VGA-Luftkanal, HDD-Käfige, etc.), worauf man überall gut
hinkommt und sich beim Einsetzen des Mainboards leichter tut.
Vorher muss jedoch die ATX-I/O-Blende an der Gehäuse Rückseite mit der Blende, die beim Motherboard dabei war, ausgetauscht werden.
Danach schraubt man noch die Abstandhalter (rote Markierung im Bild) für das MoBo an der Gehäuse-Seite
rein, worauf man dann das Mainboard platziert.
Jetzt muss man das Motherboard vorsichtig unter die "Metallspangen"
(rote Markierung im Bild) der ATX-Blende schieben,
sodass man die Befestigungsschrauben durch die Löcher am MoBo bekommt und mit den Abstandhaltern verschrauben und somit das Mainboard
befestigen kann.
Ich habe den CPU+Kühler erst nachher installiert, damit ich die Bilder leichter schießen konnte.
Dann wird das Netzteil (hier in der unteren Kammer mit dem abnehmbaren Metall-"Käfig") installiert, worauf man die nicht benötigten Kabel
hinter das Netzteil schiebt, sodass diese den Luftstrom nicht negativ beeinflussen und nicht im Weg sind.
Die restlichen Kabel werden durch die vorher geöffnete Kabelführung nach oben gezogen (große rote Markierung im Bild) ,
sowie die Strom-/IDE-Kabel für die unteren Festplatten durch die zweite (kleinere) Öffnung zum HD-Käfig nach unten verlegt
(kleine rote Markierung im Bild) .
Als nächstes sollte man alle Stromanschlüsse anstecken (24pol ATX, 4/8pol CPU, evtl. VGA-Anschluss am Mobo), woraufhin man die diversen
Geräte (Festplatten, CD-/DVD-Laufwerke,...) und Karten (Grafikkarte, Soundkarte,...) einsetzen sollte.
Jetzt werden alle diese - HDDs, Laufwerke, Motherboard, Grafikkarte(!), Lüfter,... - angeschlossen und die Kabel zur besseren
Luftzirkulation soweit wie möglich verstaut
(aufpassen, dass die Kabel nicht in zu engen Radien verlegt bzw. geknickt werden!) . Es können nun auch die Plastik-Verschlüsse soweit als
möglich über die Kabelführung geschoben und befestigt werden (um die obere und untere Kammer thermisch voneinander zu trennen).
Ich habe die Kabel im nicht benötigten Disketten-Laufwerksschacht (unter dem HD-Käfig) hineingezwängt.
Zum Schluss werden evtl. Jumper, sowie alle Verbindungen kontrolliert.
Und fertig ist der Dream-PC ;-)
-> Mai 2007
Zum Zusammenbau ist schon alles gesagt, deshalb gibts hier nur ein Gesamtbild mit den neuen Komponenten. Man kann sehen, dass ich den CPU-Kühler mit einem Zwirn festgebunden habe;
~1kg sind mit einfach zu viel, um alleine vom Motherboard getragen zu werden! Außerdem hab ich zur besseren Belüftung den oberen HDD-Käfig ausgebaut.
-> April 2008
Tja, mit einer 2. Grafikkarte wirds schon verdammt eng! Das Kabelverlegen wird gleich 3x so schwierig wie vorher! Außerdem ist das neue Netzteil länger (welches mehr Watt wegen der 2.
GraKa hat), weshalb ich den unteren Lüfter weggeben musst. Hab mir dann einen dünneren (25mm statt 35mm) gekauft und diesen
vor den HDs hineingebastelt^^
Ist auch besser so, da Festplatten besser mit direktem Luftstrom gekühlt werden (auch wenn's nur ein kleines Lüftchen ist^^).
-> April 2009
Der seitliche Lüfter, der leider für die Kühlung des
IOH s am Motherboard notwendig ist, macht die
Kabelproblematik nicht leichter.
Montiert ist er Final nicht wie hier zu sehen "innen" via Metallhalterung, sondern ich habe dafür ein Loch in die Seitenwand geschnitten und den Lüfter mit dem Gehäuse
verschraubt. Als Staubfilter musst ein Teil eines Fliegengitters herhalten :P
-> Oktober 2013
dünne Dämmung
Seite - Belüftung
seitl. Abdeckung / Staubfilter
hinter Motherboard-Tray
Rückseite
Nanoxia - Zusatzlüfter
Auslässe für Wasserkühlung
Lüftersteuerung & Laufwerksschächte
vordere Lüfter & Staubfilter
HDD-Cages übereinander
...oder nebeneinander
Tja, ich hab mir ja meine Impressionen und Erfahrungen beim Zusammenbau zum Schluss aufgehoben, wo fang ich da am besten an...
Am besten wohl beim Tower:
Das auspacken verlief erfreudig: sehr gut verpackt und leicht herauszunehmen; was auch gleich ein kleiner Kritikpunkt ist, da das Gehäuse für meinen Geschmack ein etwas
zu dünnes Blech verwendet und deshalb etwas instabil wirkt
(was sich etwas bessert, sobald die Hardware verbaut ist) . Da kann der
Tower nicht mal annähernd mit dem Stahl-Koloss "Antec P180" mithalten!
Hervorzuheben sind zumindest die zwei vorderen Türen, welche nicht nur sehr gut gedämmt sind, sondern vor allem bombenfest und scheinbar luftdicht sitzen;
trotzdem nicht wirklich schwer zu öffnen sind! Außerdem besitzt der Tower zwecks besseren Netzteilbelüftung nicht nur hohe Chromfüße, sondern diese sind
auch noch via Gummi vom Boden entkoppelt, was ebenfalls der Lärmdämmung zu gute kommt!
Leider scheint die Oberfläche etwas anfällig für Kratzer zu sein; da muss ich etwas aufpassen :-)
Zerlegt und "Einbaufertig" ist er gleich. Es fällt auf, dass einiges an Lärmdämmung verbaut wurde; meist aber eine mir zu dünn erscheinende Gummi-Matte;
ob die was bringt? Vorne wurde zumindest guter, fester Schaumstoff verbaut, der sicher abschirmen sollte.
Wird der Seitenlüfter nicht benötigt, ist auch diese Öffnung gedämmt -> geniales Detail!
Alle Lufteinlässe (vorne, unten, seitlich) haben einen abnehmbaren Staubfilter, der somit leicht zu reinigen ist. Und auch wenn die Halterung unten
etwas wackelig wirkt, erzugt sie Gott sei dank keinen Lärm.
Ich hab mir gleich mal überlegt welche Lüfter ich vorerst verbaut haben wollte, und hab mich erstmal gegen die Lüfter in der Seite und am Boden entschieden: ich
hab diese zwar schon gekauft, aber hoffe eigentlich, dass ich ohne sie auskomme (mehr Lüfter = mehr Lärm).
Deshalb hab ich gleich mal den hinteren und oberen Lüfter
(den ich gleich eingebaut habe) an einen der Lüfterregelungen angeschlossen. Die Kabel hierfür
habe ich - wie nachher auch alle anderen Kabel - hinter dem Motherboard-Tray befindlichen Abstand zur Gehäuserückwand verlegt.
(recht
viel Platz hat man da leider nicht!)
Dann hab ich gleich mal die ATX-Blende des Motherboards eingesteckt, welche perfekt passt.
Der CPU war ebenfalls schnell installiert
(kam komischerweise nur in einer kleinen Schaumstoffhülle verpackt o_O)
und die Backplate des Kühlers war auch recht fix befestigt.
Kurz hab ich mir noch Gedanken gemacht, ob ich den erweiterten Heat-Spreader der Ram-Module abmontieren muss, habs aber zuerst mal so probiert und es ging problemlos,
da der neueste Kühler von Noctua wirklich sehr dünn ist und der Lüfter zwar sehr weit runter zum Motherboard geht, aber eben
vor den Modulen liegt! => die werden
dadurch sogar noch etwas besser gekühlt als normal!
Kurz bevor ich das
MoBo in den Tower gehoben habe, musste ich kurz die Abstandhalter reinschrauben; komisch fand ich,
das nur 6 statt der üblich 9 Halterungen beim Asus-Board vorhanden waren; sieht nach einem ATX / Mikro-ATX - Zwitter aus oder so...
Dann das
erste wirkliche Problem ! Die Anschlüsse das Motherboards (Usb, Netzwerk, etc.) wollten und wollten einfach nicht unter die
Halterungen der ATX-Blende
reingehen!
Und als das endlich geschafft war, konnte ich das Motherboard nur mit relativ großer Kraftanstrengung - welche nicht notwendig sein sollte! - soweit nach hinten schieben
und Schraube für Schraube befestigen, dass die Anschlüsse hinten, sowie die Erweiterungsslots gepasst haben! Keine Ahnung wo der Fehler liegt, aber das war
schonmal ein wtf!?
Da kann man ja gespannt sein, wie "schön" die Grafikkarten dann in die Slots reingehen, wenn das so eine Zwickelei ist :-(
Dann erst habe ich den Kühler montiert; war mir nicht sicher, wie sich das mit dem Gehäusedeckel usw. ausgeht, aber schien gut zu passen. Also einen kleinen Klecks
Noctua Wärmeleitpaste auf den CPU, den Kühler drauf und dann vertikal soweit niedergedrückt, dass die Schrauben gegriffen haben.
Und das war dann gleich
Problem Nr. 2 : verdammt, ist das schwer gegangen!! Das kenn ich so von Noctua überhaupt nicht! Ich dachte schon, gleich bricht das Mobo
entzwei, vor allem, da dieses nicht so oft verschraubt wurde, als normal. Die Schrauben wollten einfach nicht greifen!
Na ja, endlich war auch das geschafft, ab jetzt kann's nur einfacher werden...
Problem Nummer Drei : Also, auf zum Netzteil, was ja wirklich *peace of cake* sein müsste, aber leider steht (nur bei meinem?!) Netzteil das Gitter des verbauten 130er Lüfter unten
vor, weshalb es zu hoch auf den 4 Gummistützen aufliegt! Es konnte auf Teufel komm raus einfach nicht verschraubt werden; erst als ich es fest niedergedrückt
habe, konnte ich nach und nach die Schrauben reindrehen. Wohl war mir angesichts der Spannungen nicht -> dreht der Lüfter noch rund und vor allem leise?
Bzw. stehen vielleicht die Abstandhalter durch das Luftgitter? -> nach einem kurzen "on the fly" Check
(d.h. Stromkabel anschließen
und die pins 13 & 14 des ATX-Anschlusses (schwarzes und grünes Kabel) zum Einschalten kurzschließen) konnte ich aufatmen: das Netzteil
schien normal zu laufen.
Also gleich mal HDD/SSD/BD Laufwerke eingebaut und alles verkabelt. Wo man bei
Problem Nr. 4 wären: was verdammt nochmal haben die ganzen Tester geraucht,
als sie diesen Tower getestet haben?! Jeder schreibt wie geil und einfach der Einbau und das verkabeln ist, da so wahnsinnig viel Platz ist! Von was verdammt nochmal
reden die??
Dadurch, dass die HD-Käfige
der Breite nach eingebaut wurden, stehen die SATA-Daten/Stromkabel dermaßen weit vor, dass man diese schon sehr knapp
umbiegen muss, dass man den Gehäusedeckeln nachher noch draufbekommt!
(wobei hinter'm HD-Käfig einiges an Platz wäre! *face palm*)
Weiters, wie schon oben erwähnt, ist zum Verlegen der Kabel hinter dem Motherboard nicht dermaßen viel Platz, obwohl genau deshalb der Abstand vorhanden ist! Ok, es ist
durchaus machbar, aber das verkabeln dauert alles in allem wohl nicht weniger lang wie vorher; eigentlich hätte ich mir genau deshalb einen neuen Tower gekauft...
nächstes mal wirds einfach ein XXL-Tower *mad*
Problem numero fünf : der oberste Slot (PCIe 1x) ist Aufgrund des breiten CPU-Kühlers nicht zu 100% nutzbar... was ich damit meine:
Ich hab da meine Soundkarte verbaut, welche ein
EMI-Shield
bestitzt. Dieses ist mit Schrauben an der Karte angeschraubt, mit der die Soundkarte zu breit wird und nicht mehr verbaut werden kann.
Ich hab die Schrauben also kurzerhand entfernt und die Abschirmung mit Isolierband befestigt. Jetzt steht zwar dieser Gummi etwas am Kühler an, sollte aber nicht
allzuviel Wärme und Schwingungen aufnehmen.
Die Grafikkarten war dann schnell verbaut und deren Stromkabel hab ich gleich am Boden des Gehäuses verlegt, da hinter dem Motherboard sowieso kein Platz mehr war,
was die Installtion sehr einfach gemacht hat ;-)
Nach ungefähr 12h harter Arbeit war ich endlich fertig und konnte das Baby das erste mal aktivieren!
Und ging natürlich sofort ins Bios, um mit dem Handbuch bewaffnet alle Settings zu studieren. Was im Endeffekt nicht völlig gelang, weil es einfach zu viele
Übertakter-Spezifische Einstellmöglichkeiten gibt, die größtenteils - selbst wenn man OC vorhat - nicht von belang sind.
Zumindest konnte ich in den Stunden im Bios gleich mal die Leerlauftemperatur feststellen:
Wow , genial-niedrige 30°C!!
Das macht echt Hoffnung auf eine tollen OverClock!
Hab dann gleich mal Testweise von meiner alten Intel-SSD und somit Windows 7 hochgebootet, was sogar gelungen ist; nur schnell Chipsatztreiber nachgeschossen
und fertig. Hut ab!
Natürlich hab ich gleich mal kurz Aida64 zwecks Stabilitätstest gestartet und unter Last hatte der CPU goldige 50°. Sehr nice!! Na da freut sich das Übertakter-Herz :-)
Zuerst musste ich natürlich die Samsung SSD mit dem h2bench testen, da der Schreibtest nur bei leerer Platte funktioniert. Doch danach konnte ich gleich mal
mein
Windows 8.1 x64 inkl. Treiber installieren, um endlich eine stabile Basis zum Testen der OC-Möglichkeiten zu haben UND anschließend die ganze
Tests und Benchmarks durchlaufen zu können.
Deshalb wollte ich an dieser Stelle gleich mal ein Image erzeugen; ich wusste, dass sowas seit Win7 beim Windows dabei ist. Hätte ich gedacht, denn ich konnte
einfach nichts finden! Keine Suche oder manuelles durchgrasen des Control-Panel hat das
Image Backup zu Tage befördert! Selbst im Internet habe ich nichts
gefunden! -> WTF?
Schlussendlich bin ich unter dem Systemsteuerungspunkt "File History"
(natürlich hab ich ein Englisches Windows :P)
links unten auf das sehr kleine, unscheinbare "System Image Backup" gestoßen, also die Funktion, wo im Internet behauptet wird, dass sie aus Win8.1
gestrichen wurde. Also, nach dem erfreulich schnellem erzeugen des Images hab ich mich daran gemacht, die OC-Fähigkeiten des Systems auszutesten. Nicht jedoch
auszureizen, da ich mir durchaus des Wertes einer stabilen und langlebigen Hardware bewusst bin^^
Doch mehr hierzu unter "
Overclocking "!
-> Dezember 2019
Wie üblich startet man bei einem neuen Computer damit, das ganze in einem Testaufbau zusammenzuschließen, um etwaige Fehler, fehlerhafte Hardware, Temperaturprobleme oä. im
Vorhinein feststellen zu können.
Das hat sich auch hier bestens bewährt, da man so einfacher zu Komponenten und Schaltern (CMOS-Reset beim Overclocking) dazu kommt und das System "minimal-bestückt" ist.
Zum Glück gab es kein zwicken und alles lief auf anhieb; stabile, kühle Temperaturen im UEFI und dann dieses gleich mal durchforstet.
Die ganzen Settings inkl. OC auszuprobieren kostet schon einige Tage -> da ist man froh, ein noch funktionierendes Hauptsystem zu haben, um im Internet nachschauen zu können^^
CPU : AMD Ryzen R9 3900 X
Info:
12 Cores
24 Threads
105W TDP
2 CCD (Core-Chiplets-Dies)
á 2 CCX (Core-Complex)
á 3 Cores
So sieht man evtl. auch schon das Problem, wenn Windows wie bisher Prozesse sinnlos und hirnrissig auf allen Cores herumswitcht -> wenn nämlich von einem CCD auf den Core des anderen CCD
verschoben wird (Windows macht das im (mili-)Sekunden-Takt), dann wird auf einen nicht mehr zusammengehörigen Speicher zugegriffen, d.h. hohe Latenzen, weil die Prozess-Daten zuerst
in den neuen Speicher verschoben werden müssen!
-> Microsoft und AMD arbeiten natürlich kontinuierlich an Verbesserungen des Schedulers und Treibers, doch derzeit kann es SEHR von Vorteil sein, wenn man entweder 1 CCD deaktiviert, oder
besser ein neues Power-Profil verwendet!
(dort werden nämlich auch versteckt die Core-Daten und der CPU-Aufbau bestimmt)
-> der OverClocker 1USMUS ist dem ganzen auf die Spur gegangen und hat ein solches gefertigt:
Artikel 1 +
Artikel 2
Man mag zwar nicht glauben, dass ein Externer da überhaupt was machen kann, aber auch ich habe es getestet und es
funktioniert tadellos !! Windows verschiebt die Prozesse nicht mehr wie wild,
sondern diese bleiben wenn möglich auf einem Core!
Und da der Prozessor selbst weiß, welche seiner Cores "die besseren" sind (wird schon bei der Produktion von AMD festgelegt) und dies via Treiber Windows mitteilen kann, hat man immer
die beste Geschwindigkeit pro Prozess!
Noch ein kleines Wort zum Overclocking:
CPU-Overclocking ist seit Zen1 faktisch tot; zumindest wenn man keine LN2 (Flüssigstickstoff) Kühlung hat^^
Außerdem ist die Auto-Boost Technologie so gut, dass der Turbo-Takt automatisch bei kühlerer CPU steigt. D.h. hat man eine gute Kühlung (Noctua 14/15 oder gleich Wasser!), dann hat man
höchstmögliche Taktraten
automatisch !
So bleibt nur noch der RAM: und wie oben schon erwähnt, soll man für normales OC den Takt bei 3.600 MHz lassen, damit Core/Ram/Uncore-Takt 1:1:1 laufen.
Deshalb kann man die schon extrem hohe Geschwindigkeit nur via besseren Ram-Timings erhöhen, für welche RAM mit Samsung B-Dies benötigt werden.
Alle Bios-Settings und mehr zu OC gibts unter "
Overclocking "!