PDA

View Full Version : [OT] Grafikkarten der neuen Generation



EnZyme X
16-04-04, 14:51
Ein derzeit wirklich heißes Thema, die neue Grafikkartengeneration.
Mich interessiert, was Ihr davon haltet.
Hier soll ein wahres feuergefecht in Sachen Diskussion entsetehen.

Was bringt uns normal-sterblichen Menschen eine solche Grafikleistung? Wo soll es enden? Wielange werden wir noch fähig sein sowas zu bezahlen?
Werdet Ihr euch überhaupt noch sowas kaufen?

All das sind Fragen die es zu beantworten gilt.

Fangen wir an mit dem Vergleichstest des neuen Nvidia Flagschiffs Geforce 6800 Ultra (Codename: NV 40) (Geforce 6) mit dem momentanen Flagschiff von ATi, die ATi Radeon 9800 XT (Codename: R360) (Radeon 9800 Serie):

Grafikchip: NVIDIA Geforce 6800 Ultra

Codename: NV 40

Chiptechnologie: 256 Bit

Fertigungsprozess: 0.13 Micron

Transistoren: 222 Mio.

Speicher-Bus: 256 Bit GDDR3

Speicher-Bandbreite: 35.2 GB/s

Pixel Füllrate: n.b.

Max. FSAA-Modus: 4x / 4xMS+2xSS

Triangle Transform Rate: 600 Mio. Dreiecke/s

AGP-Bus: 2x/4x/8x

Speicher-Bestückung: 128/256/512 MB

Chiptakt: 400 MHz

Speichertakt: 550 MHz (1100 DDR)

Speicher (auf Referenzboard): Samsung 600MHz GDDR

Vertex Shader: 6 Einheiten

Pixel Pipelines: 16x1 / 32x0

Textur-Einheiten pro Pipe: 1

Texturen pro Textur-Einheit: n.b.

Vertex S. Version: 3.0

Pixel S. Version: 3.0

DirectX-Generation: 9.0c

FSAA-Modi: MultiSampling, SuperSampling Mixed Mode

Speicher-Optimierungen: LMA III Optimized Color Compression

Weitere Optimierungen: IntelliSample 3.0

Monitor-Ausgänge: 2

Chip-interne Ramdacs: 2 x 400 MHz

externe Ramdacs: -

Bits pro Farbkanal: 10

Besonderheiten: Video Processor and TV Encoder On-Chip; Extended Progammability
Adaptive Filtering, True Trilinear Filtering,
UltraShadow

Einführungspreis: €499

aktueller Straßenpreis: n.b.

------------------------------------------------------------------------

Grafikchip: ATI Radeon 9800 XT

Codename: R360

Chiptechnologie: 256 Bit

Fertigungsprozess: 0.15 Micron

Transistoren: ~107 Mio.

Speicher-Bus: 256 Bit GDDR

Speicher-Bandbreite: 23.4 GB/s

Pixel Füllrate: 3.04 Gigapixel/s

Max. FSAA-Modus: 6x

Triangle Transform Rate: 412 Mio. Dreiecke/s

AGP-Bus: 2x/4x/8x

Speicher-Bestückung: 256 MB

Chiptakt: 412 MHz

Speichertakt: 365 MHz (730 DDR)

Speicher (auf Referenzboard): Hynix BGA spezifiziert für 400 MHz

Vertex Shader: 4

Pixel Pipelines: 8x1

Textur-Einheiten pro Pipe: 1

Texturen pro Textur-Einheit: 8

Vertex S. Version: 2

Pixel S. Version: 2

DirectX-Generation: 9.0

FSAA-Modi: MultiSampling

Speicher-Optimierungen: Hyper Z III+

Weitere Optimierungen: SmartShader 2.1, SmoothVision 2.1

Monitor-Ausgänge: 2

Chip-interne Ramdacs: 2 x 400 MHz

externe Ramdacs: -

Bits pro Farbkanal: 10

Besonderheiten: TV Encoder On-Chip; FullStream
Adaptive Filtering
F-Buffer

Einführungspreis: €499 (alter Stand)

aktueller Straßenpreis: ca. €365

------------------------------------------------------------------------

Grün = Besser
Geld = Ausgeglichen (Gleichstand)
Rot = Nachteil (Langsamer etc.)

Wie zu sehen ist hängt die neue Geforce 6800 Ultra das momentane ATI Flagschiff in den Schatten.

Der Vergleich hat mich jetzt einiges an Zeit gekostet, die ganzen Daten abzutippen.
Hoffe es reicht um hier eine schöne Diskussion führen zu können.

Meine Meinung dazu ist: Die neue Geforce Karte ist zwar Top, aber ATI will bald ebenfalls ihre neue Karte präsentieren, und wie wir wissen hat ATI bis jetzt immer eine Überraschung auf Lager gehabt.
Also abwarten und Tee trinken.

Ich persönlich bleib jetzt bei meiner Karte, hab kein Geld mehr für was neues.

Was sagt Ihr dazu ?

Quellen:
www.tomshardware.de
www.giga.de
www.chip.de

DarkFear
16-04-04, 14:57
Nett.....aber zu teuer.

Da wart ich lieber noch ne weile und hol mir dann ne GraKa die ein bisschen älter is zb ne 9800 Pro oder so.

Die Features der allerneustens karten unterstüzt eh noch so gut wie kein game, und performancetechnischer sicht reicht die Stufe2 der GraKa levels fast immer aus.

Und das wichtigste: Mann zahlt sich dann nich dumm und dämlich :D

Richard Angelus
16-04-04, 14:59
/Edit: da sich der erste Teil erledigt hat....

vieleicht ne gute Karte um auf DX9 umzusteigen, aber wenn man schon ne DX9 Karte hat......
naja dann nur wenn man das Geld über hat :D

Sir_Tommy
16-04-04, 15:02
Die FX 6800 Ultra kommt aufjedenfall bei mir rein *schon mal geld zurück leg* und dazunoch nen mind. 450 W Netzteil :D

Weil die Karte zieht ne Menge :eek: 8|+

Achja:

Wer mal gucken will was die karte kann, kann Hier (http://www.destroyergames.com/videos/unreal3_0002.wmv) sich die neue Unreal3 Engine angucken...ist mit net 6800 Ultra gemacht

Treazer
16-04-04, 15:14
NVidia FX6800 net mit AGP... sondern mit PCI Xpress... das rockt :). Aber die Karte würde ich nur auf ein 64Bit Board setzten mit nem AMD Opteron CPU. Dann glaub ich ist der Speed Grenzenlos :D

Serpent
16-04-04, 15:14
ich hab noch ne geforce 2 :p

werd aber umsteigen auf ne radeon xxxx, welche is da zu empfehlen ?

Jadzia Eleazar
16-04-04, 15:49
Momentan bietet die ATI 9800pro das beste Preis-/Leistungsverhältnis.

Die neue FX 6800 verbrät alleine 100W, also ist ein neues Netzteil fällig.
Wg. PCI-Express dann noch ein neues Mobo und bei Intel wohl auch noch
neuer Speicher (DDR2), auch wenn sich da der Geschwindigkeitsvorteil
in Grenzen hält. Wenigstens spart er etwas Strom im Ggs. zum Heizkraftwerk
Prescott. Naja vielleicht werden die neuen Prescotts etwas genügsamer sein.
Ach ja, und wenns nach Intel geht braucht man auch noch ein neues Gehäuse
wg. neuem Formfaktor.
Und nen Opteron würd ich net empfehlen, die laufen langsamer als die Athlon64er und sind eher was für Server (also für KK :lol:).
Wenn AMD endlich den neuen Sockel bringt, taugt die Athlon64-FX Serie mehr als der Opti, auch wenn AMD bisher noch keine PCI-Express Unterstützung bietet (wird aber sicherlich kommen, alleine schon wg. dem Opteron).

Lisa
16-04-04, 17:12
Ja, mir sind die auch zu teuer. Mehr als 250 Euro zahle ich nicht für 'ne Grafikkarte. Keine Ahnung, was meine Ti-4200 damals gekostet hat, die war zwar nicht spottbillig, aber preisgünstig und brachte genug Leistung für die Spiele, die in den nachfolgenden Wochen erschienen sind.
Bei den Prozessoren kauf ich auch immer so ein, dass ich den schnellsten aus dem Bereich kaufe, wo der Preis noch einigermassen linear mit den MHz steigt. Ich denke gar nicht daran, mir 15% mehr Leistung dadurch zu erkaufen, dass ich 50% mehr zahle. Ein Quartal später ist dieser Prozessor dann Mainstream, ein paar hundert Euro im Preis gefallen und immer noch nicht "fühlbar" schneller, als der andere ;)

Jeremy Morton
16-04-04, 17:23
Ich brauche keine Vergleiche, ich HASSE ATI, wenn die Karten heiß werden produzieren sie Grafikfehler das darf nicht sein. Sogar die neuesten Radeon Modelle tun das noch. Für so nen Pansch geb ich meine Kohle net her. Das wäre eigentlich schon alles da ja nur noch nVidia übrig bleibt. Da wurde ich noch nie von einer Karte im Stich gelassen. :p

Momo Katzius
16-04-04, 18:11
Ich warte eher auf OpenGL 2.0, um alle modernen Features auf jeder Plattform nutzen zu koennen.

Ansonsten ist CG an sich schon ne ganz schoen heftige Sache.....vor allem mit Hinblick auf Overdraw und so weiter..wenn es weniger Overdraw gaebe, dann koennte man auch mehr Polygone zeichnen.

Wenn Grafikkarten nen Algorithmus zum reduzieren von Overdraw in Hardware haetten, dann wuerde ich das mal ne neue Generation nennen. Ansonsten gibt es doch nix neues im Bereich Gafikkarten...es wird nur das vorhandene immer weiter aufgebohrt.

EDIT: Ich sehe auf Dauer keinen Sinn darin mehr als 50 W in Grafik zu pumpen...vor allem da fast alles in Waerme umgesetzt wird. Die neuen GraKa-Generationen sollten bei gleicher oder mehr Leistung viel weniger Strom brauchen..sonst ist der Begriff "neue Generation" nicht wirklich gerechtfertigt.

Halbtyr
16-04-04, 18:22
Ich brauche keine Vergleiche, ich HASSE ATI, wenn die Karten heiß werden produzieren sie Grafikfehler das darf nicht sein. Sogar die neuesten Radeon Modelle tun das noch. Für so nen Pansch geb ich meine Kohle net her. Das wäre eigentlich schon alles da ja nur noch nVidia übrig bleibt. Da wurde ich noch nie von einer Karte im Stich gelassen. :p

Seit ich ne Ati drinnenhab kommts bei mir auch zu Grafikfehler, ausserdem
spiesst sich das Teil irgendwie mit DSL (evtl Fritzcard), für mich ist die
Radeon gestorben :mad:

Timmy2k
16-04-04, 18:30
Bei mir ist das selbe mit meiner ATI wenn ich himmels effekte in neocron anhabe kommt nach netr zeit ein übelster grafikfehler das ist echt scheisse muss mich bald mal nach ner GF umsehén ^^

Mehrpack
16-04-04, 18:34
Quellen:
www.tomshardware.de (http://www.tomshardware.de/)
www.giga.de (http://www.giga.de/)
www.chip.de (http://www.chip.de)

hi,
lies dir mal dir lieber www.3dcenter.de von den quellen da bekommt man ja ausschlag, brrr.

das du das FSAA von r3x0 mit 6x als nachteil hinstellt, kann man nicht gelten lassen.
das einzige was in die richtung geht ist das 8x beim NV40, welches ja ein mix aus MSAA und SSAA ist, aber durch den SSAA anteil nur noch 25% der orginal füllrate zur verfügung stehn aber am ende nicht wirklich mehr qualität bietet als das 4x FSAA vom NV40.

bei 4x FSAA herscht von der qualität fast gleichstand aber ist natürlich schneller.
das sollte man schon differenzierter in dem fall betrachten.

und dann der chiptakt, du das ist am ende egal wie schnell nen chip ist, wichtig ist wie hoch die effektivtät ist.
nen traktor mit 1000 PS ist auch nicht schneller als nen auto mit 120 PS.
dafür kann der traktor mehr ziehn, das auto ist aber schneller von der erreichbaren höhstgeschwindigkeit.
sowas kann man nicht vergleichen per zahlen, wichtig ist was hinten am ende rauskommt.

ausserdem sollte man noch erwähnen das der Anisotrope Filter mittlerweile wie beim ATI auch winkelabhänig ist, ob der NV40 auch in der lage ist alle winkel gleichstark zu filtern wie bisher, ist noch nicht geklärt.

Mehrpack

Mehrpack
16-04-04, 18:45
Seit ich ne Ati drinnenhab kommts bei mir auch zu Grafikfehler, ausserdem
spiesst sich das Teil irgendwie mit DSL (evtl Fritzcard), für mich ist die
Radeon gestorben :mad:hi,
haste mal die irq gecheckt ob sie die grafikkarte ihn mit der fritzkart teilen muss?
zwar soll hardware schon seit jahren irq-sharing kompatibel sein, aber so richtig haben sie es immer noch nicht geschafft.




Ich warte eher auf OpenGL 2.0, um alle modernen Features auf jeder Plattform nutzen zu koennen.

Ansonsten ist CG an sich schon ne ganz schoen heftige Sache.....vor allem mit Hinblick auf Overdraw und so weiter..wenn es weniger Overdraw gaebe, dann koennte man auch mehr Polygone zeichnen.

Wenn Grafikkarten nen Algorithmus zum reduzieren von Overdraw in Hardware haetten, dann wuerde ich das mal ne neue Generation nennen. Ansonsten gibt es doch nix neues im Bereich Gafikkarten...es wird nur das vorhandene immer weiter aufgebohrt.

haben sie.
schimpft sich hyper-Z bei ATI und early-Z bei Nvidia.
da wird der Z-Test vorm rendern gemacht und festgestellt, welche pixel verdeckt werden und diese fliegen dann raus.
kann man zwar von der effektivität nicht mit power VR lösung vergleichen, aber dafür kann man dort, so wie ich gehört habe, schwieriger PS3/VS3 reinbaun.




Ich brauche keine Vergleiche, ich HASSE ATI, wenn die Karten heiß werden produzieren sie Grafikfehler das darf nicht sein. Sogar die neuesten Radeon Modelle tun das noch. Für so nen Pansch geb ich meine Kohle net her. Das wäre eigentlich schon alles da ja nur noch nVidia übrig bleibt. Da wurde ich noch nie von einer Karte im Stich gelassen.

mal dran gedacht das die grafikkarte vielleicht defekt ist?
wegen mangelnder gehäuselüftung zu nem hitzestau kommt?
grafikkarte/speicher übertaktet?!

sowas kannste net generell auf ATI schieben.
soetwas kann viele ursachen haben.
klar Nvidia-karten halten meistens ne höhere Temperatur aus, aber 100°C sind auch für Nvidiakarten nicht gesund, auf dauer.

Mehrpack

Maal
16-04-04, 18:54
ich warte schon seit Jahren auf die NV40.

Als ich merkte, dass meine GF 3 ti 500 zulangsam wurde wollte ich keine GeForce 4 kaufen, da sie nur geringfügig schneller ist als die GF 3 und schongarnicht die GF FX, weil sie zu schwer, zu langsam und sonst was war.

Auch die FX 5950 ULTRA ist nicht schnell genug. Für Half-Life 2 will ich die beste Grafikkarte haben und ich werde solange warten bis Half-Life 2 erscheint und dann die beste Grafikkarte kaufen, die es gibt, oder aber ich warte bis zur nächsten GraKa-Generation (NV40 oder R420) und entscheide mich dann.

So oder so, sieht es eher so aus als würde ich mir wieder eine GeForce kaufen!

GF rulz

Jeremy Morton
16-04-04, 19:13
mal dran gedacht das die grafikkarte vielleicht defekt ist?
wegen mangelnder gehäuselüftung zu nem hitzestau kommt?
grafikkarte/speicher übertaktet?!

sowas kannste net generell auf ATI schieben.
soetwas kann viele ursachen haben.
klar Nvidia-karten halten meistens ne höhere Temperatur aus, aber 100°C sind auch für Nvidiakarten nicht gesund, auf dauer.

Mehrpack

Das kommt nicht nur bei mir vor aber dafür in der Regel wenn es heiß wird. Es ist bei mir ne ATI MOBILITY Radeon 9600 in nem Alienware P4 Notebook. Das wird sehr warm wenn NC läuft und wenn es dann auf Temperatur ist gibt es riesige schwarze Felder. Wenn ich es abkühlen lasse und NC dann wieder anmache sind die wieder ne zeit lang weg. Mein normaler Rechner hat ne GF 4 Ti 4600 die macht sowas im übelsten Hochsommer nicht. Ich denke schon dass ich das auf ATI schieben kann, vor allem da man sowas keineswegs selten hört.

EnZyme X
16-04-04, 19:34
Also an alle Leute die Probleme mit ihrer ATI haben, kann ich garnet nachvollziehen... ich hab auch ne Radeon 9800 XT, die erreicht ne standardtemperatur von 71 - 73°C und ich hab keinen einzigen Fehler bei irgendeinem Spiel bisher bemerkt.

Mehrpack
16-04-04, 19:37
Das kommt nicht nur bei mir vor aber dafür in der Regel wenn es heiß wird. Es ist bei mir ne ATI MOBILITY Radeon 9600 in nem Alienware P4 Notebook. Das wird sehr warm wenn NC läuft und wenn es dann auf Temperatur ist gibt es riesige schwarze Felder. Wenn ich es abkühlen lasse und NC dann wieder anmache sind die wieder ne zeit lang weg. Mein normaler Rechner hat ne GF 4 Ti 4600 die macht sowas im übelsten Hochsommer nicht. Ich denke schon dass ich das auf ATI schieben kann, vor allem da man sowas keineswegs selten hört.
hi,
von wem hast du es noch gehört?
leute mit dem selben notebook?

rechner =! notebook.
alleine schon der P4, ist wohl die desktopversion?, hat ja eine nicht gerade kleine abwärme und son notebook ist ja nicht gerade gross und es ist ja noch anderes drin.
also entweder hat alienware die kühlung zugering gehalten oder aber in der lüftersteuerung von dem notebook ist nen fehler so das der kühler nicht genug frishluft reinholt.

Mehrpack

Mehrpack
16-04-04, 19:40
Also an alle Leute die Probleme mit ihrer ATI haben, kann ich garnet nachvollziehen... ich hab auch ne Radeon 9800 XT, die erreicht ne standardtemperatur von 71 - 73°C und ich hab keinen einzigen Fehler bei irgendeinem Spiel bisher bemerkt.hi,
nunja die meisten grafikkarten sind zwischen 60 und 70 grad ausgelegt.

die meisten nv30 haben bei 100°C keine fehler gezeigt, aber wie gesagt sowas ist nicht gerade gesund für den chip.

ausserdem ist je nach qualität der einzelnen chips ihre wärmeresistence anders.
aber wenns nen hitzestau wegen mangelnder belüftung gibt, ist dann klar das irgendwann die grafikkarte zuheiss wird.
vorallen da die neuen grafikkarten immer mehr abwärme produzieren.

NV40 ist auch nicht gerade nen sparwunder sondern verheizt insgesamt ca 110W unter volllast.
bloss dafür bekommt man dann natürlich auch sehr gute spieleleistung geboten.

Mehrpack

Jadzia Eleazar
16-04-04, 20:18
Alienware-Notebook?

Aber natürlich ohne Notebook Prozessor, vielleicht noch nen
P4 Extreme Edition drin (ein Kumpel von mir hat so ein Teil).
Und genau da liegt der Fehler und nicht bei ATI.
Solange es "Notebooks" mit Desktop-CPUs gibt, wird es auch solche Probleme
geben. Brauchst dich net wundern, wenn irgendwann DVD/CD-LW oder die
Platte den Geist aufgibt, denn die wollen erst recht net von ner Desktop-CPU beheizt werden.
In ein Notebook gehört ein Mobile Prozessor und kein Desktop-Chip, auch wenn man dann vielleicht nicht mit seinen GHz prozen kann.

Sheltem
16-04-04, 20:40
Naja...mit meinem P3 850 seh ich das noch ein weil da der Lüfter erst nervt wenn die Kiste was zu arbeiten bekommt. Einen P4 in einem Notebook durfte ich heute bewundern. Der Lüfter war am dauerlaufen obwohl der 15" Kasten nur auf sich selber aufpasste.
Muß eben alles billich sein...

Hört bitte auf mobile Grakachips mit desktopversionen zu vergleichen. Obwohl die Bezeichnungen ähnlich bis gleic sein könnten ist doch ein eklatanter Unterschied zu merken.

SyPi
16-04-04, 23:16
Noch so am Rande, habe auf Screenshots gesehen das die neue Geforce Karten weit mehr als 14.000 Punkte im aktuellen 3DMark2003 schaffen ... *schwärm* xD

Sheltem
16-04-04, 23:51
Mir völlig latte. Die 9800pro wir bezahlbar und daher kann ich den 100 Watt Überchips ur diesen Lob des "Billigermachens" abringen. Aber ernshaft. Die GPUs verballen dann genausoviel bis noch mehr Saft als die CPUs. 100 Watt...das genehmigt sich nicht mal mein Barton. Wakü...

SyPi
17-04-04, 00:56
Ich hoffe mal das NVidia diese Thermischen / Stromhungrigen Probleme in den Griff bekommt. Ist doch nicht mehr Real wenn die Grafikkarte mehr Watt abgibt als der Prozessor selber ...

Sheltem
17-04-04, 01:01
Das ist den Wakü-Kiddies doch egal. 200 Watt nur CPU/GPU Verbrauch. Reine Heizleißtung. Banane. Haubtsache die 3Dmarks stimmen. :o

SyPi
17-04-04, 01:06
Dual-Kompressor: CPU und Graka :D :D

der Ed
17-04-04, 10:01
Ich schliesse mich da Sheltem an:
Die alten werden billiger, und genau darauf warte ich im Moment. Was die sonst bringt ist mir Schnuppe.

Und 100 Watt is mal echt krass o_O

Poolitzer
17-04-04, 10:07
pfff was interessieren mich neue grafikkarten? hab atm ne radeon 9000 und neocron läuft damit super! wenn doy kommt werde ich mich nach ner billigen radeon 9600 umschauen wahrscheinlich ne gebrauchte und fertig...

Mehrpack
17-04-04, 10:12
Noch so am Rande, habe auf Screenshots gesehen das die neue Geforce Karten weit mehr als 14.000 Punkte im aktuellen 3DMark2003 schaffen ... *schwärm* xD
hi,
und was nützt dir 14000 punkte?
davon selber läuft Farcry oder neocron auch net schneller.
das einzigste zu was der 3DMark gut ist, ist zu sehn ob das system damit fertig wird, sprich belastungstest.
und als Funktionstest.

Aber ob nen Spiel läuft oder nicht kann dir das teil am Ende nicht sagen, da das teil nur ein Synthetischer Benchmark ist, der nicht die Spielerealität darstellt.

Ausserdem wirst du selber kaum 14.000 punkt erreichen, da das ein Demosystem von Nvidia war und bei den meistens test die NV 40 so um die 12k hatte.
wahrscheinlich hatte sich Nvidia nen P4 mit 4 oder mehr GHz besorgt über stickstoffkühlung.

Mehrpack

Momo Katzius
17-04-04, 10:16
hi,
...

haben sie.
schimpft sich hyper-Z bei ATI und early-Z bei Nvidia.
da wird der Z-Test vorm rendern gemacht und festgestellt, welche pixel verdeckt werden und diese fliegen dann raus.
kann man zwar von der effektivität nicht mit power VR lösung vergleichen, aber dafür kann man dort, so wie ich gehört habe, schwieriger PS3/VS3 reinbaun.


.....
Mehrpack

Interessant, falls es tatsaechlich in Hardware passiert. Ich fand den Kryo-Ansatz auch nicht schlecht.

Zockt eigentlich jemand mit ner Kryo-karte NC?

Hier noch ein Link: http://www.withingames.net/

Mehrpack
17-04-04, 10:38
Interessant, falls es tatsaechlich in Hardware passiert. Ich fand den Kryo-Ansatz auch nicht schlecht.

Zockt eigentlich jemand mit ner Kryo-karte NC?

Hier noch ein Link: http://www.withingames.net/hi,
yo das passiert per hardware, ich glaube der treiber arbeitet noch etwas mit, aber alleine durch den treiber wäre das heutzutage nicht mehr realisibar da die performence dann unter aller sau wäre.

Mehrpack

SyPi
17-04-04, 11:26
hi,
und was nützt dir 14000 punkte?
davon selber läuft Farcry oder neocron auch net schneller.
das einzigste zu was der 3DMark gut ist, ist zu sehn ob das system damit fertig wird, sprich belastungstest.
und als Funktionstest.

Aber ob nen Spiel läuft oder nicht kann dir das teil am Ende nicht sagen, da das teil nur ein Synthetischer Benchmark ist, der nicht die Spielerealität darstellt.

Ausserdem wirst du selber kaum 14.000 punkt erreichen, da das ein Demosystem von Nvidia war und bei den meistens test die NV 40 so um die 12k hatte.
wahrscheinlich hatte sich Nvidia nen P4 mit 4 oder mehr GHz besorgt über stickstoffkühlung.

MehrpackDeine Systhemvorstellungen sind Utopisch Nvidia testete ganz normal mit einem Pentium Systhem:

http://www.forumdeluxx.de/gallery/data/3057/104140023-med.jpg

Jadzia Eleazar
17-04-04, 12:52
Ganz normal war es wahrscheinlich nicht, denn den 3,4GHz P4 gibts auch
in einer Extreme Edition. Nur kostet der Chip alleine so 900€ und bringt wenige % mehr an Leistung (bei doppeltem Preis).

Mehrpack
17-04-04, 12:53
hi,
bloss leider steht da nicht mit wieviel MHZ der prozessor läuft, sondern das es nur ein Pentium 4 3,4 ist, sein name.
Wahrscheinlich sowieso eine Extrem Edition.

aber ob der Prozessor wirklich mit 3,4 GHz läuft lässt sich nicht aus dem Shot ableiten.

ausserdem selbst wenn er mit 3,4 GHz gelaufen ist, wäre das ergebniss zu hoch.

Tecchannel hat mit 3,2 GHz das rausbekommen: ca 11800 punkte
Pc-Perspektive hat mit 3,2 GHz auch nur ca 11700 punkte
Xbitlaps hat mit einem A64 3400+ knapp 12300 punkte rausgeholt.

und nen P4 EE @ 3,4 GHz macht nicht soviel Punkte aus, dafür ist er zu Grafikkarten lastig.

da war was übertaktet, auch andere haben schon die vermutung.
aber wie gesagt die Punkte sind sowieso für die Katze.

Mehrpack

SyPi
17-04-04, 12:57
Aus dem Artikel von Hardwareluxx konnte man nicht entnehmen das das Sythem übertaktet gewesen sei, weil es scheinbar ein Live-Bench war und ich denke mal ,dass das Systhem vorher vorgestellt wurde.

Remorian
17-04-04, 13:04
Die info hört sich gut an, aber ich ahb da so meine zweifel. Nicht das das nicht stimmt was da behauptet wird, jedoch ahb ich mir oft die neuste Grafikkart vom Markt geholt und musst wirklich jedesmal feststellen, das die Kühlung unzureichend war. Meine neue Radeon ist nach 2 Monaten an überhitzung eigegangen und Nvida erlaubte sioch sogar die frechheit auf meine Gforce 4 einen Plastikwärmetauscher zu installieren. Ich musste die Grafikkarte 1 Monat mit Kühlagregaten aus der Kühltruhe kühlen.

Daher taru ich dem neuen Zeug nicht megr so. Meine derzeitige Radeon läuft mit nem Freon Kühler von Cryotech ( Kühlt den Chip konstsant auf -41°C) und ich bin damit total zufriedenm. Nicht das ich die Grafikkarte nicht aucgh noch heillos übertakten könnte, aber für den Moment reichts.

Mehrpack
17-04-04, 13:12
Aus dem Artikel von Hardwareluxx konnte man nicht entnehmen das das Sythem übertaktet gewesen sei, weil es scheinbar ein Live-Bench war und ich denke mal ,dass das Systhem vorher vorgestellt wurde.
hi,
hab mal schnell geschaut und nix gefunden auf anhieb.

aber das ist eine marketing veranstaltung.
da wird nicht die "wahrheit" gesagt sondern die "wahrheit" von nvidia.
wenns hilft das sich das produkt verkauft würden die auch behaupten die grafikkarte hat die funktionen von ner microwelle, selbst wenn sie damit nur die abwärme meinen die hoch genug wärme um essen aufzuwärmen ;).

es könnte natürlich auch sein das die grafikkarte übertaktet wurde, als die anwendung gestartet wurde.
sowas kann man per treiber machen.
das sieht man auch nicht.
jedenfalls fest steht das in "freierwildbahn" die grafikkarte auf nicht gerade schwereren system 2k punkte weniger hatte.
und das ist weder mit messungsungenauigkeit zu erklären noch mit den gerade mal "200 MHz" mehr bei dem system.
nvidia hat schon mal ganz andere sachen von benchmarks veröffentlicht, da war der unterschied zu regulären messungen sogar noch höher.

wie gesagt das ist marketing, es geht darum das produkt sogut wie möglich zu verkaufen und das heisst nunmal das die wahrheit auch verbogen wird.
deswegen muss man sich um eine grafikkarte wirklich zu urteilen die unabhängigen hardwaretest in den medien anschaun, vornehmlich internet.
weil das die hersteller nur ein interiesiert umsatz.

Mehrpack

SyPi
17-04-04, 13:45
Kann man dahingehend nicht meinen das es doch mehr Geschäftsschädigend wär wenn man sich eher hinter gefakten Ergebnissen versteckt die beim Endkunden nicht mehr stimmen. Durch dieses Release schaut doch nun die "ganze" Welt auf NVidia und denkt sich nun aha NVidia hat nun seine Erwartungen erfüllt, um dann im Endeffekt hinten abzustürzen durch Pressemitteilungen wie "user bemängeln falsche Leistungsangaben .. " ....doch nicht das wahre in dieser Hinsicht.

Mehrpack
17-04-04, 14:29
Kann man dahingehend nicht meinen das es doch mehr Geschäftsschädigend wär wenn man sich eher hinter gefakten Ergebnissen versteckt die beim Endkunden nicht mehr stimmen. Durch dieses Release schaut doch nun die "ganze" Welt auf NVidia und denkt sich nun aha NVidia hat nun seine Erwartungen erfüllt, um dann im Endeffekt hinten abzustürzen durch Pressemitteilungen wie "user bemängeln falsche Leistungsangaben .. " ....doch nicht das wahre in dieser Hinsicht.
hi,
nicht gefaked.
gefaked wäre ja wenn sie es durch irgendwelche "unschönen" cheats in den treibern machen würden.
aber keiner weiss genau wie Nvidia auf die ergebnisse kommt.
es ist eben die "wahrheit" von nvidia.
genauso ist das auch bei ATI und INTEL und AMD.

ist alles realtiv.
ausserdem ist es nicht das erste mal das die zahlen die ein hersteller angibt auf marketingveranstaltungen dieser art, in den testcenter nicht wirklich reproduzieren lassen.
das ist mittlerweile eben was ganz normales, das die wahrheit im sinne des herstellers gebogen wird.
deswegen nicht anhand von solchen präsentationen die hardware kaufen, sondern nachdem was man für schlüsse aus den testberichten ziehn kann.
aber selbst da kann man sich nicht mal auf einen verlassen.
weil zum teil 5 internetseiten zu einem spiel 5 ergebnisse haben.
vielleicht sogar noch auf fast der selben hardwarebasis.

wahrheit ist eben realtiv.

Mehrpack

SyPi
17-04-04, 15:08
Gutes Beispielt für in meinen Augen manipulierten Testberichten ist Computerbild und Aldi PC`s. Es kann doch nicht sein das "dieser" PC das non-plus-ultra sein soll. Und dann natürlich bei Computerbild immer auf der Titelseite prangert.

Jeremy Morton
17-04-04, 15:11
Gutes Beispielt für in meinen Augen manipulierten Testberichten ist Computerbild und Aldi PC`s. Es kann doch nicht sein das "dieser" PC das non-plus-ultra sein soll. Und dann natürlich bei Computerbild immer auf der Titelseite prangert.

Ganz meine Meinung, aber CB war schhon immer ein wenig... err... seltsam. ;)

SyPi
17-04-04, 15:16
Wenn man sich die "Bild" (Tageszeitung) mal vor Augen hält inkl. der netten Frauen auf Seite 1 was erwartet man dann.

Mehrpack
17-04-04, 16:36
Gutes Beispielt für in meinen Augen manipulierten Testberichten ist Computerbild und Aldi PC`s. Es kann doch nicht sein das "dieser" PC das non-plus-ultra sein soll. Und dann natürlich bei Computerbild immer auf der Titelseite prangert.
hi,
yo.
genauso auch chip und gamestar.
die hardware abteilungen da sind auch echte künstler.
C´T geht soweit in ordnung, bloss bei den grafikkartentest haben sie ab und zu auch "fehlgriffe".

internetseiten, gibt leider nur wenige wirklich gute seiten die auch gute test machen.
www.3dcenter.de (http://www.3dcenter.de) macht gute test, hauptsächlich geht es dabei aber um grafikkarten und alles drum und dran.
aber mittlerweile les ich internettestseiten nicht mehr regelmässig, deswegen kann ich auch nicht keine richtige auskunft über die anderen treffen.

Mehrpack

SyPi
17-04-04, 19:40
Wer doch auch mal ein Grund eine Initiative aufzurufen die sich genau mit diesem Thema beschäftig. "Großkonzernmanipulation bei renomierten Fachzeitungen / Sites". Einfach mal eine unabhängige Institution die Tests auf wahrheitsgebot und plausibilität prüft. xD

svenw
17-04-04, 19:53
Sorry, aber der Vergleich hinkt gewaltig. Hier werden Äpfel mit Birnen verglichen!

Warte auf die Release des neuen ATI 400er Chips und dann können wir uns hier die Köpfe einschlagen. :) Die momentanen 9800 sind schlichtweg eine Generation älter als die NV40 Chips.
soweit ich weiß soll die Vorstellung der ATI chips am 26ten sein. DAnn scahu mal bei 3dcenter.org rein. So ausführliche und kometente Tests hab ich sonst nirgendwo gesehen.

Mehrpack
17-04-04, 20:10
Sorry, aber der Vergleich hinkt gewaltig. Hier werden Äpfel mit Birnen verglichen!

Warte auf die Release des neuen ATI 400er Chips und dann können wir uns hier die Köpfe einschlagen. :) Die momentanen 9800 sind schlichtweg eine Generation älter als die NV40 Chips.
soweit ich weiß soll die Vorstellung der ATI chips am 26ten sein. DAnn scahu mal bei 3dcenter.org rein. So ausführliche und kometente Tests hab ich sonst nirgendwo gesehen.
hi,
nunja im moment ist aber nur die 9800XT da zum vergleichen.
die 9700pro wurde damals beim erscheinen mit der 4600TI auch verglichen.

beide alte karten haben natürlich in den meisten bereichen ab geloost, vorallen was features und geschwindigkeit anging.
ist ja eben die "alte" generation.

aber ich bin auch schon auf den r420 gespannt.
sobald dann klar ist was er kann und wie der preis aussieht werd ich dann entscheiden was ich mir hole, wenn die preise etwas gefallen sind.
ich hoffe das wird noch im sommer der fall sein.

Mehrpack

SyPi
17-04-04, 20:23
Quote:
Originally Posted by svenw
Sorry, aber der Vergleich hinkt gewaltig. Hier werden Äpfel mit Birnen verglichen!

Warte auf die Release des neuen ATI 400er Chips und dann können wir uns hier die Köpfe einschlagen. :) Die momentanen 9800 sind schlichtweg eine Generation älter als die NV40 Chips.
soweit ich weiß soll die Vorstellung der ATI chips am 26ten sein. DAnn scahu mal bei 3dcenter.org rein. So ausführliche und kometente Tests hab ich sonst nirgendwo gesehen.

hi,
nunja im moment ist aber nur die 9800XT da zum vergleichen.
die 9700pro wurde damals beim erscheinen mit der 4600TI auch verglichen.

beide alte karten haben natürlich in den meisten bereichen ab geloost, vorallen was features und geschwindigkeit anging.
ist ja eben die "alte" generation.

aber ich bin auch schon auf den r420 gespannt.
sobald dann klar ist was er kann und wie der preis aussieht werd ich dann entscheiden was ich mir hole, wenn die preise etwas gefallen sind.
ich hoffe das wird noch im sommer der fall sein.

Mehrpack


Ich denke Winter / Frühjahr wird die Zeit sein wo es sich um die ~300-200 Euro "vielleicht" drehen wird ....

svenw
17-04-04, 20:40
Um ganz ehrlich zu sein, finde ich die Preise für die neuen Karten jenseits von gut und böse. Und was man so von der normalen Version der Karte hört klingt nicht so toll, mal sehen wie groß der Vorsprung dann noch ist.
12 statt 16 Pipelines und DDR1 RAM (mit ca 400MHz (spekulation von 3Dcenter).
Ich bin der Meinung, das man etwas warten sollte und dann bei einer 9800pro zuschlagen sollte. Die dürfte mit erscheinen der neuen KArten noch mal ordentlich fallen und liefert mehr als genug Performance für alles was momentan auf dem MArkt ist.

Sheltem
17-04-04, 22:00
Wie gesagt. Diese euen 100Watt Supergrakas sind nur zu einem gut: Die Vorgänger billiger und bezahlbar machen welce ja eh für die nächsten 2-3 Jahre genuch Power haben.

SyPi
17-04-04, 23:17
Wie gesagt. Diese euen 100Watt Supergrakas sind nur zu einem gut: Die Vorgänger billiger und bezahlbar machen welce ja eh für die nächsten 2-3 Jahre genuch Power haben.

Naja wenn man dann mal darüber nachdenkt, bald wird es karten geben die "schätzungsweise" die doppelte performance haben wir die jetztigen (Radeon 9800 / NVidia 9950). Ich denke mal das demensprechend auch die Spiele angepasst werden (Oder wer will gerne in einer "schwimmigen mauschel Grafik spielen" damit es auch noch beiden "alten" Karten klappt?).

Mehrpack
18-04-04, 14:35
Naja wenn man dann mal darüber nachdenkt, bald wird es karten geben die "schätzungsweise" die doppelte performance haben wir die jetztigen (Radeon 9800 / NVidia 9950). Ich denke mal das demensprechend auch die Spiele angepasst werden (Oder wer will gerne in einer "schwimmigen mauschel Grafik spielen" damit es auch noch beiden "alten" Karten klappt?).
hi,
nunja ich glaube nicht das die refreshchips vom nv40/r420 schon sobald kommen, ich denke frühestens im winter aber wohl eher im frühjahr 2005.

zu den spielen.
nunja im schnitt braucht es mindestens 1 1/2 bis 2 jahre bis spiele kommen die anfangen die feature von den aktuellen grafikkarten nützen können.

Mehrpack

SyPi
18-04-04, 14:53
Gut, wenn man es so sieht hast du natürlich recht - nichts mehr entgegenzusetzen xD

Mehrpack
18-04-04, 19:09
Gut, wenn man es so sieht hast du natürlich recht - nichts mehr entgegenzusetzen xD
hi,
wie gesagt ich glaube, kann auch sein das ATI und NV die dinger ende september vorstellen und sie dann im oktober im handel sind.
wer weiss das schon genau, leider kann ich ja nicht bei denen in die labs schaun und die neusten karten mir ausleihn :D.

Mehrpack

DaFire
18-04-04, 22:57
soviel ich weiss ist noch gar nich klar ob die ganzen piplines der neuen geforce überhaupt schnell genug mit daten befüllt werden können ;)

ich hab vor ein paar monaten die damals erhältlichen karten verglichen und mich fuer ne radeon9800pro entschieden ... und wenn die mir irgendwann nicht mehr reicht dann guck ich dann welche karten dann erhältlich und bezahlbar sind .. sich jetzt ne karte aussuchen und darauf warten ... ich weiss nicht

die karten sollen sich erst mal im praxiseinsatz bewähren ,)

Mehrpack
18-04-04, 23:23
soviel ich weiss ist noch gar nich klar ob die ganzen piplines der neuen geforce überhaupt schnell genug mit daten befüllt werden können ;)

ich hab vor ein paar monaten die damals erhältlichen karten verglichen und mich fuer ne radeon9800pro entschieden ... und wenn die mir irgendwann nicht mehr reicht dann guck ich dann welche karten dann erhältlich und bezahlbar sind .. sich jetzt ne karte aussuchen und darauf warten ... ich weiss nicht

die karten sollen sich erst mal im praxiseinsatz bewähren ,)
hi,
können sie auch nur in wenigen fällen, demirug oder aths im www.3dcenter.de (http://www.3dcenter.de) forum meinte, wenn ich mich jetzt richtig errinere in den meisten fällen nur genug bandbreite für 12/13 der textureeinheiten zur verfügung steht.

der nv40 ist jedenfalls für die meisten games schnell genug um auch 4xFSAA anzubieten.
das einzigste wo es im moment "hängt" ist FarCry, bloss da warum ist unklar.
eigentlich sind die shader dort realtiv klein und können zügig abgearbeitet werden und es sollte der nv40 realtiv gut verdaun.
kann natürlich irgendwo in der engine nen bug sein oder im treiber der in dem fall irgendwie bremst.
aufjedenfall wird der nv40 nen patch brauchen für FarCry da er im moment zum teil dort nur den NV30/35/38 path nutzen kann wo die farbgenauigkeit auf 16FP steht und dadurch manche sachen unschön aussehn.

Mehrpack

EnZyme X
21-04-04, 17:00
Vor 2 Tagen sind nun erste genauere Details der neuen Radeon-Chips "X800'er Serie" bekanntgegeben worden.
Da es viele bestimmt noch nicht wissen hier die Details nochmal auf einem Blick, ich habe die Spezifikationen der "ATi R423" genommen, also die beste Karte der "X800'er Serie".

Name: Radeon X880XT

Codename: ATi R423

Herstellung: 180 Mill. Tr. in 130nm

Technologie-Klasse: DirectX9, Shader 2.0

Geometrie-Pipelines: (vermutlich 8)

Pixel-Pipelines: 16

Shading-Einheiten pro Pixel-Pipeline: n.b.

Splitfähigkeit für arithmetische Einheiten: n.b.

Chiptakt: 500 MHz

Speichertakt: 500 MHz

Speicheranbindung: 256 Bit

Speicherausstattung: 256 MB GDDR3

Chipinterface: PCI Express x16

Launch: 14. Juni

Markteintritt: (vermutlich Juli)

Startpreis: 499 $

Quelle (http://www.3dcenter.de/artikel/2004/04-19.php)

Was sagt Ihr dazu?
Ich für meinen Teil schweige, warten wir erstmal die ersten "richtigen" Benchmarks ab. ;)

Mehrpack
21-04-04, 20:28
Vor 2 Tagen sind nun erste genauere Details der neuen Radeon-Chips "X800'er Serie" bekanntgegeben worden.
Da es viele bestimmt noch nicht wissen hier die Details nochmal auf einem Blick, ich habe die Spezifikationen der "ATi R423" genommen, also die beste Karte der "X800'er Serie".

Name: Radeon X880XT

Codename: ATi R423

Herstellung: 180 Mill. Tr. in 130nm

Technologie-Klasse: DirectX9, Shader 2.0

Geometrie-Pipelines: (vermutlich 8)

Pixel-Pipelines: 16

Shading-Einheiten pro Pixel-Pipeline: n.b.

Splitfähigkeit für arithmetische Einheiten: n.b.

Chiptakt: 500 MHz

Speichertakt: 500 MHz

Speicheranbindung: 256 Bit

Speicherausstattung: 256 MB GDDR3

Chipinterface: PCI Express x16

Launch: 14. Juni

Markteintritt: (vermutlich Juli)

Startpreis: 499 $

Quelle (http://www.3dcenter.de/artikel/2004/04-19.php)

Was sagt Ihr dazu?
Ich für meinen Teil schweige, warten wir erstmal die ersten "richtigen" Benchmarks ab. ;)

hi,
R423 ist nur ein 420, aber anstatt eines AGP-Interface hat er ein PCI-X interface.
aber die XT wird die schnellste Version werden vom R420/423.

wie du schon gesagt das, Benchmarks abwarten.
bis jetzt kann man noch keine einschätzung treffen, ich hoffe bloss das beide gleich schnell werden, ca.
das freut dann den kunden :).

Mehrpack