ATI HD 4870 auf 1920x1200

  • Frage

  • Bergara
  • 2216 Aufrufe 25 Antworten

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • ATI HD 4870 auf 1920x1200

    Hallo!
    Ich wollte mal fragen wie sich die Karte gegen die 9800GX2 in Höheren auflösungen schlägt.

    1920x1200 aufwärts

    Da ich einen 24" Moni besitze, würde mich das mal interessieren bevor ich mir eine holen :D
    Ein Bekannter von mir hat nen 30" mit 2500x1900 - ist da überhaupt noch ein grosser Unterschied?

    Folgendes hab ich bis jetzt gefunden:


    MFG Bergara
    >[SIZE="1"][COLOR="Blue"]AMD Phenom II X6 1055T @ 3,85GHz[/color]<>[COLOR="Sienna"]Gigabyte GA-870A-UD3 2.1[/color]<>[COLOR="Gray"]8GB G.Skill F3-10666CL8-2GBECO[/color]
    >AMD HD7970<>C: = ADATA S599 256GB SSD<>[COLOR="Green"]30" TFT 16/10 2560x1600 PA301W[/color]<>[COLOR="RoyalBlue"]Logitech G5 Refresh[/color]<> [COLOR="Navy"]Logitech G19[/color][/SIZE]
  • Bergara schrieb:

    Ein Bekannter von mir hat nen 30" mit 2500x1900 - ist da überhaupt noch ein grosser Unterschied?




    24 Zöller: ~2,3 mio Pixel
    30 Zöller: ~4,7 mio Pixel

    Sagt doch schon alle, oder? :D

    Die 9000er Serie hat gegenüber der 8000er Serie einen gewaltigen Nachteil:
    kastrierter Speicher + Speicherinterface, was zur Folge hat, dass man bei (sehr) hohen Auflösungen + AA/AF die 9000er absolut vergessen kann.

    Bei solch einer hohen Auflösung würde ich ggf auf die 1 GB Version der 4870 warten oder direkt zur Konkurenz und zur GTX260 greifen.

    mfg
  • Was ich bis jetzt gefunden habe ist mein gewünschtes ergebenis "Crysis auf Max zocken" leider nicht erfüllt.

    Da wart ich noch lieber eine Generation ab.
    So schlecht ist dann die 8800GTX @ XXX auch wieder nicht :)

    MFG Bergara
    >[SIZE="1"][COLOR="Blue"]AMD Phenom II X6 1055T @ 3,85GHz[/color]<>[COLOR="Sienna"]Gigabyte GA-870A-UD3 2.1[/color]<>[COLOR="Gray"]8GB G.Skill F3-10666CL8-2GBECO[/color]
    >AMD HD7970<>C: = ADATA S599 256GB SSD<>[COLOR="Green"]30" TFT 16/10 2560x1600 PA301W[/color]<>[COLOR="RoyalBlue"]Logitech G5 Refresh[/color]<> [COLOR="Navy"]Logitech G19[/color][/SIZE]
  • mele1 schrieb:

    Ati, die rund 60€ billiger ist, die GTX in jeder Situation durchschnittlich schlägt


    Aber wieviel FPS in welcher Auflösung?
    Das ist hier die Frage
    Die neue Nvidia oder ATI schaffens ja nichtmal Crysis auf Maximal mit 1920x1200 Ruckelfrei.
    Das wäre eigentlich mein Wunsch gewesen.

    MFG bergara
    >[SIZE="1"][COLOR="Blue"]AMD Phenom II X6 1055T @ 3,85GHz[/color]<>[COLOR="Sienna"]Gigabyte GA-870A-UD3 2.1[/color]<>[COLOR="Gray"]8GB G.Skill F3-10666CL8-2GBECO[/color]
    >AMD HD7970<>C: = ADATA S599 256GB SSD<>[COLOR="Green"]30" TFT 16/10 2560x1600 PA301W[/color]<>[COLOR="RoyalBlue"]Logitech G5 Refresh[/color]<> [COLOR="Navy"]Logitech G19[/color][/SIZE]
  • jackass999 schrieb:

    das kannst du dir abschminken!


    Wird so sein.

    Desshalb abwarten und Tee trinken.
    Werd ich halt noch ne Reihe Überspringen.

    Ausserdem, ich hätte eigentlich oben schonmal erwähnt
    Da wart ich noch lieber eine Generation ab.


    MFG Bergara
    >[SIZE="1"][COLOR="Blue"]AMD Phenom II X6 1055T @ 3,85GHz[/color]<>[COLOR="Sienna"]Gigabyte GA-870A-UD3 2.1[/color]<>[COLOR="Gray"]8GB G.Skill F3-10666CL8-2GBECO[/color]
    >AMD HD7970<>C: = ADATA S599 256GB SSD<>[COLOR="Green"]30" TFT 16/10 2560x1600 PA301W[/color]<>[COLOR="RoyalBlue"]Logitech G5 Refresh[/color]<> [COLOR="Navy"]Logitech G19[/color][/SIZE]
  • Naja, ich würd mal sagen wenn du gut Verdienst kannst du ja die EXTREM Variante wählen und dir gleich 3 von denn 280 GTX reinhauen
    EVGA GtX280 Triple SLI + EVGA 790i SLI Vantage numbers :) - XtremeSystems Forums
    , da gehst du 100% sicher das der Pc Crysis auf der gewünschten Auflösung abspielen kann.
    Kostet aber auch ganz schön was (3x280 GTX =3x500€) (1x1200Watt+1x1000Watt Netzteil kosten ca. 1.160€ 2.120€) (ein 3-Way-Sli Mainboard z.B. von XFX mit nem nforce 790i chipsatz kostet 250€) und dann noch einen guten CPU (QX9650 =829€)
    mfg cool-rider

    Fazit: ich würde lieber bei deinem alten System bleiben auser du hast Geld zuviel XD
  • Cool-Rider schrieb:

    Naja, ich würd mal sagen wenn du gut Verdienst kannst du ja die EXTREM Variante wählen und dir gleich 3 von denn 280 GTX reinhauen
    EVGA GtX280 Triple SLI + EVGA 790i SLI Vantage numbers :) - XtremeSystems Forums
    , da gehst du 100% sicher das der Pc Crysis auf der gewünschten Auflösung abspielen kann....


    Toll dann bekommst du Mikroruckler. Einzelkarten RULEZ. :)

    @Bergara: Ich überspring auch noch die Reihen bis zum nächsten Durchbruch

    :drum: :drum:
  • King_EM schrieb:

    Toll dann bekommst du Mikroruckler. Einzelkarten RULEZ. :)

    @Bergara: Ich überspring auch noch die Reihen bis zum nächsten Durchbruch

    :drum: :drum:


    Ohje...ich will dich mal aufklären:

    Mikroruckel gibt es bei SLI/CF eigentlich immer, ja...ABER:
    Sie werden erst bei unter 30 fps wahrgenommen (frag nicht warum, ich hab auch kA, ist aber so).
    Und selbst 2 GTX280 im SLI schaffen bei höchster Auflösung + AA/AF Crysis mit knapp 30 fps.

    Somit würden 3 dieser Karten deutlich über 30 fps liegen und diese tollen Mikroruckler wären weg, Punkt.

    mfg
  • Ich würde einfach mal warten weil wenn Ati ne hd4870x2 rausbringt dauert es nicht lang und nvidia wird tausendprozentig ne gtx280 x2 rausbringen(<-- aber bestimmt unter anderem name gtx280x2 hört sich ja schwul an xD)und da die gtx280 in den meisten fällen schneller is als ne hd4870 denke ich dass diese karte dein problem lösen würde.Sprich ne gtx280 x2 oder wie die auch immer dann heißt.Oder halt sli mit 2x gtx280 das würde es auch tun.

    greetz
  • @playboy

    (Ob das, was ich jetzt schreibe zu 100% so stimmt, kann ich nicht sagen, ich habe es lediglich einmal gelesen/aufgeschnappt.)

    Jedenfalls habe ich mal gelesen, dass es mit der neuen Grakageneration von Nvidia NICHT möglich sein soll, eine DUal Karte á la 7950GX2 oder 9800GX2 aufgrund der Architektur zu bauen. Ein möglicher Beleg dafür wäre auch halt die 8000er Reihe, die keine DUal-Karte hervorgebracht hat.

    Zudem:
    Eine solche Dual-Karte aus 2 GTX280 auf ein oder zwei PCBs (Platinen) wäre fast unmöglich zu kühlen, da man einen Kühler einsetzen müsste, der bis zu 400 Watt kühlen müsste!
    Ohne Wsserkühlung wäre das von der Lautstärke nicht auszuhalten...!

    mfg
    ---
    Keine Komplettzitate bitte.
    greetz lukas2004
  • Im prinzip hat man ne dual karte der 8000er serie rausgebracht denn ne 9800gx2 besteht aus zwei g92b und der g92 wurde ja schon auf der 8800 gts 512mb benutzt .Auch das problem mit dem lüfter ist kein so großes problem,es gibt lüfter die das schaffen und wenn ich ne high end karte bau dann kann ich ja wohl auch nen high end lüfter draufmachen.

    Aber es kann schon sein dass man es rein vom platz und der architektur nicht schafft daraus ne dual gpu karte zu bauen,ich meine auch gelesen zu haben das nvidia weg will von dual gpu und nur noch single bauen will.Aber das haben se vorher auch gesagt und wie se gesehen haben dass sie an die 3870x2 auch nur mit ner dual gpu rankommen haben sie doch ne dual gpu karte gebaut,aber das wird sich schon noch ergeben.

    greetz
  • Dass der G92(b) nur eine "Verbesserung" des g80 ist, ist natürlich richtig.
    Aber dadurch wurde der Chip ja halt verändert...ist ja auch egal.

    Schonmal eine GTX280 in Aktion gehört?
    Falls ja, wirst du dir nicht vorstellen können, wie laut ein Lüfter sein muss, um mal eben 200 Watt mehr kühlen zu können...

    Nvidia hat mal gesagt, dass sie im absoluten high-end Segment weder auf Single-GPU Karten setzen wollen, noch auf Karten, die mit 2 GPUs bestückt sind.
    Vielmehr wollen sie ihre Karten den CPUs "angleichen" (mir fällt kein besseres Wort ein).
    Eine GPU soll demnach aus 2, oder mehr DIEs bestehen, so wie Dual oder Quadcores.
    Ob das großartig was anderes wäre, als 2 GPUs auf einer Platine? kA...

    mfg
  • @mele1: Dann will ICH DICH mal aufklären fps bedeutet frames per second

    --> Bilder pro Sekunde. Ab 25 fps kann man Bilderreihen als flüssige Bewegungen erkennen. Bei einem SLI/CF Verbund steigt zwar im Durchschnitt die Framerate an, aber zwischen den Überdurchschnittlich hohen Frameraten bricht die Framerate ein, sodass man einen Ruckler sieht obwohl die fps im Durchschnitt höher sind.

    Punkt.
  • Du hast wohl keine Ahnung...
    das mit den 25 fps stimmt ja soweit.
    Aber, bei SLI/CF ist es so, dass beide GPUs über einen speziellen Chip miteinander kommunizieren müssen, was unweigerlich dazu führt, dass das berechnete Bild der zweiten Karte um einige hunderstel Sekunden "zu spät" ankommt. DAS ist das, was wir als Microruckel wahrnehmen. Und Fakt ist, dass sie meistens nur bei weniger als ~30 fps wahrnehmbar sind. (€: Sie gibt es bei SLI/CF praktisch IMMER, nur bei >30 fps sind sie nicht wahrnehmbar!)

    Dies ist, wenn man so will, ein Fehler des AFR (Alternate Frame Rendering), der Render-Modus, den CF und SLI benutzen, wo die erste Karte das 1.;3.;5. etc und die zweite Karte das 2.;4.;6. etc Bild berechnet und wobei die Kommunikation praktisch "zu lahm" ist.

    Wenn ich mir aber im Allgemeinen deine Posts ansehe, muss ich feststellen, dass du hier mit SEHR VIEL Halbwissen am Werke bist...
  • Ich habe sehr wohl Ahnung, denn das was du da so toll ausgeführt hast habe
    ich in meinem Post darüber schon (gut ein bisschen weniger ausführlich, was
    aber eine Beleidigung von wegen Halbwissen nicht rechtfertigt) erklärt. Die Frames
    werden ungleichmäßig ausgegeben und man sieht erst einen Mikroruckler wenn unter
    25 Frames ausgegeben werden, das wissen wir beide. Aber deswegen gleich so
    beleidigend zu werden ist eine Unverschämtheit.
  • King_EM schrieb:

    Die Frames werden ungleichmäßig ausgegeben und man sieht erst einen Mikroruckler wenn unter
    25 Frames ausgegeben werden, das wissen wir beide.


    da habe ich schon wieder meine Bestätigung...
    Man sieht Mikroruckler sogar bei mehr als 24 fps!

    Wenn Mikroruckler erst bei weniger als 24 fps bemerktbar wären...was hätte es für einen Sinn, sich darüber aufzuregen? Unter 24 fps ruckelt es eh!!!

    Oh mann...

    Geh mal auf den Link:
    [url=http://www.pcgameshardware.de/aid,631607/Praxis/Videobeweis_Mikroruckler_zerstoeren_den_leistungssteigernden_Effekt_von_Multi-GPU-Loesungen/]PCGH - Test/Benchmark: Videobeweis: "Mikroruckler" zerstören den leistungssteigernden Effekt von Multi-GPU-Lösungen[/url]

    Und guck dir das Video an...achte dabei auf die Framezahl oben rechts beim ersten Durchlauf und wenn die fps bei 25-30 liegen, ruckelt es trotzdem!
    DAS sind die Mikroruckler, und nichts anderes!

    Ich hoffe du verstehst es mal endlich.

    mfg
  • Das ist doch schon viel besser: Lieber eine anständige Diskussion als gegenseitige Beleidigungen ;) . Ich meinte die Mikroruckler sind doch unverhältnismäßig langsam ausgegebene Frames oder? Und wenn die durchschnittliche Framerate sagen wir 27 ist, und dann wird eine Frame zu langsam ausgegeben. Dann sieht man wie es ruckelt, oder hab ich da was falsch verstanden? (gut ich gebe zu, in dem Post davor war es etwas unglücklich formuliert)

    mfG King_EM
  • Mich würde mal interessieren, ob die HD 4870 (512 MB) Crysis in einer Auflösung von 1920 x 1200 schaffen würde ohne das das spiel ruckelt oder ob es sich lohnt auf die HD 4870 (1024 MB) zu warten, mit der Hoffnung das die das schafft. Weiß einer denn schon ob die das dann schaffen würde wenn es die 512er nicht schafft?

    Danke im vorraus

    MFG OldGameZocker
  • Falsch mele1!!! Die GTX 280 schafft es sogar alleine crysis so darzustellen dass es nicht ruckelt!!! [mit ca.33.8fps, bei 1920x1200 4xAA / 8xAF : Quelle: Gamestar(08|08) Die GTX 280 ist für die Auflösungen ab 1650x1050, die auflösung von einem 22" unterfordert sie sogar, aber ab 1900x1200 ist sie im moment unschlagbar!!!Die 9800GX² arbeitet mit SLI und hat daher die berühmten miniruckler und kann auch nicht so schnell auf den gesamten speicher zugreifen wie die GTX 280!

    @mele1: Crysis ist nich beschisen programmiert!!! Es liegt an der Engine, diese ist nicht ausgereift. Es fehlte einfach an zeit und es wurden zu wenigleute darauf angesetzt, und warum alle es auf high-end spielen wollen, hmmm...warum wohl??? es reitzt natürlich wenn man sagen kann "ich kann es auf ultrahigh(oder wie das heißt) zocken" und es sieht einfach dermaßen gut aus!!!
    [SIZE="1"][COLOR="DarkRed"]>>>[/color]I H4cKeD 127.0.0.1[COLOR="darkred"]<<<[/color]
    [COLOR="Black"]Mei[COLOR="Yellow"]n[/color] Rech[/color]enkn[COLOR="Yellow"]echt[/color]![/SIZE]