RavionHD
PCGH-Community-Veteran(in)
Kepler ist halt bereits 10 Jahre her.Kepler schon vergessen? Pascal schon vergessen?
Ich meinte btw Pascal statt Maxwell, Maxwell erschein ja auch im Herbst.
Kepler ist halt bereits 10 Jahre her.Kepler schon vergessen? Pascal schon vergessen?
Na dann bin ich gespannt was die beiden anderen Riesen noch aus dem Hut zaubern werden?
Die roten haben ja den neuen Gaming Manager bekommen.
Ich hoffe die schlafen nicht wie es im Artikel umschrieben wird.
Schwachsinn !VEGA VS Pascal
Vega64 auf GTX1080 Niveau vs GTX1080TI
Ca 30% Leistungsunterschied zugunsten Nvidia...
RDNA4 wird im High-End Bereich nicht konkurrieren. Das hat AMD bereits offiziell gemacht.
Die 100er GPUs waren noch nie für Gamer gedacht.
Geschickte Aufteilung des Consumer Markts würde ich das mal nennen wollen. AMD greift den Entry und Mid Tier Level Markt ab. NVidia verdient sich dann weiterhin eine goldene Nase im "Highend Segment". In die Quere kommt man sich dann bis auf weiteres nur bei den "KI Beschleunigern" im Data Center Bereich. Ein Schelm ist wer sich böses dabei denkt...dann hat AMD eh nichts oberhalb der Leistung einer 5070 und die Preise bleiben was sie sind.
Immer wieder schön zu sehen, dass der alte Trick mit der Brechstange immer noch funktioniert, weil die wenigsten Leute den Verbrauch mit einbeziehen. Und genau deswegen macht AMD das auch hier.Das macht die aktuelle Technologie von AMD und Nvidia doch sehr gut vergleichbar. Daran kann man sehen, dass AMD mehr in Richtung Raster gewichtet ist und dort vorne liegt und Nvidia eben auf RTX und Tensor Kerne setzt. Das sorgt dafür, dass beim Rastern Teile des Nvidia Chips stillstehen und damit kommt der Rückstand zustande. Bei Raytracing macht sich jedoch die spezialisierten Kerne bemerkbar und AMD verliert wieder an Boden. Es ist nicht so leicht zu sagen einer der Chips wäre fundamental besser, sie sind eben unterschiedlich gewichtet.
Mit Ausnahme von Pascal ist zuletzt jede neue GPU Ende des Jahres erschienen, in der Regel im September.
Ich gehe weiterhin von einem Release im September/Oktober 2024 aus.
VEGA64 war anfangs sogar langsamer (5%) und knapp 100€ teurer und schwerer verfügbar als die GTX1080. (Deswegen brachte man ne GTX1070TI)Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
Hier begehst du leider einen signifikanten Denkfehler. Die 7800XT ***) nutzt und hat insgesamt 36,3 Mrd. Transistoren. Was du dagegen berücksichtigt hast ist ausschließlich das GCD und das bringt alleine nichts zu Wege.Der AD104 (4070, 4070Ti) hat 35,8 Milliarden Transistoren, wobei die 4070 ca. 25% der Einheiten abgeschalten hat, was eine "Nutzlast" von 27,4 Milliarden Transistoren ergibt.
Die 7800XT von AMD hat, wie es der Teufel so will, 28 Milliarden Transistoren.
Das macht die aktuelle Technologie von AMD und Nvidia doch sehr gut vergleichbar. [...]
ah ist dem so? Ich dachte das sind bislang nur (mehrfach genannte) Gerüchte - hast du dazu eine Quelle?Das hat AMD bereits offiziell gemacht.
Hab deinen Beitrag leider erst später gelesenHaben sie das jetzt offiziell gemacht?
Bisher waren das nur Gerüchte, ich hätte da gerne eine Quelle.
CB hat das etwas ausführlicher beschrieben und geht auch auf die Verzögerungen im 3E Prozess ein, im Prinzip wird 2024 wohl eher "sportlich", ich würde eher mit mitte 2025 rechnen, vor allem weil hier der HPC Chip mit Gamingchips gleichgesetzt wird, aber ersterer kommt wohl deutlich früher https://www.computerbase.de/2023-09...-von-nvidias-b100-bis-qualcomms-next-gen-soc/Ontopic: Digitimes war bisher immer ganz gut informiert wenn ich mich richtig erinnere. Ist trotzdem die Frage welches Gerücht stimmt, "Blackwell erst 2025" und "Apple hat fast das gesamte 3nm Kontingent reserviert" gab es ja auch bereits. Wäre natürlich wünschenswert wenn der 2-Jahres-Rhythmus bleibt, ich würde gern nächstes Jahr aufrüsten.
Ja, sie waren aber eigentlich gegen die 1080Ti geplantSchwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
Du vergisst bei der Story halt, dass die 7800 XT glatte 50 Watt mehr verbraucht als die 4070. Gleiche den Verbrauch der beiden Karten an, und der AMD-Raster-"Vorteil" ist.. weg. Nvidia ist in allen Disziplinen vorne. Es ist so einfach wie traurig. Nvidia könnte natürlich auch den Verbrauch erhöhen und AMD auch offiziell schlagen, aber sie lassen AMD grade genug Luft zum Atmen. Die Gründe kann sich jeder selbst ausmalen.
*) Viel einfacher ist da der Vergleich gegen die RTX 4070 Ti als dem Vollausbau des AD104. Hier braucht man nichts zu versuchen rauszurechnen. Der AD104 hat fast genau so viele Transistoren wie AMDs Design, i]...}
Apple hält leider mit ihren iPhones den ganzen Fortschritt im PC Bereich auf. Niemand braucht jedes Jahr ein neues iPhone.einfach ausgebucht durch Apple
Totalausfall würde ich dazu nicht sagen.Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Das ist ja theoretisch süß, aber als ich damals meine 1070 gekauft hatte, ging es um Fury, oder Pascal.Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070
Meine nur beim Cherrypickingund VII in etwa gleich schnell als die GTX 1080Ti
Nochmal, die 1070 war günstiger als jede Fury beim Kauf. Dann war selbst Vega56 jahrelang nicht schneller. Erst als die 1070 echt zur Rentner Gen gehörte häuften sich die Benchmarks, in denen eine V56 spürbar schneller war und das immer noch bei deutlich höherem Verbrauch. Und das quasi als Gen nach Fury und Pascal., RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Ich persönlich finde das nach der R9 290X kaum noch was kam bei AMD. Alles immer zu spät, zu durstig, zu lahm (neuste Feautres usw)Durstig und zu spät, ja das waren sie ...
Totalausfall würde ich dazu nicht sagen.
Ich meine eine 3080 war mit 320W ja quasi genau so gut unterwegs, wie eine 6800XT bei 300W. Auch die 3090 gegen eine 6900XT sah nicht so schlecht aus.
Ja, die 3090ti war natürlich im Prinzip ein Verbrauchsausfall
Es ging/geht ihm (dem Vorposter) um die LEISTUNG !Meine nur beim Cherrypicking