News Gerüchte um RDNA 4: AMD soll die Radeon RX 8900 und Radeon RX 8800 gestrichen haben, oder etwa doch nicht?

Mir egal, 1. da AMD eh nie absichtlich im Titan-Segment mitmischte und 2. ich auch nicht die teuerste Grafikkarte auf dem Markt kaufe.
Mir scheint, dass die glücklichen Umstände bei RDNA2 vielen schlichtweg den Sinn für die realen Verhältnisse im GPU-Markt genommen haben. Das Verhältnis RDNA2 <-> RTX3000 wo sich AMDs GPUs sogar mit umbenannten Titans kloppt ist schlichtweg nicht der Normalzustand.
Bezeichnenderweise dann auch die völlig übertriebene Erwartungshaltung bei RDNA3.

Wenn der RDNA4-Topdog laut Gerüchten mit 120CUs kommen sollte, wäre das eine Steigerung von +25% gegenüber RDNA3. Erwartbar wäre damit evtl. eine Performancesteigerung von vielleicht um die +15-25%.
Und das wäre schon mehr als die Steigerung von RDNA2 auf RDNA3, wo es nur +20% CUs gab!

Also wäre eine 8700(xt) das schnellste Pferd im Stall?..
Sprich im Bereich zwischen 6(7)800xt und 7900xt

Wow.. dann müssen die aber echt übern Preis kommen..

Die 5700XT als Mittelklasse war auch deutlich schneller und effizienter als die schnellste Radeon der Vorgängergeneration Vega.
Man kann davon ausgehen, dass es bei RDNA4 mindestens ein schnelleres Exemplar als die 7900XTX geben wird. Aber RDNA4 wird nicht nach der Performancekrone im Gesamtmarkt greifen, resp. nicht im Enthusiasten-Segment mitmischen können, besonders wenn NVidia weiterhin so derbe klotzt wie bei der 4090, koste es was es wolle.
 
Zuletzt bearbeitet:
Multi-Chiplet wird mMn ein absoluter Gamechanger für AMD mit den nächsten beiden Generationen.
Glaube da liegen richtig spannende Zeiten durch die gegebenen Möglichkeiten im High-End-GPU Bereich vor uns.

Im Bereich CDNA2 und CDNA3, aka Mi200/Mi300 wurden auch massiv Fortschritte an den für die Inter-Die Kommunikation notwendige Bandbreite gemacht.
Wie man diese Ansätze schließlich auf den für uns relevanten Gaming-Bereich und die Möglichkeit von einheitlichem Frame-Rendering auf multiplen Chiplets überträgt, beschreibt entsprechend der vorab verlinkte AMD-Patentantrag von Ende 2021.

Manchmal sagen Bilder mehr als tausend Worte..

Mi250 Aldebaran mit 2 MCM/GCD
Anhang anzeigen 1433457

Mi300x Aqua Vanjaram mit 8 MCM/GCD
Anhang anzeigen 1433458
(Bild-Quellen: AMD.com)

In diese Richtung wird es wohl weitergehen.
RDNA 3 war der erste Schritt im Gaming-Bereich und aller Anfang ist schwer..
Ich lass mich von vermeintlichen Info´s zu kleinen Chip´s jedenfalls nicht verrückt machen und deute Sie viel lieber dahingehend, dass der Schritt um von großen monolithischen Dies wegzukommen zu gelingen scheint und alte Zöpfe abgeschnitten werden^^
Genau sowas wie in Bild 2 zu sehen brauchen wir als Gaming GPU. 8 kleine GCDs mit 2 größeren oder 4 kleineren Stapeln HBM3. Stellt euch mal vor, wieviele TFLOPS das Gerät haben könnte, wenn es den kleinen 2048 oder den 2560er Shader Cluster Navi in achtfacher Ausführung drauf hätte. Dazu noch schöne 32 GB HBM3 und der nächste Verkaufsschlager ist geboren. Die 4090 würde da nicht mehr mitkommen.

Dazu noch ein fein abgestimmtes Powermanagement, das die kleinen GCDs Lastabhänging an- oder abschaltet, dann dürfte der Strombedarf auch handelbar sein.
 
Zuletzt bearbeitet:
Der Nachfolger in 3 Jahren wird erstmal die RTX 4090 einholen. GJ AMD. xD

Da gibt's dann schon ne 5090 die doppelt so schnell ist wie die 4090.
Lassen wir uns überraschen wenn AMD durch das MCD Design einfach 2-4 GCD von Navi43 nimmt und damit eine 4090 oder 5090 schon Ende 2024 überholt. Bis zur 5090 dauert es auch noch bis 2025. Sie sind mit RDNA3 nicht umsonst als ersten Schritt oder nur aus Kostengründen auf das Chiplet-Design aus dem CPU Bereich gegangen.

Und nein das Konzept ist dann nicht wie SLi/Crossfire oder als man zweit Packages auf einem PCB genutzt hat.

Also erstmal durchatmen und gucken was uns in 1-1 1/2 Jahren erwartet.
 
eine RX8700XT mit 16GB DDR6X und Power einer RTX 4090 für 549€ wäre auch ein Problem für NVIDA.
Ja, eine 7900XT, die deutlich über eine 4080, oder eine 7800XT, die deutlich über eine 4070 hinaus kommen, wären auch Probleme für Nvidia gewesen, gab's aber nun mal nicht, und für mein Gefühl muss man schon sehr optimistisch sein, um davon auszugehen, dass sich das mit der kommenden Generation derart drastisch ändern wird.
Ich gehe stark davon aus das eine 5070Ti wieder das alte Flaggschiff nur mit weniger Speicher ablösen wird.
Naja, dazu müsste sie gegenüber der 4070Ti runde 40% in WQHD und 70% in UHD zulegen - nicht völlig unmöglich, aber ganz sicher auch an der absoluten Optimismus-Obergrenze.

Außerdem hatte die 4070Ti bereits eine MSRP von $799, und die wird bei der 5070Ti wohl kaum niedriger ausfallen, d.h. 4090-Leistung wird's bei Nvidia in der kommenden Generation - und auch das nur mit sehr viel Glück - für 800 bis 1000 Euro geben. Und da es sich AMD zur Angewohnheit gemacht hat, für seine eigenen Preise den grünen Windschatten zu nutzen, wird's da bestenfalls einen Abschlag von 100 Euro geben.

Eine AMD-Karte mit 4090-Leistung für 549€ ist in den nächsten ein bis zwei Jahren komplett illusorisch.
 
Zuletzt bearbeitet:
Sag ich doch gar nicht... wo steht das sie darauf verzichten sollen?
Ich denke sie haben genüg Kapazitäten um parallel beides zu machen.

Es macht nur keinen Sinn man sieht es ja bei der aktuellen Generation den Desktop Markt bei den Karten zu kürzen bei denen der Umsatz am meisten generiert wird. Es gibt ja nur 7900 XTX/XT/GRE.
Mit der 7600 kommt nicht die Marge rein die erwünscht ist. Sämtliche anderen Karten fehlen noch.

Und mit der Veröffentlichung einer 7700 - 7800 kommt jetzt zwar etwas aber mit quasi einem Jahr Verspätung.

Man kann also sagen das einzige was relativ Zeitnah im Desktop / Gaming Segment erneut Marge bringt ist 8900er.

Mittelklasse wird 2024 nicht kommen da sie jetzt veröffentlicht wird und low Budget Karten sind auch überflüssig, da man ja wie aktuell die alte Gen noch im Preis reduzieren kann...

Zudem macht es auch keinen Sinn einen Markt bei erhöhter Konkurrenz links liegen zu lassen.
Würde es AMD machen wird sich Intel bestärkt fühlen diesen Markt zu bedienen!

Es ist also ein absolut unhaltbares Gerücht.
Sie generieren aber wesentlich mehr Geld damit, wenn sie die Karten mit mehreren Chiplets nicht auf den Gamer Markt verkaufen und werden Alles los. Der Bedarf ist so groß das NV schon jetzt die Produktion der Highend Chips für den Gamer-Markt zurückfährt oder sogar einstellt damit sie mehr Kapazität für den KI Markt haben. Der Konsumer Markt interessiert nicht mehr. Ob da jetzt viele Mittelklasse Karten verkauft werden ist auch egal was auf dem Konsumer Markt nicht benötigt wird, wird für den KI Markt eingerichtet.

AMD hat nicht umsonst auf jeder Fahne stehen wir können auch KI. NV fährt auf dem KI Markt Rekordumsätze ein und kann die Nachfrage nicht bedienen. Die Blauen schielen bestimmt auch schon in die Richtung.
Da ist Goldgräberstimmung bei den Herstellern.
 
Lassen wir uns überraschen wenn AMD durch das MCD Design einfach 2-4 GCD von Navi43 nimmt und damit eine 4090 oder 5090 schon Ende 2024 überholt.
"einfach" ist gut..... Wo MCD bei Raytracing Sinn ergibt, ergeben sich beim Rastern erhebliche Probleme, die gelöst werden müssen (z.B. Bandbreite pro Modul, Synchronisation, Szenenverwaltung).

Da kann viel viel Performance und Potenzial auf der Strecke bleiben. Ich fürchte, dass bei vielen hier das Wunschdenken bezüglich großer Performancesprünge eben dieses bleiben wird.
 
Zuletzt bearbeitet:
Stellt euch mal vor, wieviele TFLOPS das Gerät haben könnte, wenn es den kleinen 2048 oder den 2560er Shader Cluster Navi in achtfacher Ausführung drauf hätte. Dazu noch schöne 32 GB HBM3 und der nächste Verkaufsschlager ist geboren. Die 4090 würde da nicht mehr mitkommen.
Die 4090 würde da nicht mehr mitkommen, dafür würde die 4090 dagegen spottbillig aussehen. Denn was du dir vorstellst wird locker 3000-5000 EUR kosten - wenn nicht noch mehr.
 
RDNA4 ist die Xbox/PS5 Pro Generation.
das glaubst du doch selber nich die ps5 ist auf dem level einer 1080ti (7jahre alt) mit ein paar extra kernen für rt. Und selbst die läuft beim gleichen spiel ,Horizon zb., deutlich besser als die Konsole.
Man kann froh sein wenn die ps 5 pro ein 6800xt oder maximal 6900 xt unterbau bekommt und das wäre schon ein träumchen.
 
Solche Gerüchte gab es ja immer wieder. Nach den katastrophalen HD 2900ern, nach Vega und auch jetzt wieder.

Ich schätze mal, dass da nichts dran ist. Zumal man sowas ja gut 6 Jahre vorher planen muß. Unwahrscheinlich, dass AMD es damals gemacht hat, wo doch die vielversprechenden RX 6900er und 7900er auf dem Weg waren.

Was kann Nvidia denn dafür, dass AMD nicht mithalten kann und keine Highend Karten mehr bringt?
Beschwert euch bei AMD :rollen:

Natürlich kann Nvidia etwas für seine Preiserhöhungen. Niemand hat sie dazu gezwungen.

Deine Argumentation ist so, wie "was kann denn der Dieb dafür, wenn es der Eigentümer so schlecht gesichert hat?".
 
Der ai boom ist ne Blase das wissen die auch den ai ist aktuell nur Datenauswertung und da kommt es auf die frage an .
Ne ai entscheidet nix das macht der vorgegebene Algorithmus sowas gab es schon 1999 ansonsten gäbe es google nicht. Und genau so, muss man den ai boom verstehen man wertet die gesammelten daten die teils illegal sind aus. Und genau darum wird das scheitern.

Zu dem multi gcd Ansatz per sfr (split frame rendering) die idee ist alt kam ursprünglich von 3dfx 2000 bevor diese wegen dem Management pleite gingen und von nvidia aufgekauft wurde.

Die idee dahinter klappt beweise sind die vodoo3 die nie Erschienen ist. Das Problem ist aber die latenz damals wie heute muss der sram alle daten bereithalten und da möglichst nah am cu/sm
Eine idee wäre die gcd nur alu und L1 cache den L2 darüber und die display engine sowie tmu rop um dann per aktiven interposer unter den alu zu den externen mcd zu leiten.
Das geht nur mit n2 und gaa und den fortchritt bei 3d chips mit tsv ab n1,8 jetzt kann man schon cache auf den chips platzieren aber maximal als L3 bei cpu ist das der vergrößerter L3 (x3d cpu)
Als L2 und tmu sowie rop geht das nicht, da man ansonsten ne größere latenz erzeugt. Da ist es egal ob man mcm planar organisiert oder in 3d mit gestapelten chips. Der transisor An sich muss in 3d sein
Und planar geht selbst bis gaa mit n2x und3d chips wird vor n1,8 nicht geben. Und ohne 3d erreicht man schon 8ghz cpu und 5ghz cpu ab n2p sofern die designs gleich bleiben amd kann das sehr gut sein. Nvidia unklar da nicht klar ist was man verfolgen wird.

Hopper Ansatz mit reduzierte fp32 würde gehen in n3 aber wäre gehandicapt weil man mehr als 2,5ghz nicht erreicht n2 hat das problem das mehr als 180alu mit dem geändertem design trotz schrinkt nicht gehen aber der Takt bei 2,8ghz steigt
Ampere/ada Ansatz müsste man nur mehr alu per Die setzen was bei n3 bis 216 machbar ist aber bei n2p nur noch 120 drin sind
Erst n2x mit gaa halbiert die Größe quasi verdoppelt die sm
Mit ada design bei n3p kann man 216sm realisieren bei geändertem design maxed 180sm am ende sind mehr fp32 alu im betrieb als beim ada design

Es ging ja hier um rdna4 ich sehe keinen Grund warum man nicht ne dickeren gcd einsetzen dürfte 120cu sind problemlos drin da man 30% kleinere chips bekommt.
aus dem 300mm² wird 204mm² den dann auf 120cu wird daraus 255mm² mit nur noch 4 mcd (256bit) das wäre perfekt. Und das mit gddr7 24gbit chips = 24gb 32gbps

Das problem besteht darin das zu Vermarkten den mehr als rtx4090 leistung wird man nicht erreichen und der markt müsste die gpu ab 1000€ da sein
Wenn amd da sich nicht sicher ist macht man es so. Man veröffentlicht rdna4 mit 60cu ab 800€ ein gcd mit 128mm² und zwei mcd an 12gb = 4 ramchips 60*2,5*64*4,0/1000=38,4tf etwa rx7900xtx Leistung bei 2,7ghz
Bedingung wäre das die simd32 gefixt ist und das weniger mcd die Latenz verringert hat das betrifft die alu Auslastung auf 25% statt 17% also faktisch 2 fp32 per cu + 2 fp32 davon 25% = 0,5 addiert =2,5 aktuell 17% also +0,34
Das ist im Grunde durch ein interview herausgekommen und belegt.

Nvidia wird nen ... geben auf die gamer und die ada gen refreshen da das hopper/blackwell design zu aufwendig wäre und man bei datacenter mehr verdienen kann daher sehe ich ada in n4p oder in n3 portiert beides wäre drin hängt aber vom waferpreis ab
Die Tendenz ist n4p bei 14000$ die schlechteste Annahme chips nur 5% kleiner daher kaum billiger als 4n
Der n3 node kostet 18000$ das isn fakt da ich die Tabelle für waferpreise gefunden habe von n7 bis n2 geplant aber noch ungewisse Annahme 20-30k$
Vorteil ada portiert auf n3 man erreicht mit gddr7 reduzierten Si etwa -30% chipfläche vs derzeit man kann die alu auf 216 maximal vergrößern.
Und man erreicht min 3,1ghz 3,2ghz stehen so gut wie sicher 3,0ghz steht auf der Packung

nen ad207 96bit würde maxed 21$ kosten 9gb vram (vs aktuell 40$)
ad106 128bit maxed 42$ 12gb vram (vs aktuell 60$)
ad204 192bit 63$ 18gb vram vs 90$
ad203 256bit 84$- 24gb vram vs 108$
ad202 384bit 225$-409$ 32gb vram vs 195$ mit 12gpc 144sm

Alles spricht fürn 1-1 port abseits gddr7 Kompatibilität
Ob man das dann blackwell nennt spielt keine rolle und wen, sei es so wirkliche Änderungen am sm sehe ich nicht.
Blackwell sollte deutliche Änderungen an der sm Struktur haben daher macht meine idee auch Sinn. Mehr alu per sm das wär der logische schritt., Das extrem wäre wenn 128 fp32 +64int32 hybrid womit dann 152fp32 per sm gingen aber maxed eben 144sm als gb102
Die große frage ist, werden weniger rt core genügend bvh schaffen. Wenn nein, ist ada design eher anzunehmen. Wenn ja ist ein blackwell design in maxed also 1-1 hopper angelegt oder meine idee mit 96fp32 +64int hybrid die Lösung.


Amd design indes steht so gut wie sicher daher macht die Meldung des Streichens des n41 kein Sinn.
Das mach t man nur wenn geld knapp ist und mehr als ein design zu teuer wird wie zu rdna Entwicklung 2018 2019
Erst kurz vor der ps5 Präsentation mit rdna2 kam erst geld rein für mehr als ein chip.
Die Zukunft sieht amd eher in Datacenter insbesondere mit deren apu Entwicklung mit den ai Beschleunigung das wie gesagt ne blase ist das wird auch bald eher in cpu umgesetzt als in gpu's.
 
Zuletzt bearbeitet:
Der ai boom ist ne Blase das wissen die auch den ai ist aktuell nur Datenauswertung und da kommt es auf die frage an .

Nein, das wird bleiben, das ist die Zukunft.

Ne ai entscheidet nix das macht der vorgegebene Algorithmus sowas gab es schon 1999 ansonsten gäbe es google nicht.

Wieder nein.

Es ist einfach eine andere Art der Berechnung. Während bei den klassischen Algorithmen eine determiniertes Ergebnis herauskommt, ist das bei dem, was man heute so KI nennt, eben nicht der Fall.

Und genau so, muss man den ai boom verstehen man wertet die gesammelten daten die teils illegal sind aus.

Wie gesagt: es handelt sich einfach um eine neue Art der Berechnung,

Und genau darum wird das scheitern.

Klar und bald reiten wir auch wieder alle, weil uns das Erdöl ausgeht und Elektroautos ja Mist sind.

Das ganze ist viel zu gut, als das es wieder verschwinden könnte. Es gibt einfach eine so unglaublich große Vielzahl von sinnvollen Anwendungsfällen und damit ist die Existenz der Technik gesichert.

Aber gut, bei der Mobiltelephonsparte Siemens war man auch der Meinung, dass sich das Farbdisplays bei Mobiltelephonen nie durchsetzen werden und bei Nokia war man davon überzeugt, "Android ist, wie kleine Jungs, die sich im Winter in die Hose zu pinkeln, um es warm zu haben".

Was wudre aus diesen Visionären Aussagen?

Zu dem multi gcd Ansatz per sfr (split frame rendering) die idee ist alt kam ursprünglich von 3dfx 2000 bevor diese wegen dem Management pleite gingen und von nvidia aufgekauft wurde.

Der Ansatz war ein anderer

Die idee dahinter klappt beweise sind die vodoo3 die nie Erschienen ist.

Die Voodoo 3 ist erschienen, ich hatte eine. Witzigerweise war es (neben der Banshee) die einzige Karte, die nicht darauf setzte.

Das Problem ist aber die latenz damals wie heute muss der sram alle daten bereithalten und da möglichst nah am cu/sm

Das Problem war, dass 3dfx damals abwechselnd die einzelnen Zeilen berechnet hat. Die Vorteile sind, dass es eine Effizienz von gut 100%, absolut skaliert (solange es mehr Zeilen als GPUs gibt) und keine Nachteile hat. Bis auf die Tatsache dass mit dem Ansatz bei DX6 Schluß ist, da er schon mit T&L nicht mehr funktioniert.

Korrigiere mich, wenn ich falsch liege, aber die Voodoo 6 sollte ein Einzelchip ohne SLI werden, damit T&L möglich wird.

Am Ende hat das fehlende T&L 3dfx mit versenkt (das hatte viele Väter).
 
Solange ich nicht solche Aussagen von Raff, Dave oder anderen Personen, denen ich vertraue, dass diese das auch aus erster Hand gehört haben, glaube ich irgendwelchen Twitter Typen gar nichts.
Schon gar nicht bei solch waghalsigen Aussagen.

RDNA 4 wird möglicherweise auch Grundlage für die nächsten Konsolen sein.

Wer spielt denn noch am PC? Und braucht schnelle Grafik.:klatsch:

Du bist hier nicht im Gamepro.de Forum.
 
Abwarten was kommt, ich finde dass AMD ein großen Schritt nach vorne gemacht haben auch mit dem Zen Technologie,jetzt den Kopf darüber zu machen was für eine Marke und welche Karten von AMD kommen wird ist ungewiss, HBM3 speicher
ist zwar eine tolle Entwicklung auch sehr teuer es muss sehr viel investiert werden um so eine Technik auf dem Markt zu bringen.Auch andere Chips wie zb Asmedia sind auch sehr teuer, ich will nicht wissen was die in der Produktion und Entwicklung und die Zeit gekostet haben.
Ich betreibe ein Ryzen 9 5950x und muss schon sagen dass ich sehr zu frieden bin mit der Leistung von dem CPU und brauche momentan nichts neues.Ich werde mir eine neue 7900xtx zu legen wenn der Preis was gefallen ist, bin zwar ein freund von Nvidia aber ich kann mir so eine Karte wie zb eine 4090 kaum leisten,die über 2200€ kostet.Ich kann mir Gut vorstellen dass AMD was großes Plant für den Grafikarten Markt um weiter an die Spitze an Nvidia dran zu bleiben. Die sollten mal die Probleme von Adrenalin Treiber beheben so selber ist es nicht schlecht viele Einstell möglichkeiten.Ich wünsche trotzdem AMD viel Glück dass die was neues auf dem Markt bringen.
 
Natürlich kann Nvidia etwas für seine Preiserhöhungen. Niemand hat sie dazu gezwungen.

Deine Argumentation ist so, wie "was kann denn der Dieb dafür, wenn es der Eigentümer so schlecht gesichert hat?".

Naja, der Kontext dieser Aussage war ja XD-Users Aussage, dass eine Abwesenheit AMDs im High End-Bereich viele Nvidia-Jünger freuen würde, und das ist nun mal völliger Blödsinn. Auch dem größten Fanboy - egal ob AMD oder Nvidia - ist klar, dass er von einer funktionierenden Konkurrenz auf mehrerlei Weisen profitiert. Jemand, der anderen unterstellt, sie wären für Monopole, hat sich für jede ernsthafte Diskussion disqualifiziert.

Außerdem weiß ich beim besten Willen nicht, wo du die Behauptung herausgelesen haben willst, dass Nvidia nichts für seine Preiserhöhungen kann.

Tatsache ist doch, dass AMD Nvidia für die Preise dankbar sein muss, die sie aufrufen, weil sie AMD dazu in die Lage versetzen, entweder für gleiche Leistung ähnliche Preise zu verlangen und damit die eigene Gewinnspanne zu erhöhen, oder aber durch spürbar niedrigere Preise Marktanteile zu erobern. Leider haben sie von diesen beiden Möglichkeiten die gewählt, von denen weder der Käufer noch die Konkurrenzsituation übermäßig profitiert.

Wenn Nvidias Karten tatsächlich so unfassbar überteuert wären, dann müsste sich die Konkurrenz doch über diese Einladung freuen, Vergleichbares zu niedrigeren Preisen auf den Markt zu bringen und damit immer noch Gewinn zu machen. Ich kann derzeit nicht erkennen, dass ihr das gelingt.
 
Natürlich kann Nvidia etwas für seine Preiserhöhungen. Niemand hat sie dazu gezwungen.

Deine Argumentation ist so, wie "was kann denn der Dieb dafür, wenn es der Eigentümer so schlecht gesichert hat?".
Das ist nicht dein Ernst? :ugly:
Du vergleichst Diebstahl ernsthaft mit einer Preiserhöhung aufgrund von teurer Herstellungskosten und mangelender Konkurrenz?
Sorry, aber das ist sowas von Äpfel und Birnen.

Der Thread dreht sich um RDNA4 und zwei Kommentare (einer davon mit den meisten Reaktionen) auf der ersten Seite drehen sich schon wieder um mimimi bezüglich Nvidia. Nennt man auch Whataboutism oder Offtopic.
 
Sie generieren aber wesentlich mehr Geld damit, wenn sie die Karten mit mehreren Chiplets nicht auf den Gamer Markt verkaufen und werden Alles los. Der Bedarf ist so groß das NV schon jetzt die Produktion der Highend Chips für den Gamer-Markt zurückfährt oder sogar einstellt damit sie mehr Kapazität für den KI Markt haben. Der Konsumer Markt interessiert nicht mehr. Ob da jetzt viele Mittelklasse Karten verkauft werden ist auch egal was auf dem Konsumer Markt nicht benötigt wird, wird für den KI Markt eingerichtet.

AMD hat nicht umsonst auf jeder Fahne stehen wir können auch KI. NV fährt auf dem KI Markt Rekordumsätze ein und kann die Nachfrage nicht bedienen. Die Blauen schielen bestimmt auch schon in die Richtung.
Da ist Goldgräberstimmung bei den Herstellern.
AMD hat aber in diesem Bereich ein Problem was Nvidia nicht hat!

Und das ist, das AMD in der Industrie nicht der Branchenprimus ist, viele Anwendungen haben außerdem noch Probleme überhaupt zu funktionieren. Gerade wenn von Anwendungen Cuda etc benötigt wird. Klar hat AMD deutlich Interesse daran hier mitzumischen aber sie sind nicht Nvidia. Ich würde es für AMD grob Fahrlässig halten wenn sie jetzt sagen "Ach ja unser Hauptsparte bei Desktop GPUs vernachlässigen wir jetzt mal komplett und steigen nur in die KI Sparte ein."

Sie werden in der Sparte etwas machen, aber es bleibt abzuwarten wie gut sie da überhaupt mithalten können!
Erst jetzt gibt es ja mit ROCm überhaupt Möglichkeiten CUDA ähnliche Berechnungen durchzuführen. Die Anwendungen selbst sind darauf aber noch gar nicht wirklich ausgelegt. Heißt technisch geht es jetzt - in der Praxis findet die Anwendung aber noch nicht statt... und die Industrie käuft weiter fleißig Nvidia GPUs...:lol:

Ja du hast Recht der Konsumer Markt wird darunter leiden, aber wird trotzdem nicht dafür sorgen das mindestens eine 8900er kommt. Gerade wenn sie dafür ca. 1000€ pro Stück bekommen und locker 50% Gewinnmarge an einer Karte haben.
 
Sehe da kein Desaster. Wenn man die Resourcen für High-End spart und das in der Einsteigs- und Mittelklasse einsetzt, dann ist das gut für die Kunden und AMD.
Ist doch nur der Anfang vom Ende nach und nach. Welchen Anreiz soll Nvidia verspüren gute Karten zu bauen, wenn keine Konkurrenz.

Technisch gesehen, wird die Entwicklung dadurch langsamer.

Meiner Meinung nach wäre dann besser nur high end zu beliefern und Oberklasse.

Die Mittelklasse Käufer können ja im Abverkauf die letzte Generation kaufen.
Für technische Fortschritte wäre das besser.


Wenn ich von AMD die Zusage bekäme , das man high end weiter beliefert wenn ich nur AMD kaufe, dann würde ich das sofort machen.
 
Zurück