Low-Preis-Enthusiast
Komplett-PC-Aufrüster(in)
Ich sehe diese Entscheidung eher als Beginn einer grundlegenden Trennung:
AI-Beschleuniger vs. Hardwarebeschleuniger
Damals, als das Gestern noch unorakelbares Übermorgen war, begann man, mit besonderer Hardware, die CPU von Rechenoperationen zu entlasten, um Spiele in einem völlig anderen Glanz erstrahlen zu lassen.
Dem Weg folgt AMD nach wie vor.
Sein grüner Gegenpart ist mit DLSS diesen Pfad ein ganzes Stück weit wieder zurückgelaufen,
DLSS - ist nichts anderes, als der Weg zurück über die Nutzung von CPU-Power zur Darstellung von Bildinhalten.
Nichts anders macht die KI, wenn sie "Deep Learning" betreibt.
Wo keine CPU-Kapazität für die KI-Berechnungen übrig ist - bleibt der Nutzen von DLSS, nett ausgedrückt, marginal.
Ich darf erinnern: AMD fertigt auch CPUs.
Die effizientesten und schnellsten, die man derzeit zum Zocken kaufen kann.
Und da sehe ich in DLSS eben die Technologie, die die Paarung günstige und effiziente CPU + brachiale Grafikkarte = Spielspaß bis 4k, obsolet macht.
Künftig (gemeint ist das unorakelbere Übermorgen) brauch man 2 Boliden: Einen Preisboliden aus der KI-Beschleuniger-Schmiede und einen CPU-Boliden, der die KI am Laufen hält.
Ich begrüße daher die Entscheidung von AMD, DLSS nicht zu supporten!
Übrigens: Ja, auch AMD werkelt mit FSR an ähnlichem!
Jedoch ist mein derzeitiger Kenntnisstand, dass FSR rein shaderbasierter Code ist, der verschwindend geringe CPU-Ressourcen beansprucht.
AI-Beschleuniger vs. Hardwarebeschleuniger
Damals, als das Gestern noch unorakelbares Übermorgen war, begann man, mit besonderer Hardware, die CPU von Rechenoperationen zu entlasten, um Spiele in einem völlig anderen Glanz erstrahlen zu lassen.
Dem Weg folgt AMD nach wie vor.
Sein grüner Gegenpart ist mit DLSS diesen Pfad ein ganzes Stück weit wieder zurückgelaufen,
DLSS - ist nichts anderes, als der Weg zurück über die Nutzung von CPU-Power zur Darstellung von Bildinhalten.
Nichts anders macht die KI, wenn sie "Deep Learning" betreibt.
Wo keine CPU-Kapazität für die KI-Berechnungen übrig ist - bleibt der Nutzen von DLSS, nett ausgedrückt, marginal.
Ich darf erinnern: AMD fertigt auch CPUs.
Die effizientesten und schnellsten, die man derzeit zum Zocken kaufen kann.
Und da sehe ich in DLSS eben die Technologie, die die Paarung günstige und effiziente CPU + brachiale Grafikkarte = Spielspaß bis 4k, obsolet macht.
Künftig (gemeint ist das unorakelbere Übermorgen) brauch man 2 Boliden: Einen Preisboliden aus der KI-Beschleuniger-Schmiede und einen CPU-Boliden, der die KI am Laufen hält.
Ich begrüße daher die Entscheidung von AMD, DLSS nicht zu supporten!
Übrigens: Ja, auch AMD werkelt mit FSR an ähnlichem!
Jedoch ist mein derzeitiger Kenntnisstand, dass FSR rein shaderbasierter Code ist, der verschwindend geringe CPU-Ressourcen beansprucht.