Evtl. liegt die Empfehlung ja mit unter auch am Preis.Sieh Dir doch die Kaufberatungen an...In FHD wird immer noch eine beschnittene RX 6600/XT vor der RTX 3060 empfohlen. Da jucken die 8GB nicht...bei Nvidia sind 8GB der Tod.
Ja und genau das ist selten dämlich, vor allen zu solchen Kursen die bei Grafikkarten seit ~4 Jahren anliegenDämlich ist der falsche Ausdruck. Die allermeisten Kunden sind nun mal uninformiert, weil es sie schlicht nicht interessiert. Wir hier in solchen Foren schütteln über diese Art und Weise den Kopf, aber der Großteil der Kunden beliest sich halt nicht, sondern schluckt einfach so alles.
Die RTX 2060 12 GiB gab es erst sehr spät, auch bedingt durch Mining-Boom und Chip-Knappheit. Die GPU bot durch ihr breiteres Speicherinterface auch mehr Möglichkeiten bei der Anbindung und Menge der Speicherchips. Das wird mit dem AD107 der 4060 schwierig.Nach dem es von NV schon die 2060 und 3060 mit 12 GB und die 2070 sowie die 3070 mit 8 GB gab, könnt ich es mir ebenso bei den 40´ern vorstellen.
Das ist Blödsinn . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.Bei Cyberpunk sehe ich da ehr eine 3090 bzw 7900XTX als minimum für Raytracing in WQHD.
Kommt immer auf die Auflösung an. In 4k mag ich das nämlich zu bezweifeln in WQHD und Full HD sollte es aber gehen.Das ist Blödsinn . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.
Das ist Blödsinn . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.
Das SI aber nicht . Aber 16GB .Eine RTX 4060 Ti "Super" könnte ich mir aber mit 12 GiB vorstellen, die GPU gibt das her.
Ich habe in wqhd gezockt . Allerdings reichen mir bei dem Game auch die 40-50 FPS die dabei rumkamen.Kann ich bestätigen, Grafiksettings leicht angepasst und RT auf Anschlag in FHD kein Thema wenn man mit 60fps zufrieden ist.
Ab WQHD aufwärts wird es denke ich schon eng und muss ggf RT reduzieren.
Jetzt musste ich doch tatsächlich nochmal nachgucken...Wie kommst du da drauf? ^^
PCIe 5.0 Karten gibts noch nicht
Weil Intel ja auch bekannt für seine Kundenfreundlichkeit und fairen Preise istWird Zeit das Intel mit ihrer ARC Reihe auf Augenhöhe der 40XX Generation kommt damit bei Nvidia wieder das rationale Kundenfreundliche Denken einsetzt.
Das ist (mit Verlaub) Unsinn. Selbst Nvidia betitelt die 4070Ti als WQHD-Karte...Eine rtx4070 ist definitiv die 4k Zielgruppe und da sind 8 oder 12 gb definitiv zu wenig
Ich hab ja auch von nativ geredet. Steht da auch das man Upscaler sonst noch zusätzlich benötigt.Das ist Blödsinn . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.
Ja wegen dem VRAM. ob man nun eine 850€ karte als WQHD karte definiert muss man selber wissen.Das ist (mit Verlaub) Unsinn. Selbst Nvidia betitelt die 4070Ti als WQHD-Karte...
Gruß
Was die betiteln mag NV Thema sein. Ich hab eine Rtx3060ti und zocke alles in 5120x1440. Natürlich nicht auf ultra settings aber auf mittleren. Das packt die sehr gut. Eine rtx4070ti ist definitiv obere Mittelklasse, die brauch ich nicht für wqhd. Ein Karte für 900€ mit so wenig Speicher auszuliefern und dies zu rechtfertigen "sie sei nur wqhd" ist eine Frecheit. Ist dann eine rxt4070 dann gerade für fhd geeignet?Das ist (mit Verlaub) Unsinn. Selbst Nvidia betitelt die 4070Ti als WQHD-Karte...
Gruß
Der Preis ist eine Frechheit...ist zwar wahr...ist aber so.Ein Karte für 900€ mit so wenig Speicher auszuliefern und dies zu rechtfertigen "sie sei nur wqhd" ist eine Frecheit
Selten so einen Unsinn gehört. Was Strompreise angeht, sind wir in Deutschland ein Exot, weil unsere korrupten Politiker uns von russischem Gas und anderen fossilen Energieträgern abhängig gemacht haben. Außerdem werden GPUs nicht in Deutschland produziert, sondern in China. Die haben zwar auch gewisse Probleme mit ihrer Bevölkerung, aber sicherlich gehören "hohe Produktionskosten" nicht dazu.Vor 20 Jahren hat Strom auch 1/3-1/4 vom aktuellen Preis gekostet, das ist auch kacke und trotzdem nehme ich es hin. Preise ändern sich halt, in den vergangenen Jahren mal wieder ein wenig schneller als früher. Gegenüber den 90ern ist Computer-Hardware immer noch billig und viele jammern hier einfach gerne auf einem hohen Niveau. Eine Grafikkarte von 500€ auf eine Nutzungszeit von 2 Jahren gerechnet sind keine 25€ im Monat (4 Jahre <11€, 6 Jahre <7€, da bezahlen einige mehr für ihren Handyvertrag mit <5GB (Hallo Telekom). Wenn man nicht bereit ist das zu zahlen sollte man überlegen, ob es das richtige Hobby für jemanden ist und ob man sich nicht lieber eine Konsole zum daddeln holen sollte.
Naja, ganz so einfach ist es dann doch nicht. Nvidia hatte gute Preise bei den 3000ern (bis auf die 3090) und die Scalper und Miner haben die Preise nach oben getrieben. Die 4000er haben jetzt die Auswirkungen von Corona, den verknappten Lieferketten, Preiserhöhungen bei den Zulieferern, der Inflation und nicht zuletzt unserer Mehrwertsteuer inkludiert. Erhöhte Energiepreise kommen in der nächsten Generation noch oben drauf inkl. bis dahin gestiegenen Allgemeinkosten. Mit ein wenig Glück greifen dann die Corona-Auswirkungen nicht mehr so rein, aber Trend ist klar, dass die nächste Generation nochmals (geschätzt) 25+% teurer wird.
Mit 8 GB VRAM kannst du DLSS 3 - oder eher: Frame Generation - vergessen. FG selbst frisst nicht wenig VRAM. Bei nur 8 GB VRAM hat die GPU gar keine Reserven mehr für FG übrig und kann FG effektiv gar nicht nutzen.die Kurzversion wird sein, dass sich Nvidia zu 100% in DLSSS3 reinlehnt, weil das "die fps verdoppelt". Da macht es dann nix, wenn die 4060 ohne DLSS nicht schneller ist wie eine 3060.
Ansonsten dreht man halt an der Preisschraube so hart man kann, während die Chips immer kleiner und billiger werden. Wir kennen die TSMC Preise, wenn wir das fertige Produkt kennen, lässt sich auch ausrechnen wieviel Chips auf einen Wafer passen und welche Stückkosten Nvidia hat. Klar, TSMC hat die Preise verdoppelt, aber wenn der Chip nur 55% so groß ist wie der direkte Vorgänger, dann verdoppelt das eben nicht die Herstellungskosten.
Hä doch einfach die Texture Qualität auf PS3 Niveau senken wozu sonst hat man eine 500€ GPUMit 8 GB VRAM kannst du DLSS 3 - oder eher: Frame Generation - vergessen. FG selbst frisst nicht wenig VRAM. Bei nur 8 GB VRAM hat die GPU gar keine Reserven mehr für FG übrig und kann FG effektiv gar nicht nutzen.