Ich hab per se auch keine Eile, aber mich juckt’s allein schon aufgrund der Renderzeiten in den Fingern, meine beiden 2070 mit 'ner 3080 auszutauschen
Wenn ich’s richtig im Kopf habe war die 3080 in Blender ja doppelt so schnell wie die 2080
Du hast zu einem gewissen grad recht was komplexere Hardware betrifft, hier wurde aber keine neue CPU architektur samt IMC gelauncht sondern ne vom funktionsumfang begrenztere GPU die durch Nvidias vorgaben nicht umfangreicher von den boardpartnern getestet werden durften.
Nen mich altmodisch aber ich hab nicht besonders lust das das der standard wird, grade bei Hardware wo nicht immer alles nachgepatcht werden kann wie bei Spielen.
Ich hab mal ne Frage: Es heißt ja hier und da mal „die 3080 kann 4K. Alles in Ultra mit oftmals 60fps“ und dann schreiben einige „ja aber 10 GB Vram ist zuwenig auf Dauer für 4k“.
Davon abgesehen, ob die These überhaupt stimmt oder nicht: Wer garantiert uns denn, dass die 3080 in 2 Jahren noch (unabhänig von einem möglichen Vram Flaschenhals) 4K mit 60FPS und Ultra/sehr Hohen Einstellungen kann?
Meine 1060 konnte vor 3 Jahren auch noch alle Spiele in 1080p auf Ultra spielen mit +90fps. Heute geht das nicht mehr mit jedem aktuellen Spiel.
Grafikkarten werden ja nicht nur mehr beansprucht, weil man in höheren Auflösungen spielt, sondern auch weil sie Detail/Polygon/wasweißichnoch-reicher werden. Oder geht dieser steigende Detailreichtum Pi mal Daumen auch proportional auf den Vram Verbrauch?
Also meine naive Vorstellung: Kann es sein, dass, gerade mit den neuen Konsolen, Spiele in 2-3 Jahren so Detailreicher/Grafikintensiver sind, dass man mit einer 3080 nur noch in 1440p mit Ultra und über 60fps spielen kann, und dann die 10GB Vram auf alle Fälle (wieder) vollkommen ausreichend wären?
Was in zwei Jahren ist weiß kein Mensch. Aktuell reicht die Karte aus und der Speicher ist aktuell optimal für 4k. Und so oder so gibt es in zwei Jahren wieder eine neue Karte die verkauft werden will.
Es weiß ja auch keiner wie sich DLSS 2 durchsetzen wird. Wenn das Feature zukünftig auf allen Games ordentlich portiert wird und funktioniert, bräuchtest du in der Theorie ja gar keine 4k nativ Auflösung.
Der Platz, den 60 4K Bilder einnehmen, wird sich grundsätzlich nicht ändern, weil sich die Auflösungsspezifikation nicht ändern wird. Was sich natürlich ändern kann, ist die Anzahl an Models und Texturen, die sie gleichzeitig laden wollen (dem sind allerdings auch sinnvolle Grenzen gesetzt). Das könnte allerdings auch mti RTX IO und dem Microsoft Äquivalent ,von dem ich den Namen vergessen habe, ausgeglichen werden, da du’s dann einfach dynamisch laden kannst.
Oder kurz: Niemand hat eine Glaskugel, keine Ahnung was in 2-3 Jahren sein wird.
Eigentlich muss man ja auch dazu sagen, dass sich die Spieleentwickler der Hardware der Nutzer anpasst. Je besser die Hardware des Durchschnittskunde, desto anspruchsvoller kann die Grafik in einem Spiel werden.
Wodurch ja automatisch mit neuer Hardware die auf den Markt kommt der Anspruch an die Grafikkarte steigt. Und somit es ein Teufelskreis ist.
Ja, dass meinte ich so grob mit „mehr Details“. Aber selbst wenn sie irgendwas mit irgendeiner Technologie ausgleichen könnten, hätten sie ja dann noch mehr Spielraum, um noch mehr Details/Polygone/Figuren/Sichtweite/mit weniger Tricks arbeiten/etc. einzubauen und somit eine 3080 so zu fordern, dass man auf 1440p schalten muss, um mit genügend FPS spielen zu können.
Das es da auch andere Limits gibt, wie z.B. dass die CPU vielleicht irgendwann bei bestimmten „mehr Details“ zum Flaschenhals wird, ist klar.
Ich wollte nur mal eine Gegenthese in den Raum werfen, weshalb sich die Frage, ob 10 GB Vram zum Flaschenhals werden könnte, auch erübrigen könnte.
Ist vor allem eh eine sehr neue Erwartungshaltung, das man erwartet mit aktueller Hardware auch noch in X Jahren auf hohen Einstellungen zu spielen.
War bis die Konsolen die Marktmacht über den PC erreicht hatten, ganz normal, dass wenn man sich eine Graka gekauft hat, die 2 Jahre für „alles auf Ultra“ gereicht hat und dann ging es eben abwärts.