kokolores
Nach Forspoken scheint ja auch Hogwarts Legacy ein VRAM Fresser zu sein.
Kein gutes Zeichen für NVidia Karten unterhalb von 1000€.
Tja, auf der einen Seite doof heutzutage auf der anderen Seite vielleicht ja eine Möglichkeit auch nach oben noch Luft zu haben, sollte sich das Spiel noch länger halten.
ich versteh deine aussage nicht
Naja, ich sag mal, früher haben es viele als großartig wahrgenommen, wenn ein Spiel auf aktueller guter Hardware noch nicht in höchster Qualitätseinstellung gespielt werden kann. Damals hatten Spiele aber auch eine noch längere Halbwertszeit würde ich sagen.
Die Spiele liefen da auch schon gut, nur man konnte halt nicht zwingend auf Ultra spielen, obwohl Sehr hoch zum Beispiel schon komplett ausreichte.
Nutzt Hogwarts Legacy auf dem PC denn auch DirectStorage?
Es ist ja nicht so, dass es technisch noch nicht möglich wäre. AMD verbaut ja deutlich mehr VRAM als Nvidia. Nvidia hat einfach immer behauptet mehr als 8 GB braucht eigentlich kein Mensch.
Auf jeden Fall, ich kann mich noch daran erinnern, dass man die 1060 damals auch mit nur 3 GB angeboten hatte. Aber es kommt auch sehr auf die Anbindung des Speichers und dessen Generation an. Aber Nvidia hat dann schon seinen Grund, dass man nun eher 12 GB verbaut.
Am Anfang hab ich noch über die 16GB VRAM meiner 6900XT gelacht. Im Nachhinein war das wohl doch nicht soo dumm.
Seltsam ist das irgendwie schon. Die games sehen zwar gut aus, aber jetzt irgendwie auch nicht so gut, oder so viel anders, dass es für mich als Laie erklärt, warum das so ist.
Gut, bei forspoken war das ja jetzt angeblich wegen DirectStorage. Aber benutzt das Hogwarts Legacy auch?
Ich würde einfach mal auf die Faulheit oder Zeitprobleme bei den Entwicklern tippen. Das ist doch auch einfach eine Optimierungsgeschichte.
Allein wenn Texturen von HD auf 4K wechseln erhöht sich der Speicherbedarf um Faktor 4. Der visuelle Unterschied ist aber deutlich geringer als früher im Vergleich zu HD Texturen. Ist genauso wie bei bei Auflösung. Man braucht immer mehr Rechenleistung für immer geringere subjektive Zuwächse in der Qualität. Daher darf man so krasse grafische Sprünge wie in der Vergangenheit nicht mehr erwarten. Die Verbesserungen finden eher im kleinen statt. Raytracing ist ja auch noch nicht aus den Kinderschuhen raus und viele andere Techniken auch nicht.
Ist sicherlich aber nicht der einzige Faktor. Optimierung spielt auch eine wichtige Rolle. Damit kann man zwar viel raus holen, aber das kostet auch extrem viel Zeit und wenn Speicherplatz (egal ob SSD, RAM oder eben VRAM) immer billiger wird, spart man sich da lieber die Arbeit und nutzt das was da ist. Verfügbarkeit schafft Begehrlichkeiten.
Denke das geht so ein bisschen richtung Uncanny Valley
Wenn alles ok, oder sehr gut aussieht, sieht alles ok aus und man ist zufrieden.
Sobald aber einzelne Dinge rausstechen, zb Dinge wo es rein um Leistung geht wie Raytracing, fallen die dinge die nicht auf dem gleichen Niveau sind noch viel mehr auf.
Umso mehr man auf hyperrealität und co geht umso mehr fällt es dann zb auf wenn die Frisur weiter in Stein gebacken ist bewegungstechnisch oder der Mantel des Charakters eben nicht physisch im Spiel ist und eben durch dinge durchglitscht (Witcher Mantel) etc
Ich hab übrigens rausgefunden, dass das ab und an vorkommende Bildflackern nicht direkt am Monitor liegt, sondern an FreeSync und der FreeSync Range. Bei bestimmten, niedrigen, FPS kommt dann das HDR Handling durcheinander… dadurch wechselt der Helligkeitswert dann dauernd und deswegen das Flackern. Deaktiviert man G-Sync Kompatibel nämlich, oder macht HDR am Monitor aus, so hat man das Problem nicht. Immer wieder schön. Also mit einem Tool die Freesync Range angepasst, in der Hoffnung, dass der Monitor das mitmacht (30-165, statt 45-165) und schon ist das Problem verschwunden.
Welches Tool nutzt du da?
Anleitung dazu hab ich hier gefunden:
Ah es geht um nvidia Karten und Freesync Monitore. Okay, ich hab nämlich auch Flackern bei niedrigen FPS mit meiner AMD Karte. Vielleicht bringt es ja trotzdem was.
Jo einen Versuch isses auf jeden Wert. So wie ich das gelesen habe, scheint das häufig bei FreeSync aufzutreten
Ich versteh nicht so richtig, warum das überhaupt auftritt. Ist ja eig ein ziemlicher Design Flaw, wenn bei niedrigen FPS plötzlich alles flackert.
Absolut. Ist wirklich ein sehr großer, der mir bisher noch in keinem Review berichtet wurde.
Hi zusammen,
würde gerne meine RTX 3090 undervolten und hab mir auch schon dieses Video angesehen:
MSI Afterburner und RivaTunerStatistics laufen schon und Shadow of the Tomb Raider hab ich auch installiert für den Benchmark.
Bin mir jetzt nur unsicher ob ich das so 1:1 aus dem Video übernehmen kann. In dem Benchmark ohne jegliche Anpassungen läuft die GPU bei ca. 1830 MHz (leicht schwankend). Das sollte ja die Basis sein von der ich weg arbeite? Dann die komplette Kurve etwas runter setzen und dann etwa bei 900mV die Kurve anpassen und bei 1830MHz ansetzen? Dann vielleicht 890mV das Ganze erneut anpassen und den Benchmark laufen lassen?
Bin mir da recht unsicher.
Hat jemand vielleicht noch ein Tutorial für Dummies?