hab auch nie was anderes behauptet
desto höher die auflüsung wird , umso uniteresanter wird die kantenglättung
Trollmanns wollt ja nur wissen wo der unterschied her kommt.
hab auch nie was anderes behauptet
desto höher die auflüsung wird , umso uniteresanter wird die kantenglättung
Trollmanns wollt ja nur wissen wo der unterschied her kommt.
Naja aber vergleicht man das mit den anderen Karten in der Liste dann hast du folgendes Szenario:
Gamestar kommt mit der 3080 bei Anno auf 79fps. PCGH kommt nur auf 53.
Im Vergleich zur 1080 ti schafft die bei Gamestar nur 46fps dafür bei PCGH 60fps /o:
Irgendwas wird da doch verzerrt.
hää ?
das ist halt an sich garnicht möglich
ja da müste man jetzt mal genmau nachforschen woran das liegt …
Aber genau wegen sowas ist es immer gut mehrere benchmarks anzugucken
8xMSAA ist schon übertrieben, aber halt ganz gut wenn man sicher gehen will das man keine einzigen Frame nicht GPU limitiert ist, vor allem in Kombination mit 4k.
Bei den meisten „guten“ Tests geht es auch nicht um die Rohen Zahlen der FPS, sondern um das scaling also wie groß ist der Prozentuale Unterschied zwischen den GPUs.
FPS zwischen Unterschiedlichen Testern sollte man eh nie vergleichen, es gibt hunderte Gründe warum es da Unterschiede geben kann. Ein ganz banaler z.B.: Die beiden Tester testen an verschiedenen Stellen im Spiel.
stimmt shcon aber warum liefert KArte A bei tester 1 mehr FPS als bei tester 2 und Karte B liefert bei tester 2 mehr FPS als bei tester 1.
Die logik dahinter erschliesst sich mir nicht.
Je nach dem wie die grafik eingestellt ist müste es doch dabei bleiben , das die karten bei einem der tester mehr FPS schaffen.
das ist es was mich wundert … wenn ich halt mit der 3080 mehr fps hab weil keine kanten glättung dann muss ich doch auch mit der 1080ti mehr fps haben ( als der andere tester )
Ich schätze irgendeiner von beiden wird alte Resultate genommen haben, ist sich aber nicht mehr sicher gewesen auf welchen Einstellungen das
damals lief.
Unterschiedliche Architekturen halt und komplett Unterschiedliches Speicher System (BUS, Anzahl, Typ). So Settings wie 8xMSAA können ganz schön brutal auf sehr spezifische Teile einer Grafikkarte sein.
Oder halt einfach falsche Daten, kann bei Day 1 Reviews wo alle viel Stress haben und der Masse an Daten die einige Tester erstellen auch mal passieren.
Tom Hardware schreibt in seinem heutigen Test zur 3080 dazu, dass 10GB noch Jahre reichen werden. 10GB kann jetzt schon Texturen in 4K rendern.
Es würde vielleicht sein, dass man in 2 Jahren dann bei Spielen statt Ultra nur noch Maximum bei Texturauflösung auswählen kann, um keine Probleme mit dem VRAM zu haben, aber die Grafik/Texturen dann in 4K immernoch überwältigend genug ausschauen werden.
Ich denke auch so in die Richtung. Das Einzige was mich eben stutzig macht, ist, warum Nvidia dann überhaupt direkt 24GB in die 3090 gepackt haben. Weil die Karte ansonsten nicht SO viel schneller als die 3080 ist/gemacht werden konnte und man mit was anderem prahlen will? Weil man für andere Anwendungen als Videospiele 24GB gebrauchen könnte? Oder weil dann doch…?
Die 24GB sind auf der 3090 weil sie ein Titan Ersatz ist, also auch für etwas Professionellere Anwendungen als nur Gaming gedacht ist.
Und zu den 10GB: Die reichen dicke, es geht nicht nur um Masse, Bandbreite ist mindestens genau so wichtig und da trumpft GDDR6X halt richtig auf.
Man darf sich auch nicht verunsichern lassen weil manche Games sich z.B. die vollen 11GB einer 1080Ti gönnen, das heist nicht das sie diese auch brauchen. Manche Engines nehmen sich einfach was da ist.
Wann kommen eigentlich die custom 3080 Karten raus?
Morgen zusammen mit der Founders. Review Embargo von denen fällt natürlich auch dann direkt.
Über die Nacht werden die ersten Tests online gehen.
oh nice, hab richtig Bock mir eine zu gönnen, wollte aber eben auch noch Tests abwarten
Mal ein Interessantes Detail aus dem Whitepaper was Nvidia heute zum GA102 (Der Chip auf 3090 und 3080) veröffentlicht hat:
GA102 kommt auf ~45 Millionen Transistoren pro mm², GA100 (die Tesla Ampere GPU) hat ~65 Millionen Transistoren pro mm².
Der Große Unterschied zwischen den beiden Chips, ist der Fertigungsprozess. Samsung N8 vs TSMC N7. Die Architektur der GPU sollte sehr ähnlich sein also kann man hier wirklich ganz gut auf den Unterschied zwischen den beiden Nodes schließen.
Man sieht also, auch wenn Samsung 8nm im ersten Moment gar nicht so weit weg von TSMC 7nm klingt, ist der Unterschied doch ziemlich groß.
AMDs RDNA1 ist übrigens bei ~ 41MT/mm² auch auf TSMC N7 (Und natürlich ne ganze andere Architektur). RDNA2 bekommt wohl außerdem N7P, also einen Optimierten Node vergleichbar mit was Intel als „+“ bezeichnet.
Das was @Kovsk sagt, soviel VRAM kannst du gut für professionellen Kram wie 3D-Modelling, Videoediting oder halt auch maschinellem Lernen gebrauchen. Gerade bei letzterem ist der VRAM extrem wichtig, da du mit mehr VRAM wesentlich größere Netze trainieren kannst.
ach tesla läuft dann doch über TSMC , das ist wirklich interesant !
Was ist eigentlich der unterschied zwischen Tesla und Quadro ( also ganz einfach erklärt ) ?
Die quadro hat 4 grafikchips drauf oder ?
Die antwort eines arbeitskollegen gestern : der eine fährt elektrisch der andere mit benzin
Nein Quardo ist einfach nur der Markenname hat nix mit 4 GPUs zu tun.
Der Hauptunterschied ist der Markt für den sie sind, Teslas sind für Supercomputer und High End Rechenzentren. Quadros für Workstations.
Edit: Tesla Karten haben z.B. keine Display Outputs was sie für Entnutzer relativ nutzlos macht.
Was mir bei den ganzen Reviewleutchen auffällt: Warum verwenden die alle Balkendiagramme anstatt viel passendere Boxplots? Oder geben zumindest Standardabweichungen an?
weil die meisten user es so unkompliziert wie möglich haben wollen
Aber ein Boxplot ist doch echt nicht kompliziert und zeigt weitaus mehr Daten
mehr daten macht es aber kompliziert !