als Frischling im Forum hoffe ich, dass dieser Post sich nicht mit einem bestehenden Thread doppelt. Finden konnte ich dazu nichts.
Aktuell tut sich ja viel auf dem Grafikkartenmarkt, AMD Radeon scheint mit der 6800XT wieder im High-End-Segment angekommen zu sein. Nvidia hat das Hotspot-Problem der 3080er gelöst zu haben und liefert nun nach. (vermutlich weiterhin eher schleppend. )
Auch wenn die offizielle Präsentation der 6800XT erst am 28.Oktober ansteht, würde ich gern wissen, zu welcher Grafikkarte ihr tendiert und warum?
Außerdem besitze ich einen G-Sync-Monitor. Wie ratsam wäre es, sich dennoch für eine Radeon zu entscheiden?
Ich denke die meisten hier werden dir wahrscheinlich sagen, dass man dazu aktuell noch keine Aussage machen kann, da (wie du ja schon selber schreibst) es keine offiziellen Angaben zu ATI’s neuen Grafikkarten gibt
Mir persönlich ist es ehrlich gesagt egal. Generell würde ich am liebsten eine Nvidia Karte nehmen, aber nur weil ich bei der weiß, dass die unter meinem Linux System bis jetzt gut funktioniert haben.
ATI hat seine Treiber zwar offen gelegt, allerdings habe ich gelesen, dass es unter Linux ab und an immer noch Probleme zu geben scheint.
Was deinen Monitor angeht bin ich mir gerade nicht sicher. Nvidia kann mit ATI’s FreeSync mittlerweile arbeiten. Ich weiß aber nicht, ob ATI mit G-Sync arbeiten kann.
TL;DR: Kauf die, die dir am besten gefällt und aktuell wichtig: Welche man überhaupt kriegt ^^
Ich denke auch, deshalb ja die Frage, wozu man tendiert, da ich bei der 6800XT durch bisherige Leaks schon recht hooked und aktuell GPU-los bin. Und preislich hat Nvidia eben mit der 3080 ordentlich was vorgelegt.
Laut aktuellen Benchmarks soll die 6800XT die 3080 ja ausspielen, solange es nicht um Raytracing geht. Da ist es auch wieder die Frage, wie der Mehrwert ist. Ich stehe auf schöne Grafik und brauche keine 140fps. Nur habe ich keine Ahnung, wie sehr Raytracing in spielen wirklich auffällt (yes, I’m looking at you, cyberpunk )
Neuere G-Sync Monitore sollen meines Wissens nach auch von Radeon Karten unterstützt werden, doch fällt meiner noch nicht darunter. Wie weit der Wegfall von G-Sync bei solchen Karten aber zu bemerken ist, weiß ich leider nicht.
ja, das bleibt in der Tat abzuwarten. Auch weil die 20GB Versionen der 3080 ja gecancelt wurden, auf die ja einige gehofft haben.
Da bin ich ehrlich gesagt auch komplett raus. Meine aktuelle Karte ist eine 970 GTX und ich hatte nie einen G-Sync oder FreeSync Monitor ^^ Ich weiß nicht mal genau, was die so bringen oder wie man die einstellt.
Ich bin echt gespannt, ob ATI das besser hinbekommt. Falls ja, wird es wahrscheinlich eine ATI. Falls nein ist die Wahrscheinlichkeit einer NVIDIA bei mir höher. Kann sich aber alles nach den ersten ATI Tests wieder ändern ^^
Ja, das ist bei mir auch der Grund für eine neue Grafikkarte ^^
Ich tendiere zu AMD Big Navi da ich keine chance sehe vor Cyberpunk 2077 eine Nvidia RTX 3080 zu einem normalen Preis zu bekommen, da der Bedarf gerade so krass ist und auch auf absehbarer Zeit keine besserung in sicht ist. Generell hab ich auch bedenken das die 10GB der 3080 für die zukunft also in 3 Jahren oder so nicht reichen könnten.
Einfach abwarten was AMD Vostellt.
ATI gibt es seit Okt.2006 nicht mehr.
Ihr meint wohl den Microchip Hersteller AMD Advanced Micro Devices der ATI 2006 aufgekauft hat und nun Grafikkarten unter der Produktnamen Radeon Herstellt.
ATI Wiki Eintrag
Am 24. Juli 2006 wurde offiziell die Übernahme durch den US-amerikanischen Prozessorhersteller Advanced Micro Devices, Inc. (AMD) angekündigt.[1][2] Diese Übernahme wurde am 25. Oktober 2006 komplett abgeschlossen, so dass die Existenz der Firma „ATI Technologies Inc.“ damit endete. Der Markenname ATI blieb noch einige Jahre für diverse Grafikprodukte bestehen. ATI war ursprünglich eine Abkürzung für „Array Technology Inc.“, wurde aber noch im Gründungsjahr zu „Array Technologies Inc.“ und kurz darauf in „ATI Technologies Inc.“ abgeändert.
Zum 30. August 2010 gab AMD bekannt, zukünftige Produkte nicht mehr unter der Markenbezeichnung ATI vertreiben zu wollen, sondern nur noch unter dem eigenen Kürzel AMD.[3]
Nvidia’s RTX 3000 Generation ist gut aber nicht so gut das man unbedingt eine Grafikkarte von Nvidia haben muss.
Raytraicing - bemerkt man nur im direkten vergleich und ist überschätzt
gefakte schatten haben mir bisher immer gereicht
Beleuchtung ist da schon wichtiger aber was ich bisher gesehen habe kein Grund umbedingt Nvidia zu kaufen.
Dlss 2.0 ist geil aber wird noch nicht annähernd in genügend Spielen angeboten.
Hauptgrund für einen kauf einer neuen Grafikkarte ist für mich eine große steigerung der Rohleistung , das muss gegeben sein. Zur bestätigung werden vergleichs Benchmarks rangezogen.
Aktuell GTX 1080ti mit 11,36 Teraflops
Sehr geil RTX 3080 mit fast 30 Teraflops Wunschdenken von mir BIG NAVI 28 Teraflops (Gerüchteweise liest man 22,5 Teraflops)
Falls ich am Mittwoch von AMD nicht überzeugt werde warte ich einfach weiterhin. Der Preis Könnte wegen den 16gb vram hoch ausfallen mal sehen.
Mit angepasten Settings solte Cyberpunk 2077 auch auf meiner 1080ti irgendwie ansprechend laufen.
Ja, die Limitierung der 10GB hatte mich auch „besorgt“ und war auf die 20GB-Variante gespannt, die aber bestimmt ein ganzes Stück teurer geworden wäre…und bei WQHD wohl auch nicht unbedingt nötig.
Vielen Dank für deine Meinung! Ich kenne Raytracing halt nur von Youtube, wo Gameplay halt immer anders wirkt, als wenn man selbst spielt, allein schon häufig aufgrund der Kompression und FPS… und weil man anders fokussiert. Bin auch sehr gespannt…
Sollte die 6800 XT auch beim Rendern mit Blender ähnlich gut liefern wie die 3800 und ähnlich teuer oder billiger sein, dann würde ich eventuell sogar überlegen, mir doch die zu holen
Darf ich fragen, was genau du arbeitest? Wenn du aus dem 3D-Bereich kommst, sollten die 16GB VRAM der 6800XT (sofern der Preis ähnlich ist) ja schon verlockender sein, oder?
Als Video Editor sind meine Programme meist CPU-lastig, aber einige Tasks gehen dann doch mal auf die GPU…
Heute Abend wissen wir mehr, 17 Uhr startet der Stream:
Und dank CD Project RED haben viele von uns noch etwas mehr Bedenkzeit bis zum 10. Dezember…
BioInfo, aber dafür bräuchte ich Nvidia.
Für 3D geht’s mir eher um die Renderzeiten. Da ist nur als Hobby Betreibe, baue ich auch net so riesige Szenen. Wobei Blender da auch auf den normalen RAM auslagern kann, wenn ich mich nicht vertue
Du kannst auf jeden Fall auch die CPU statt der GPU nutzen. Je nachdem was du nutzt, musst du die Renderoptionen anpassen. Das ist das, was ich noch davon weiß Und das man früher die GPU von AMD nicht nutzen konnte. Da weiß ich aber nicht, ob sich das schon geändert hat.