Hardware- Tech Talk (Teil 1)

Im Prinzip wird es wahrscheinlich schon reichen, sie zu zerkratzen, wenn sie eh schon offen ist. Die Scheiben hättest du nicht mal ausbauen müssen.

Nimm halt nen Hammer und klopp 'n Paar mal rauf.

Haste Angst, dass das NAVY CSI kommt und mit Hightech die Platte wieder zusammenflickt? :ugly:

3 „Gefällt mir“

Wenn man dann Gästen sagt, dass da im weitesten Sinne Daten von einer Festplatte drauf sind/waren, ist das Staunen groß.

1 „Gefällt mir“

Gute Idee, mache ich jetzt so.

Ja. :aluhut:

1 „Gefällt mir“

wenn ddu sie unbrauchbar machen willst: ab in die mikrowelle^^

2 „Gefällt mir“

Die Mikrowelle oder die Scheiben? Jetzt sind sie Untersetzer.

1 „Gefällt mir“

die scheiben. wenn dus nicht übertreibst passiert da nichts gefährliches (genauso übrigens bei metall)

1 „Gefällt mir“

Von Nvidia kriegen wir Raytracing nach dem keiner verlangt hat und AMD möchte sich mi Radeon als DIE zukünftige Gaming Marke etablieren…

Das schaffen sie nicht solange sie nur mit navi den Midrange bereich abdecken denke ich zumindest.

Radeon 7 wird so hoffe ich nicht die einzigste Highend Grafikkarte gewesen sein. Leider befürchte ich das Navi nur mittelklasse wird.

Einerseits behaupten das Radeon DIE Gaming Marke wird aber von Navi keine infos preisgeben ausser das diese leider nur Midrange grakas werden…

Update zur Freesync:

Nach längerem Testen sind mir in 2 Spielen (rFactor2 und Automobilista) in den Menüs öfter mal kleine „Helligkeitsveränderungen/minimales Aufflackern“ beim Durchnavigieren aufgefallen. Es ist nicht direkt ein schlimmes Flackern, aber eine kurze Veränderung der Helligkeit für einen kleinen Zeitpunkt.

Beim Fahren und der 3D Darstellung selbst ist es aber okay, jedenfalls fällt mir dort nichts auf. In X-Plane 11 ist alles okay gewesen bis jetzt.

In diversen Shootern auch keine Probleme.

Edit: Gerade auch noch mal den Direktvergleich gemacht…das Bild ist bei schnellen Bewegungen einfach sauberer mit Sync, auch, wenn der Monitor mit 300 FPS zugeschissen wird…

Noch mal Edit: In den Menüs besagter Spiele hab ich 700-1600 FPS, vielleicht ist die „angepasste“ Technologie noch etwas überfordert bei diesen Zahlen :thinking: :ugly: Oder er spuckt jibberish aus ohne Limiter…

Erneut Erneut neu Edit: Es ist bei großen Sprüngen in der Bildrate auch bei anderen Spielen ab und zu vorhanden. Gerade mal PES 2012 angeschmissen, dort passiert es auch. Ist das besagte Bildflackern, was auch andere schon mal erwähnt haben in Tests, nicht wirklich störend, aber wenn man drauf achtet, bemerkt man es auch ab und zu mal.
Es beseitigt aber zuverlässig weiterhin Tearing, keine Ahnung, ob es der Monitor, oder die „treiberfremde“ Technologie ist, die das vereinzelnde Flackern verursacht. Es geschieht auf jeden Fall eher, wenn UI, Menüs etc. auf dem Bildschirm vermehrt auftauchen und die Bildrate stark schwankt und eher nicht bei reiner 3D Darstellung an sich (jedenfalls ist es mir dort noch nicht aufgefallen).

So…das sind meine Erfahrungen dazu.

3 „Gefällt mir“

Ist halt marketing, was soll sie sonst sagen? Zur zeit ist AMD nur in der Mittelklasse vorne was P/L angeht und da vielleicht nicht ganz knallrote zahlen zu schreiben also klingts doch recht vernünftigt das weiter auzubauen um auch etwas vergleichbares zu Nvidias Gtx 1660(oder so) zu haben.

@Shurkor_Krimzon
Hat Nvidia etwas ähnliches wie Radeon Chill rausgebracht um die framerate zu begrenzen oder wie läuft das da ab?

Meinst du jetzt, wie ich die FPS limitiere oder worauf beziehst du dich? In meinem Erfahrungsbericht ging es generell nur um das jetzt verfügbare G-Sync für Freesync Monitore. Das Bildrate Begrenzen geht in den Simulationen per spieleigenem FPS Limiter, bleibe aber unlocked, denn es ist so viel besser mit Freesync…(außerdem ist das Input Lag geringer, was das Gehirn beim Fahren einfach “merkt”)

So Leute:

1070 ti Strix gebraucht für 250?

1 „Gefällt mir“

Ich würde gebraucht nicht mehr kaufen bei sowas, aber der Preis ist natürlich verführerisch af.

Eben. Die geht sonst bei 350€ los.

Ich wollte wissen ob es eine neue funktion seitens nvidia gibt oder du MSI afterburner usw. oder die spieleigenen limiter benutzen musst. Ist damit aber auch beantwortet, danke ^^’

PS: als kleine ergänzung, auserhalb der sync range ist das sync deaktiviert <.<

Hab dem Dude jetzt gesagt, dass ich die Strix nehme. Hoffentlich ist damit alles in Ordnung und dem Kerl war nur nicht klar was er da verkauft :joy:

1 „Gefällt mir“

Ich glaube, Nvidia hat selber nur das Power Management, was sich nach der Hz Rate vom Monitor richtet. Aber keine selbst einstellbare Begrenzung an sich.

Ist doch logisch. (Ich hab ja auch nicht immer FPS über der Range)
Das Flackern tritt (auch außerhalb der Range) aber trotzdem nur auf, wenn Freesync aktiv ist.

Vor allem unter 50 FPS tritt das Flackern gerne mal auf, wenn man einen Ladescreen sieht. Das dürfte eigentlich außerhalb der Range liegen, doch es geschieht trotzdem nur, wenn Freeysync per G-Sync aktiv ist.

Bitte nicht wieder eine “das kann doch aber gar nicht sein” Diskussion…

Ich drück dir die Daumen

1 „Gefällt mir“

Das mit dem flackern wird eigendlich niemand anzweifeln, sync ist toll innerhalb der range aber grade bei den übergängen kommt es dadurch zu rucklern oder so.
Deshalb gibt es bei AMD auch Chill um in der range zu bleiben oder LFC und enhanced sync um die auswirkungen beim über oder unterschreiten zu reduzieren, deshalb hatte ich gefragt obs da was ähnliches gibt.

Also Ruckler gibt es keine, wie gesagt. Das Bild ist sogar “smoother”, egal wie es gerade läuft.

Low Framerate Compensation ist doch bei Freesync so oder so vorhanden?
edit: Ah ne, nicht zwingend, okay.^^

Also, was die Bildflüssigkeit angeht, gibts keine Schwierigkeiten, es ist halt wirklich nur das Helligkeitsflackern, was bei Ladescreens oder manchen Menüs auftaucht.