Hardware- Tech Talk (Teil 1)

Das war jetzt eher flapsig gemeint, genau weiß ich es gerade nicht, aber da der Durchschnitt ja eher Laptops in der 500€ Liga kauft, gehe ich davon aus, dass meine Aussage nicht sonderlich weit von der Wahrheit entfernt ist :smiley:

Laut Amazon wäre es ASUS VivoBook L203MA Laptop mit 'nem Intel Celeron Dual Core CPU :upside_down_face:

Müsste man halt erstmal wissen, welchen Laptop die überhaupt meinen

4 „Gefällt mir“

Joa, diese Marketingsprüche sind sowieso eher zum schmunzeln.

40% schneller als der A12 - damit kann man etwas anfangen :slight_smile:

1 „Gefällt mir“

Aber das sagt 1. nichts aus, weil man keine Referenz nennt und 2. kauf ich das denen nicht ab :smiley:

Ja, natürlich reines Marketing Bla bla für die Käuferschicht, die sich nicht mit den technischen Beschaffenheiten beschäftigt.

Deshalb sag ich ja

Erst mit USB 4.0 wird es wirklich spannend. Dann müssen auch die Gehäusehersteller nachziehen. USB 3.1 Typ C hat einfach nur den Vorteil, dass man es beim ersten Mal richtig reinstecken kann. Dafür ändere ich auch nichts am Gehäuse.

1 „Gefällt mir“

Was zugegebenermaßen bereits ein ziemliches QOL Feature ist, wenn man Micro USB kennt :smiley:

1 „Gefällt mir“

Bei Micro USB habe ich mir einfach gemerkt, dass das dünnere mit dem USB Icon nach oben muss. Das ist einfacher als beim normalen USB, das von allen Seiten gleich aussieht. :smiley:

Aber klar ist USB C in der Hinsicht besser, weil man gar nicht gucken muss. USB 4.0 wird aber in einer ganz anderen Liga spielen. Ich sag nur Thunderbolt.

1 „Gefällt mir“

Im Conrad hab ich schon beidseitig belegte micro zu Type-A-Kabel gesehen :jochen:

Ist zwar fragwürdig, weil auch doppelt so teuer wie ein reguläres, doch ich kenne genug, die auch USB in den HDMI-Port ihres Fernsehers rammen würden :wtf:

Übrigens…

In einer halben Stunde beginnt der Spaß.

Okay, Anno 1800 keine 60fps und RDR2 gerade so an die 60fps Marke. Dann wird’s bei Cyberpunk wahrscheinlich auch bissel eng.
Edit: Trotzdem überragend und gekauft.

Ist schon peinlich wie das Video von LTT sich konstant drüber aufregt, dass die 3080 nicht doppelt so schnell ist wie die 2080ti…Da muss man doch nun wirklich nur einmal die Präsentation ordentlich ansehen :roll_eyes:

Die Benchmarks sehen aber ganz gut aus.

Haben die da nicht explizit von der normalen 2080 geredet gehabt?

Edit: Die Renderzeiten für Blender sehen echt geil aus :beangasm:

du gehst nicht auf meinen bezug ein, sondern sagst was, was mich bis dato noch nicht interessiert, das ist mein problem.

kannst ja hier reinschreiben, dass die custom karten besser werden als die standardkarten, aber antworte das nicht mir bezugslos.

in der Präse stand „Twice the performance as 2080“
aber auch das erreicht sie nicht annähernd.
Interessant ist, dass die 3080 scheinbar komplett auf Anschlag geprügelt wurde.
Auf 270 Watt Leistungsaufnahme runtergetaktet verliert man keine 5%
Bedeutet auch dass die Boardpartner es schwierig haben werden noch OC Potential herauszukitzekn

2 „Gefällt mir“

Linus spricht wie Nvidia auch von der 2080 als vergleichsprodukt, wenn man die 3080 als eine der wenigen konkreten aussagen zur leistung mit der doppelten bewirbt, das aber in so ziemlich allen test nicht eingehalten wird ist das schon unnötig fishy. Mal sehen wo meine vielleicht zukünftige 3070 „faster than 2080 Ti“ landet

1 „Gefällt mir“

In manchen Games nur 30% schneller als ne 1080Ti in 1440p ist dann doch schon etwas schwach muss ich sagen.

In 4k schneidet man deutlich besser ab, aber das benutzt halt auf dem PC Gaming Markt fast niemand :sweat_smile:

Insgesamt ein solider Sprung, der weil Turing halt Mist war ziemlich besser aus sieht als er dann doch wirklich ist. ~50% mehr Leistung (in 1440p) als eine 4 Jahre alte GPU für den selben Preis klingt dann nämlich schon gleich nicht mehr so geil.

Ich bin auf jeden Fall auf Partner Karten gespannt, das Powerlimit der Founders ist doch ganz schon pingelig (Und wohl auch der Grund warum niemand die FE Wasserkühlen will).

1 „Gefällt mir“

Wurde da nicht gesagt, dass da oft die CPU das Bottleneck ist? :thinking:

Keine Ahnung welche Tests du jetzt als Referenz nimmst, aber nein ich spreche nicht über Tests mit CPU Bottlenecks weil diese Wertlos sind.

In der Regel sind es ja auch eher die 50%.

Für DLSS, muss das Spiel das extra Unterstützen, oder kann man das überall rein hauen?

Muss aktiv ins Spiel implementiert sein da DLSS Bewegungsvektoren braucht für seine Rekonstruktion, an die kommt Nvidia nicht ohne das Devs es in die Engine einbauen.

2 „Gefällt mir“