Hardware- Tech Talk (Teil 1)

Wie wenig Google/YouTube da Abfragen und Sicherheitsschritte drinnen hat, für essenzielle Änderungen an einem Kanal, finde ich schon echt erschreckend. Das wäre für eine kleine Hosting Plattform schon nicht gut, aber für die mit Abstand größte der Welt, die dieses Problem schon 2 Jahre mit sich umher trägt? Schändlich.

1 „Gefällt mir“

[quote=„ForboJack, post:9754, topic:31297, full:true“]
Dass Leute mal vorschnell auf was drauf klicken, passiert halt. Das wird man nie zu 100% verhindern können. Das die Person aber nicht wusste, was in so einem Fall zu tun ist, ist schon ärgerlich. Hätte LTT da besser geschult, hätte all das verhindert werden können. Naja aus Fehlern wird man schlau :sweat_smile:[/quote]

Naja so funktioniert hat Phishing, glaub für ne Tech-Firma musst dir eh schon erheblich mehr Mühe geben, wenn du da bei „Maschinenbau Meier“ mal loslegst, dann sind die schneller zu als dir lieb ist.

Weiß ich nicht, aber damit sperrst du dich ja dann auch selbst aus. Sobald sie deine Browsersession haben, deaktivieren sie deine MFA-Methoden und aktivieren ihre eigenen. Und dann ist erst mal Feierabend.

Google sollte halt a) standardmäßig ihre Advanced Security einschalten und b) weniger Möglichkeiten zur Änderung von 100 Dingen in 20 Minuten machen. Mal sehen, ob da was kommt.

Kommt ja schon seit 2 Jahren nicht und Linus ist nicht der erste große Kanal, den es mal getroffen hat in der Zeit. Ich hoffe es passiert was, aber ich rechne nicht damit.

was ja immer noch besser wäre als so.

Quasi einfach eine Telefonnummer plus Einweg code (der nie digital versendet wird sondern per UPS einschreiben oder sowas) , mit dem Kanäle über 1 Million eben den notaus drücken können

Wie gesagt, oder einfach Hardware Dongle verlangen und fertig. Yubikey kostet wenig Geld und ab da ist Phishing durch, solang nicht jemand auf „ja, ich möchte meinen Account von Fremden übernehmen lassen“ drückt.

1 „Gefällt mir“

Lange her, dass mein Mund offen stehen blieb, bei bestimmten Features eines Notebooks.
Framework fand ich vorher schon toll, aber das hier? Wahnsinn!

1 „Gefällt mir“

Wenn die Verarbeitungsqualität passt, dann könnte die 16" Version echt mein nächster Laptop werden. In dem Video waren ja noch echt große Spalten zwischen den abnehmbaren Teilen. Auf jeden Fall ist das aber die spannendste Laptop Firma auf dem Markt aktuell.

Macht es bei 15.6 Zoll Laptop Bildschirmen schon einen grossen Unterschied ob man eine 1080p oder 1440p Auflösung hat? Oder sieht man den Unterschied erst bei grösseren Displays?

Zum Geniesen von Filmen Serien Rbtv sollte man lieber bei Laptops auf hohe Auflösung Farbwiedergabe oder welche Display Eigenschaft achten ?

OLED Bildschirm für schöne Farben und echtes schwarz sind etwas, wo man nicht mehr ohne kann, wenn man es mal gesehen hat.
Besonders bei Filmen und Serien macht es einen mächtigen Unterschied.
Die Auflösung wird da nur minimal etwas ändern. Besonders weil zb 1440p nie wirklich unterstützt wird bei streaming Diensten und RBTV eh nur 1080p streamed.

1 „Gefällt mir“

Nvidia hat ein VRAM Problem.

Mich würde hier mal WIRKLICH interessieren welche (Performance-)Probleme da genau wirklich (!!!) auf VRAM-Mangel zurückzuführen sind und welche Probleme da wegen schlampiger Programmierung auftreten. Einige Beispiele aus dem Video waren in den letzten Wochen / Monaten ja nicht gerade bekannt dafür ein technisches Meisterwerk gewesen zu sein.

Ich finde da ist Cyberpunk ein gutes Beispiel, das Game sieht grandios aus und in 4k mit DLSS läuft das selbst mit einer 3080 sehr gut. Games wie Forspoken sehen nicht besser aus, fressen aber wesentlich mehr Speicher aber bei Gen es visuell nicht auf den Bildschirm.

Aber man könnte natürlich einfach mehr Speicher auf die Karten machen und dann haben es die Entwickler einfacher :beanthinking:

Jaein. Also ja, und nein.

Ich kam ‚‚damals‘‘ günstiger als UVP selbst an eine 3080 - die hat bis zur 4090 jetzt auch gute Dienste geleistet. (Und tut es noch immer im Rechner meine Frau :wink: )

Selbst damals aber haben viele Leute der 3080 schon zu wenig VRAM angelastet, und ja… 10GB waren nicht unbedingt zeitgemäß. Der Todesstoß, wegen zu wenig VRAM, wird sicherlich auch irgendwann kommen, aber lange nicht so schnell, wie es vor drei (?) Jahren schon prognostiziert wurde.

Desweiteren gibt es Titel, die einfach mal per Config bis zu 80% VRAM belegen - egal, ob man 8GB oder 24GB VRAM hat. Wenn jetzt bei 24GB VRAM allerdings vom Spiel direkt mal 20GB belegt werden, heißt das noch lange nicht, dass diese auch benötigt (!) werden.

Es geht ja darum, dass 16GB VRAM der neue Standard wird und 8GB einfach nicht mehr ausreichen für eine Mid bis High-End Karte. PS5 und XBX haben ja auch beide 16GB und Devs beschweren sich wohl schon länger darüber, wie viel extra Arbeit es ist, ihre Games zusätzlich für 8GB zu optimieren. Die Games, die das gut machen, sind vor allem Cross-Gen Games, die auch noch für die PS4 oder ältere Xbox Konsolen raus kommen. Viele Entwickler werden sich in Zukunft aber diese Mühe nicht mehr machen und dann haben GPUs mit weniger als 16GB ein echtes Problem. TLoU und HPL sind ja beiden Current Gen games (nicht umsonst wurde die Last gen Version von HPL verschoben).
Das ganze ist Vergleichbar mit dem Sprung auf 4GB VRAM vor 8 Jahren. Damals hatte die GTX970 zum Beispiel auch massig Probleme, weil ihre 4GB eigentlich nur 3,5GB waren (mit 0,5GB langsamerem VRAM drangeklatscht). Die Karte und alle die noch weniger hatten, waren sehr schnell out of date. Das ganze könnte in den nächsten 1-2 Jahren auch mit Karten passieren, die unter 16GB haben.

Haben XBOX und PS5 nicht ‚‚nur‘‘ shared 16GB-(V-)RAM? Also RAM und Videospeicher?

Ja, aber die Entwicklung für ne Konsole ist auch etwas anders, weil das weniger Multi-Purpose Geräte sind und Games gezielt auf 2 genau definierte Plattformen optimiert werden können. PCs brauchen idR ja immer mehr Leistung für die gleiche Performance als Konsolen.

Ich merk das an meiner Grafikkarte aktuell bereits sehr. Immer mehr Games brauchen 12-14 GB VRAM und das wird sicherlich nicht weniger. Klar kann man die Einstellungen auf Mittel oder niedrig setzen, aber dann willst du auch keine 500€ für ne GPU ausgeben. Vor allem weil die 3070 ja auch als RTX Karte beworben wird und vor allem in dem Bereich schneidet sie bei moderneren Games besonders schlecht ab, weil der VRAM sich als Flaschenhals herausstellt. Auch DLSS schafft da keine wirkliche Abhilfe.

Das war ja auch der Inhalt meiner Frage, der mich da interessieren würde.

Wie viele Spiele BRAUCHEN die Mengen ab VRAM WIRKLICH und wie viele geben es nur vor, weil sie den RAM einfach belegen - aus welchen Gründen auch immer.

Die Frage ist halt, wie du „brauchen“ definierst. Alles ist immer ne Frage des Aufwands, den man in Optimierung rein steckt. Optimierung kostet Zeit und damit Geld. Meist gibt es einen Standard auf den sich die meisten Entwickler indirekt einigen (zum Beispiel die aktuelle Konsolengeneration) und das wird als Standard angesehen. Einige Entwickler machen da noch mehr drüber hinaus, weil sie die Zeit und das Geld haben oder weil gewisse Tools es ihnen leichter machen. Aber am Ende wird immer irgendwo gesagt, dass ist zu alt oder das hat zu wenige User, dafür optimieren wir nicht mehr oder nur noch sehr wenig.
Aktuell führt das dazu, dass viele moderne Games auf hohen Details mehr als 8GB VRAM brauchen. Das spricht dafür, dass das in dem Bereich der neue Standard wird. Dann hast du da eine 3070, die viele dieser Games ohne Probleme bei hohe bis ultra Details handeln könnte, wenn sie mehr VRAM hätte. Was schon echt tragisch ist, da VRAM Kosten in den letzten Jahren echt krass gesunken sind.

Ich geb dir da ja auch Recht. Bitte nicht falsch verstehen. Mir ist nVidia in Sachen Speicher in den letzten Jahren auch etwas zu knauserig aufgestellt… Zumindest ab den Mittelklasse-Bereich aufwärts.

Gleichwohl ist die Aussage von Entwicklern genauso auch mit Vorsicht zu genießen, gerade dann, wenn die Produkte eh voller technischer Schwierigkeiten stecken.

Wie gesagt, Entwicklung lässt sich nicht aufhalten - schon klar. Den Leuten aber aus purer Faulheit / Inkompetenz und / oder (Geld-)Gier einfach immer eine 4090 ‚‚empfehlen‘‘ zu wollen, und das mit dem Argument: ‚‚Die hat halt genug VRAM. Deal with it‘‘ halte ich auch für zumindest zweifelhaft.

1 „Gefällt mir“

Das halte ich auch für den komplett falschen Weg. Wie gesagt, die 3070 ist ja ne gute GPU, sie wird nur stark behindert wird von ihrem geringen VRAM. Käufer sollten also eher verlangen, dass NVidia eine Version mit 16GB VRAM raus bringt und keine neuen Karten in Preisbereich mit weniger.
Wer aktuell also eine Mittelklasse GPU kauft, sollte keine mit weniger als 12 oder eher 16GB VRAM nehmen.

1 „Gefällt mir“