Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 4070 mobile: War das nötig?
In diesem Beitrag beschwere ich mich erst mal über die Kapriolen der 40-er Serie und dann speziell über die mobile 40"70". Dann drehe ich den Spieß um und erkläre, warum diese mobile GPU trotzdem sinnvoll sein kann.
Mein Gaming-Laptop, gekauft im Mai, hat eine mobile 4070 mit vollem Powerlimit von 140 Watt. Wie Reviewer vor einiger Zeit herausgefunden haben, liegen in Spielen aber kaum mal mehr als 100 Watt an, weil ein Spannungsbegrenzung eingreift. Ab der mobilen 4080 ist das nicht mehr der Fall. Nvidia lässt somit die Laptop-Version der 4080 und 4090 besser aussehen indem 4050 bis 4070 künstlich begrenzt werden. Ganz großes Kino. Nvidia ging so weit, dass eine mit voller Leistung betriebene 4050 eine begrenzten 4060 übertreffen kann. Ohne dass das im GPU-Namen ersichtlich ist. Kundenverwirrung hoch drei!
Die 40-Serie war, auch im Desktop-Bereich, ohnehin enttäuschend: Statt mehr Performance zum gleichen Preis gab es eigentlich nur geringeren Stromverbrauch. Die Marketing-Füchse aus Santa Clara aber priesen dicke Performance-Sprünge an. Realisiert durch Frame-Generation. Dieses Feature wäre okay bei Echtzeit-gerenderten Zwischensequenzen, ist aufgrund der Eingabelatenz bei Interaktionen jedoch Quatsch. Es ist eigentlich ein Benchmark-Betrugsversuch um mit unsinnig erzeugten Frames erhöhte Leistung vorzutäuschen. Ja, die Frames werden angezeigt aber bringen für das Gameplay nichts. Es scheint Grenzfälle zu geben in denen Frame-Generation gerade so akzeptabel ist, aber diese Fälle sind für eher gemächliche Szenen gültig, nicht wenn es aufs genaue Timing ankommt.
Leider kannte Nvidia auch keine Gnade was Speicherausstattung betrifft, selbst eine Desktop-4070 bietet nur 12 GB. Also nur 1 GB mehr als die 2080 Ti Anno 2019 :uclap: Die 4070 war leistungsmäßig kaum noch, wie eigentlich gewohnt, als kleinere 80-er zu sehen, eher als die bessere 60 Ti. In der mobile Version ist es noch krasser, da ist die mobile 4070 nur ein moderates Upgrade zur mobilen 4060 und kommt auch mit viel gutem Willen nicht mal ungefähr in die Nähe der mobilen 4080.
Wobei die mobilen Namen, wie leider üblich, ohnehin falsche Erwartungen wecken, die mobile 4080 basiert auf der Desktop-4070 und die mobile 4090 auf der Desktop-4080. Nvidia hatte hier nicht viele Optionen für eine ordentliche mobile 4070 und nutzte daher die 4060-Ti-GPU. Diese erlaubt nur 8 oder 16 GB RAM. Für die mobile 4070 wären 10 GB RAM schön gewesen aber dann hätte man entweder eine extrem teildeaktivierte Desktop-4070-GPU nehmen müssen, oder einen eigenen Chip nur für diese SKU fertigen, oder die 4060-Ti-GPU generell mit 160-Bit-Interface herstellen müssen wobei die Desktop-Variante nur 128 Bit nutzt. Braucht eine mobile 4070 die 10 GB VRAM? Den Tests zufolge die ich finde, ist die GPU insgesamt ungefähr so schnell wie eine Desktop-4060 ohne Ti. Die hat nicht genug Leistung, Details oder Auflösungen zu berechnen die mehr als 8 GB VRAM benötigen. Damit ist die mobile 4070 mit ihren 8 GB eigentlich gut bedient.
Bei all dem Blödsinn den Nvidia verzapft, in meinen Tests ist die mobile 4070 eine vergleichsweise sparsame GPU die dafür aber gute Leistung bietet. Gerade für die dünneren Gaming-Laptops eine sinnvolle Option. Was absolut nervt ist die schäbige Namensgebung und der absurden angebliche Performance-Gewinn durch Frame-Generation. Die mobile 40"70" ist dennoch eine brauchbare GPU da man selbst bei gesenktem Powertarget, um die Lüftergeräusche in den Griff zu bekommen, fast alles in 1440p bei ordentlicher Framerate zocken kann. Frame-Generation aus, DLSS-Upscaling an, Grafikdetails auf Mittel-bis-Hoch. Finde es erstaunlich, inzwischen Leistung der Desktop-Klasse zu bekommen ohne dass die Laptop-Lüfter zu sehr nerven.
x-force
2024-10-20, 21:27:40
frame generation ist großes kino.
allerdings sollte man schon ohne frame generation gute 50-60 fps haben, dann passt es auch mit dem input lag.
ich vermute, du versuchst mit der 4070 mobile von 30 fps auf 60 fps zu kommen. das gibt leider gummiband.
Ex3cut3r
2024-10-20, 21:29:04
Ja, die Frames werden angezeigt aber bringen für das Gameplay nichts.
Kann ich nicht nachvollziehen, hat hier immer was gebracht um von 60 FPS auf 120/144FPS zu kommen, und damit den 31.5" 4K Bildschirm mit 144HZ besser auszufahren.
Gouvernator
2024-10-21, 05:54:19
Bei der Mobile 4090 habe ich schon an dem Punkt aufgegeben als es klar war, was solche Laptops kosten.
Und jetzt wird es nur noch schlimmer. Wenn neue Einsteiger "AI"-Laptops mit Strix Point 1600€ kosten. Man könnte künftig den Aufpreis für eine Mobile-GPU, stattdessen in eine fette Desktop-eGPU stecken. Muss zwar nicht die 600W GraKa sein, aber für KI vielleicht doch... Die Abzocke für ein Laptop mit einer Mobile 4080 für 2700€, würde eine 900€ Desktop Grafikkarte + StrixPoint Laptop hergeben.
mawel
2024-10-21, 13:15:38
Ich bin seit 5 Jahren mit einem Lenovo Laptop unterwegs (9750h + 1660TI 6GB). Damals hatte Nvidia noch groß darauf hingewiesen bzw. beworben, dass endlich die Desktop GPU´s 1:1 im Notebook landen.....
Ich würde ja gerne mal upgraden, doch wenn ich jetzt wieder mit 4-5 Jahren Nutzung rechne ist der Vram und der Gewinn ggü. der alten Generation viel zu mager - und das wird sich mit der 5000er Gen. auch nicht ändern. Aber mangels Alternativen von Intel/Ati im Mobilemarkt kann sich Nvidia ja ausruhen.
Dass mehr Vram auch bei kleinen Chips Sinn machen könnte sieht man ja auch an den Quadros (RTX A2000 mit 12GB)....
Kommt mir ein wenig vor wie bei Intel, die CPU-mäßig fast 10 Jahre auf der Stelle blieben weil von AMD nichts kam. Und dann hat es Sie plötzlich eingeholt.
Und was soll man mit 1000€+ GPU´s und 2500€ Laptops wenn es eine PS5 für 500€ gibt?
The_Invisible
2024-10-21, 15:26:39
Kommt mir ein wenig vor wie bei Intel, die CPU-mäßig fast 10 Jahre auf der Stelle blieben weil von AMD nichts kam. Und dann hat es Sie plötzlich eingeholt.
Ist nicht vergleichbar, NV gibt leistungs- und featuremäßig noch immer den Ton an. Auf (V)RAM schaut der 08/15 User weniger als man denkt, deswegen kann auch Apple seine 8GB MacBook Pro Krüppel um >2k verkaufen... und in Asien erfreut sich die 4060 großer Beliebtheit
Relex
2024-10-21, 15:57:36
Ich finde Frame Gen klasse, selbst wenn es das Spiel nicht responsiver macht.
Ich hatte bei 60-90 FPS früher immer das Problem, dass nach 1-2 Stunden spielen meine Sehkraft etwas nachgelassen hat und meine Augen überanstrengten. Mag vielleicht auch der Tatsache geschuldet sein, dass ich keine perfekte Sehkraft habe, aber letztendlich habe ich eben ein Problem damit.
Bei Elden Ring mit 60 FPS lock muss ich z.B. schon nach ner Stunde Pause machen, weil ich dann nur noch unscharf sehe. Also nicht krass unscharf, aber genug, dass es mir auffällt.
Wenn ich mit FG aber die FPS auf 120 oder sogar 150 FPS pushen kann, dann hab ich das Problem nicht. Dann kann ich auch mal 4-6 Stunden am Stück spielen und habe absolut keine Probleme mit den Augen und der Schärfe mehr. OLED und 4K haben das aber auch nochmal etwas verbessert.
Latenzen? Drauf gesch***. Gut, nicht ganz. Sowas wie Vsync Lag kann ich auch nicht leiden und das spüre ich auch extrem deutlich. Aber davon sind wir mit FG meilenweit entfernt.
Im Endeffekt ist die latenz mit FG schlimmstenfalls so hoch wie sie bei deaktiviertem Reflex wäre.
Häufig ist es aber sogar so, dass die Latenzen mit FG + Reflex besser sind als mit Reflex off und nur mit Reflex ohne FG nochmal besser sind.
Und angesichts dessen was ich gerade erklärt habe ist Reflex + FG da mit Abstand der beste Kompromiss den man aus meiner Sicht machen kann. Meist bessere Latenzen als ohne Reflex + deutlich mehr FPS, was einem die Augen danken. Win Win.
Für jegliche Art von Singleplayer Games war für mich das aktivieren von FG jedenfalls bisher immer eine Verbesserung. Egal ob ich es bei 40 oder bei 100 FPS zuschalte.
Einzig für Multiplayer Games wo die latenz an der Maus allerhöchste Prio hat, würde ich es deaktivieren und zur Not dann eben andere Settings reduzieren um auf die gewünschte Framerate zu kommen.
Was das Thema Laptops angeht... Geschmackssache. Von Laptops war ich persönlich noch nie ein Freund, eben gerade wegen der ganzen Leistungslimitierungen und unterdimensionierten Kühllösungen. Da würde mich ein Steam Deck schon mehr ansprechen, wenn ich unterwegs oder auf Reisen was zocken will. Alternativ halt einen dieser Ultra kompakten Desktop PCs bauen und z.B. aufs Hotel mitschleppen. :D Dann weiß man wenigstens was man hat.
Ich finde Frame Gen klasse, selbst wenn es das Spiel nicht responsiver macht.
[...]
Und angesichts dessen was ich gerade erklärt habe ist Reflex + FG da mit Abstand der beste Kompromiss den man aus meiner Sicht machen kann. Meist bessere Latenzen als ohne Reflex + deutlich mehr FPS, was einem die Augen danken. Win Win.
Für jegliche Art von Singleplayer Games war für mich das aktivieren von FG jedenfalls bisher immer eine Verbesserung. Egal ob ich es bei 40 oder bei 100 FPS zuschalte.
Einzig für Multiplayer Games wo die latenz an der Maus allerhöchste Prio hat, würde ich es deaktivieren und zur Not dann eben andere Settings reduzieren um auf die gewünschte Framerate zu kommen.
Was das Thema Laptops angeht... Geschmackssache. Von Laptops war ich persönlich noch nie ein Freund, eben gerade wegen der ganzen Leistungslimitierungen und unterdimensionierten Kühllösungen. Da würde mich ein Steam Deck schon mehr ansprechen, wenn ich unterwegs oder auf Reisen was zocken will. Alternativ halt einen dieser Ultra kompakten Desktop PCs bauen und z.B. aufs Hotel mitschleppen. :D Dann weiß man wenigstens was man hat.
Bei Gaming-Laptops, inzwischen scheint es Laptop zu geben welche die Leistung eines Budget-Gaming-PCs bieten und dabei zwar lautere Lüftergeräusche haben als der entsprechende Budget-Desktop, aber bei Geräuschemissionen die noch erträglich sind. Bei einer noch portablen Laptop-Größe, also 15" und nicht allzu dick.
Immer wenn ich FG mal aktiviert hatte, war ich sofort angewidert von der Latenz. Für mich scheint die Reaktionsgeschwindigkeit auf meine Steuerung ziemlich wichtig zu sein. Ja, langsame (also, Single-Player) Games laufen mit FG buttriger, aber nicht unbedingt flüssiger in meiner Wahrnehmung. Nvidia Reflex scheint eigentlich nur den Prerender-Buffer zu senken. Hatte ich früher auch schon im Detonator eingestellt. Ich sehe in FG keinen Performance-Gewinn, nur Interpolation für die man eine gewisse Toleranz braucht. Wenn jemand das Feature gut findet, gibt es von mir natürlich Daumen hoch! Was ich erlebe kann ja ganz anders sein als was zu empfindest, oder ein anderer Nerd.
Ist nicht vergleichbar, NV gibt leistungs- und featuremäßig noch immer den Ton an. Auf (V)RAM schaut der 08/15 User weniger als man denkt, deswegen kann auch Apple seine 8GB MacBook Pro Krüppel um >2k verkaufen... und in Asien erfreut sich die 4060 großer Beliebtheit
Hrr hrr. Ich halte die 8-GB-Macbook-Angebote für einen Scam weil dort über den zu stark begrenzten RAM ein geplantes Ableben eingebaut ist. Aktuell gehen die noch gerade so aber wenn man mehr machen will, also ich bin jetzt gerade an meinem M2 15" Macbook Air, das Ding war mir 16 GB RAM richtig teuer aber in Lightroom ist die GPU-Beschleunigung so RAM-intensiv, dass ich sie deaktivieren musste.
Eine mobile 4070 ist allerdings in der Praxis kaum schneller als die Desktop-4600-non-Ti. Die hat nicht die Power, Grafikdetails oder Auflösungen zu bieten die wirklich mehr als 8 GB VRAM brauchen. Insofern ist diese Laptop-GPU schon okay. Nicht perfekt und die Benamung ist ... mutig. Soweit ich es erlebe, aber okay.
Gouvernator
2024-10-23, 19:57:48
Ich hab mich jetzt gegen künftige VRAM Scams abgesichert. Mein Laptop einfach mit Oculus-Link nachgerüstet. Ins freies NVME Slot den Adapter gesteckt und den Plastikboden über dieser Stelle weggeschnitten. Ab da war es Kinderspiel die eGPU mit 3090 in Betrieb zu nehmen. GPU Score in Timespy 19k mit externen Monitor. Anstatt wieder so einem kastriertem Laptop für 4000€, kaufe ich die dickste Blackwell GPU und hab noch Geld übrig.
x-force
2024-10-23, 20:05:48
Ich hab mich jetzt gegen künftige VRAM Scams abgesichert. Mein Laptop einfach mit Oculus-Link nachgerüstet. Ins freies NVME Slot den Adapter gesteckt und den Plastikboden über dieser Stelle weggeschnitten. Ab da war es Kinderspiel die eGPU mit 3090 in Betrieb zu nehmen. GPU Score in Timespy 19k mit externen Monitor. Anstatt wieder so einem kastriertem Laptop für 4000€, kaufe ich die dickste Blackwell GPU und hab noch Geld übrig.
wofür hast du einen frankenstein laptop, wenn er primär stationär rechnet?
wären zwei geräte nicht unterm strich günstiger und schneller?
Gouvernator
2024-10-23, 21:03:14
wofür hast du einen frankenstein laptop, wenn er primär stationär rechnet?
wären zwei geräte nicht unterm strich günstiger und schneller?
Heutige Bottlenecks sind GPUs. Wenn man bei 4K120 bleibt. Es gibt quasi kein Grund weder das eine (Desktop) noch das andere (Laptop) aufzurüsten.
Und dann ist mein Zen3 Laptop laut Timespy Benchmark auch noch schneller als Coffee Lake Desktop. Es ist auch ein Test. Um künftige Upgrades zu reduzieren. Und auch mit Blick auf so Sachen wie Strix Halo, wo nur eine fette APU mit massig Vram geliefert wird. Im besten Fall kann man dann 90GB VRAM Laptop mit einer 32Gb RTX5900 kombinieren - für den Preis was sonst ein Laptop mit Mobile 5090 kosten würde.
Ich hab mich jetzt gegen künftige VRAM Scams abgesichert. Mein Laptop einfach mit Oculus-Link nachgerüstet. Ins freies NVME Slot den Adapter gesteckt und den Plastikboden über dieser Stelle weggeschnitten. Ab da war es Kinderspiel die eGPU mit 3090 in Betrieb zu nehmen. GPU Score in Timespy 19k mit externen Monitor. Anstatt wieder so einem kastriertem Laptop für 4000€, kaufe ich die dickste Blackwell GPU und hab noch Geld übrig.
Das ist ja schon ... speziell.
Wobei ich auch sehe, dass in meinem Lappi die CPU länger halten müsste als die GPU. Ein 13700H ist jetzt nicht der Ober-Burner, es ist ein Desktop-13600 mit gesenktem Power-Target, aber die mobile 4070 (performancemäßig Desktop 4060 Non-Ti) dürfte in einigen Jahren eher der Hemmschuh sein.
Gouvernator
2024-10-29, 22:08:28
Mit einem Thunderbolt Port auf Intel Laptops ist es ja noch simpler mit eGPU. Ein CPU Limit + eGPU/USB4 3090 auf meinem Legion Go Handheld, habe ich nur in seltenen Fällen gesehen (Path of Exile). Viel mehr hat dort 16GB Ram limitiert. Deswegen reicht mein mobile Zen3 noch seeeeehr lang. Eine Woche spiele ich schon Path of Exile auf diese Weise am Laptop, fühlt sich an wie ein freies Laptop-Upgrade. Statt den üblichen 1440p@160W hab ich butterweiche 4K60 mit Vsync@ 230W.
Gouvernator
2024-10-30, 00:25:05
Der Trend zu alten CPUs geht sogar bei neuen Blackwell-Laptops weiter.
https://videocardz.com/newz/next-gen-geforce-rtx-50-laptops-to-rely-mainly-on-older-intel-and-amd-cpu-architectures?utm_source=ixbtcom
Colin MacLaren
2024-10-30, 10:42:03
Mit einem Thunderbolt Port auf Intel Laptops ist es ja noch simpler mit eGPU. Ein CPU Limit + eGPU/USB4 3090 auf meinem Legion Go Handheld, habe ich nur in seltenen Fällen gesehen (Path of Exile). Viel mehr hat dort 16GB Ram limitiert. Deswegen reicht mein mobile Zen3 noch seeeeehr lang. Eine Woche spiele ich schon Path of Exile auf diese Weise am Laptop, fühlt sich an wie ein freies Laptop-Upgrade. Statt den üblichen 1440p@160W hab ich butterweiche 4K60 mit Vsync@ 230W.
Ich hatte ja mal Desktop 4090 + USB4 und Thunderbolt 4 getestet. Das Ergebnis war, dass die Desktop 4090 ungefähr das Gleiche Niveau bot wie die mobile 4090 im Laptop, also eher vergleichbar mit einer 4070 Desktop. Die Benchmarkergebnisse waren besser, manches lief sogar schlechter (Starfield). Gemäß meines gefährlichen Halbwissens ist das bei Thunderbolt ein Bandbreiten- und Latenzproblem.
Siehe hier: https://egpu.io/forums/builds/2023-8-lenovo-legion-go-780m-r78cu-rtx-4090-64gbps-usb4v1-adt-link-ut3g-win11-23h2-first-non-canary-win11-64gbps-usb4v1-build-achieved-with-modified-nvidia-error43-fixer-encased-in/
Oculink ist da besser, da es eine native PCI-E 4x Schnittstelle ist. Da verliert man nur so ~10%.
universaL
2024-10-30, 11:11:06
oculink gibts wohl auch mit 8 lanes, für das framework16 ist in der community ein adapter in arbeit.
Gouvernator
2024-10-31, 00:45:57
Ich hatte ja mal Desktop 4090 + USB4 und Thunderbolt 4 getestet. Das Ergebnis war, dass die Desktop 4090 ungefähr das Gleiche Niveau bot wie die mobile 4090 im Laptop, also eher vergleichbar mit einer 4070 Desktop. Die Benchmarkergebnisse waren besser, manches lief sogar schlechter (Starfield). Gemäß meines gefährlichen Halbwissens ist das bei Thunderbolt ein Bandbreiten- und Latenzproblem.
Siehe hier: https://egpu.io/forums/builds/2023-8-lenovo-legion-go-780m-r78cu-rtx-4090-64gbps-usb4v1-adt-link-ut3g-win11-23h2-first-non-canary-win11-64gbps-usb4v1-build-achieved-with-modified-nvidia-error43-fixer-encased-in/
Oculink ist da besser, da es eine native PCI-E 4x Schnittstelle ist. Da verliert man nur so ~10%.
Aber der große Vorteil von Thunderbolt ist Hotplug-Fähigkeit. Das war echt mal verblüffend zu erleben, wie eine RTX3090 ein/ausgesteckt werden kann als irgendeine USB-HDD. Sowas gibt dir auch maximale Auswahl bei der Notebook Wahl. Sprich man kann sich auf andere Features konzentrieren, wenn man weiß das die GPU eh irrelevant wird. Hätte ich das zuvor gewusst, dann hätte ich so ein wunderschönes Convertible angeschafft.
PS.
Die Preise bei Notebooks sind in letzter Zeit so unverschämt angezogen, das man praktisch eh keine Wahl mehr hat als eGPU. VRAM kastriert und sauteuer. Die angesprochene mobile 4090, ist preislich ~4000€, Blackwell will bestimmt nicht billiger sein. Stattdessen nimmt man RTX5080 als eGPU und gut.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.