PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 6. Oktober 2021


Leonidas
2021-10-07, 10:28:13
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-6-oktober-2021

Buddy Casino
2021-10-07, 10:37:17
> zweiten Quartal 2020
lets do the time warp agaain

Gast
2021-10-07, 10:55:16
Dies mag unter einzelnen Meß-Disziplinen durchaus legal sein, aber als Benchmark-Suite, welche ein größeres Anwendungs-Spektrum abdecken will, ist dies einigermaßen daneben – gerade da beide Prozessoren denselben Spitzentakt tragen.

Warum? >90% im realen Office-Alltag wird nun mal vom schnellsten Thread im Rechner bestimmt.

Das trifft selbst in Bereichen zu, in denen durchaus Arbeitsschritte vorhanden sind die sehr gut mit vielen Kernen skalieren.

Dass ein Full-Compile mit 16 Kernen viel schneller geht als mit 4 ist ja schön. Nur machst du selbst als Entwickler nur sehr selten einen Full-Compile des gesamten Projekts. Mehr als 90% der Zeit bist du damit beschäftigt Quellcode zu schreiben, und kleine Delta-Compiles bei denen viel Kerne nichts bringen.

Ab 4-6 Kernen merkst du einfach im Alltag keine Verbesserungen mehr, theoretisch mögen mehr Kerne in dem einen oder anderen Fall noch geringe Vorteile bringen, real sind die aber so gering dass man es einfach nicht merkt.

Die Forderung klingt mehr danach, wir müssen unbedingt Benchmarks erstellen die einen Vorteil für viele Kerne zeigen, unabhängig davon dass diese in der Praxis in den seltensten Fällen einen Vorteil für den User bringen.

Leonidas
2021-10-07, 11:31:43
> zweiten Quartal 2020

Gefixt.




Die Forderung klingt mehr danach, wir müssen unbedingt Benchmarks erstellen die einen Vorteil für viele Kerne zeigen

Nein, auf keinen Fall. Benchmark sollen sehr gern unterschiedliche Performance-Profile aufzeigen.

Aber General-Benchmarks wie eben ein Crossmark darf da genausowenig einseitig laufen. Faktisch wurde hierbei keinerlei Decoding, Zipping etc. eingerechnet - der hätte nämlich zu einem kleinen Ausschlag pro der Vielkerner führen müssen.

Wenn man das "Office Benchmark for Jon Doe" genannt hätte, könnte man das akzeptieren. Aber so, mit dem Anspruch das komplette Performance-Bild abzubilden, geht es am Ziel vorbei, wenn am Sechskerner ein hartes Ende existiert.

Gast
2021-10-07, 12:29:09
Aber General-Benchmarks wie eben ein Crossmark darf da genausowenig einseitig laufen. Faktisch wurde hierbei keinerlei Decoding, Zipping etc. eingerechnet - der hätte nämlich zu einem kleinen Ausschlag pro der Vielkerner führen müssen.


Wofür? Decoding-Performance ist absolut irrelevant, dafür wird heutzutage in 100% der Fälle ein Hardwaredecoder, entweder auf der Grafikkarte oder im IGP eingesetzt. Ob da CPU A oder B schneller ist, ist absolut irrelevant.

Die einzige reale Relevanz für Zipping-Performance sind Installationen, wieviel der Zeit am PC verbringt man mit Installationen, 1% oder sind es doch 1,5%.

Abgesehen sind alle dazugehörigen Benchmarks komplett praxisfern, da sie einzig die Performance vom Packen/Entpacken im RAM testen, was aber überhaupt keinen Sinn macht, Packen/Entpacken macht man im der Praxis immer vom und/oder auf den Festspeicher, und in den allermeisten Fällen wird dieser auch limitieren. Lediglich mit NVME ist es überhaupt theoretisch möglich, dass die CPU-Leistung überhaupt einen nennenswerten Einfluss haben könnte.

Jeder 3dmark hat mehr Relevanz für die praktische Spieleperformance als irgendein Packbenchmark.


Wenn man das "Office Benchmark for Jon Doe" genannt hätte, könnte man das akzeptieren. Aber so, mit dem Anspruch das komplette Performance-Bild abzubilden, geht es am Ziel vorbei, wenn am Sechskerner ein hartes Ende existiert.

Zitat bapco.com

CrossMark® is an easy to run native cross-platform benchmark that measures the overall system performance and system responsiveness using models of real-world applications.

Ich sehe nirgends wo der Benchmark den Anspruch stellen soll "der Benchmark für alles" zu sein. Ein solcher Benchmark kann auch gar nicht existieren, bzw. ein Benchmark der eine Zahl ausspuckt kann Prinzipbedingt niemals alles abbilden.

Und diesen Anspruch stellt der Benchmark auch nicht an sich selbst, ganz im Gegenteil er stellt den Anspruch an sich die responsivness in real world applications zu zeigen. Und diese profitiert eben hauptsächlich von der verfügbaren Singlethread-Leistung und wenig bzw. ab einem gewissen Punkt gar nicht mehr von vielen Kernen.

Und diesem Anspruch erfüllt er auch offenbar.

Und ja ein 6-Kerner kann auch mal schneller als ein 16-Kerner sein, das ist nichts inhärent verbotenes und ein Benchmark ist nicht schlecht nur weil er ab einer bestimmten Kernanzahl nicht mehr skaliert.
Ansonsten müssten ja die ganzen Smartphone-SoCs mit ihren 8-10 Kernen viel besser als Desktop/Notebook-CPUs mit nur 4 Kernen sein, bzw. nach deiner Logik muss ich für einen "gültigen" Benchmark darauf achten, dass ja der 10-Kerner vor dem 4-Kerner landet.

Gast
2021-10-07, 13:00:42
Vor allen Dingen zeigen die Adobe-Benchmarks, dass die Ergebnisse sehr davon abhängen, was man misst. Nur der Premiere-Wert reagiert auf >8 Kerne bei Zen.

Wenn Crossmark hardcapped ist, wäre das dumm. Dass man (derzeit) mit mehr als 6 Kernen zumeist wenig anfangen kann, ist hingegen kalter Kaffee. Egal was Cinebench- oder 7Zip-Benchmarks sagen. Für viele Anwendungen reichen auch 4 oder gar 2 Kerne - so lange die Wumms haben, statt Atoms zu sein.
/off topic Ähnlich sieht es bei GPGPU aus. Wer nicht grad exzessiv genau die paar Funktionen nutzt, die davon profitieren, erwartet nach Ergebnissen 'genereller' Benchmarks mehr als real passiert.

Leonidas
2021-10-07, 13:12:18
Kein Problem damit, wenn man in so einen General-Benchmark 90% Einzeltests reinpackt, die bei 6C aufhören. Aber 5-10% dürfen dann auch mal mehr Bumms zeigen mit 6C. Und das sollte dann im Gesamtergebnis wenigstens zu einem kleinen Ausschlag reichen. Niemand erwartet von einem Benchmark dieser Konzeption eine reinpassige Skalierung bis 16C.

Gast Ritis
2021-10-07, 13:26:33
Naja, ich hoffe es hat doch wohl noch jeder auf dem Schirm, dass Sysmark und Bapco eine Intel-Marketing Maschine sind.

Dass diskrete GPUs von Intel erst nach den Super-Refreshes rauskommen ist extrem negativ für die Markteinführung. Die Launch-Reviews fallen in der Wertung dann gleich mal eine Stufe niedriger aus, statt hervorragend vielleicht nur noch akzeptabel im Midrange. Dann würde es nur über den Preis und OEM-Bullying ein Markterfolg.

Lehdro
2021-10-07, 16:25:46
Kann die Presse nicht einfach aufhören Bapco Benchmarks irgendeine Plattform zugestehen?

Das Ding ist faktisch von Intel, die haben deswegen vor 20 Jahren sogar mal einen von der FTC auf den Deckel bekommen. Es hat schon seinen Grund das AMD, VIA und NV da nicht drin sind, aber mal drin waren.
Es ist einfach absurd dem ganzen zugestehen in irgendeiner Weise unabhängig oder gar neutral gegenüber verschiedenen Herstellern zu sein. Das Gegenteil ist nachweislich der Fall! Oder testen wir jetzt AMD gegen NV in NV Techdemos? Ungefähr auf dem Niveau ist der ganze Bapco Kram.

Gast
2021-10-07, 18:13:48
Dass ein Full-Compile mit 16 Kernen viel schneller geht als mit 4 ist ja schön. Nur machst du selbst als Entwickler nur sehr selten einen Full-Compile des gesamten Projekts. Mehr als 90% der Zeit bist du damit beschäftigt Quellcode zu schreiben, und kleine Delta-Compiles bei denen viel Kerne nichts bringen.
In deiner Welt vielleicht. In meinem letzten Projekt hat ein Build locker 30-60 Minuten (!!) gedauert. Ein Rebuild einige Stunden. Deshalb hatten wir Incredibuild um unsere 25 Workstations parallel zu nutzen.
Selbst bei unseren aktuellen Projekten stimmen deine Annahmen nicht. Auf unseren älteren Rechnern (Thinkpad T4xx/T14) dauert es auch mal Minuten (vor allem alle bis incl. T460 sind da katastrophal), bis Payara, der Docker Container und Co bereit zum debuggen sind. Mit den neuen Rechnern (aktuell Thinkpad E15 G2) ist das in wenigen Sekunden erledigt.

iamthebear
2021-10-07, 19:57:38
Man sollte hier die Zielgruppe der Benchmarks bedenken. bapco liefert 2 Benchmarks:

Sysmark: Dies ist ein Benchmark für Office Applikationen und ist für den Desktop/Notebookbereich wobei dies eigentlich nur ein Tool ist und folgende Applikationen nach einem standardisierten Verfahren zu testen:
Adobe Acrobat Pro DC, Adobe Lightroom Classic CC, Adobe Photoshop CC, Adobe Premiere Pro CC, Audacity, AutoIt, Corel WinZip 24.0 Enterprise, Google Chrome (v 81.0), Microsoft Excel 2019, Microsoft Outlook 2019, Microsoft PowerPoint 2019, Microsoft Word 2019, Shotcut.

Dies halte ich für sehr repräsentativ für den durchschnittlichen Businesskunden im Gegensatz zu den meisten anderen Reviews, wo Multimediabenchmarks sehr stark überrepräsentiert ist.

Crossmark: Dies ist ein synthetischer Benchmark, der sowohl auf Windows als auch auf MacOS und IOS läuft. Hier geht es in erster Linie darum die Leistungsfähigkeit verschiedener Plattformen zu vergleichen, was logischerweise nicht mit realen Anwendungen funktioniert. Hier geht es z.B. um die Frage wie sich z.B. ein Surface gegenüber einem IPad schlägt und deshalb wird versucht diese Workloads möglichst gut abzubilden.
Dass bei 6 Kernen ein hartes Limit eingezogen wurde macht durchaus Sinn, denn ein Tablet wird selten zum Rendern genutzt. Da geht es darum dass z.B. Webseiten flüssig dargestellt werden etc.
Crossmark ist NICHT dafür gedacht mehrere Desktop CPUs > 100W zu testen. Dafür gibt es Sysmark. Und weder Sysmark noch Crossmark ist dafür gedacht Workstationanwendungen zu testen. Dafür gibt es ja genug eigene Benchmarks.

TLDR: Computerbase hat einfach den falschen Benchmark genommen, weil es weniger Aufwand gemacht hat und gratis war.

Platos
2021-10-07, 20:03:23
Also wird intel ihre Grafikkraten auf den Markt bringen, wenn schon fast wieder RDNA3 und Lovelace vor der tür stehen. Und das mit der prognostizierten Perfomance... Sieht nicht gut aus.

Gast
2021-10-07, 20:20:26
bla
Wer seinen Mitarbeitern 6+ Jahre alte auf "U" kastrierte Dual-Core Notebooks zum kompilieren(einself) hinstellt, hat es absolut nicht anders verdient.
Und "E15 G2" sagt btw rein gar nichts aus. Den bekommt man von Dual-Core intel bis Octa-Core AMD. Und ist nicht nur weiterhin Notebook (mit 65W-Netzteil - das sagt genug) statt Desktop, sondern auch weiterhin keine Entwickler/Workstation-Maschine. Wenn man CPU mit 15W bzw. 28W einsetzt, kann man auch gleich HDD statt SSD nehmen.
Wenn man - fürs "mobile Office" - (solche) Notebooks bekommt, dann kompiliert man aufm Server und nicht lokal.
Was also soll uns das sagen? Dass das Problem bei allgemeiner Betrachtung nicht die Realität der anderen ist, sondern deine?

Complicated
2021-10-07, 21:38:28
Kann die Presse nicht einfach aufhören Bapco Benchmarks irgendeine Plattform zugestehen?
Mehr muss man zu Bapco Benches wirklich nicht mehr schreiben. Warum die immer wieder Plattform bekommen ist echt unklar.

FarCry
2021-10-07, 22:12:09
Also wird intel ihre Grafikkraten auf den Markt bringen, wenn schon fast wieder RDNA3 und Lovelace vor der tür stehen. Und das mit der prognostizierten Perfomance... Sieht nicht gut aus.

Klar sieht das gut aus. Solange der Preis stimmt.
Wenn Intel den Markt von 150,- bis 400,- damit abdeckt, gehen die weg wie geschnitten Brot.

Platos
2021-10-07, 22:14:27
Ja wenn der Preis stimmt... Dann stimmt alles. So einfach kann man es natürlich darstellen.

Gast
2021-10-08, 10:28:09
In deiner Welt vielleicht. In meinem letzten Projekt hat ein Build locker 30-60 Minuten (!!) gedauert.


Bei mir braucht ein voller Built auch ~30min. Den mach ich aber nur 2-4x im Jahr.

Incremental-Builts sind dagegen in ein paar Sekunden fertig, ja es gibt ein paar Operationen in der IDE bzw. mit Git die alle Kerne auslasten und die damit eventuell von mehr Kernen profitieren könnten. Deren Zeitaufwand fällt aber übers Jahr überhaupt nicht ins Gewicht.

Der Großteil vom Built ist übrigens IO-Limitiert, mehr Kerne würden hier also kaum was bringen, den größten Benefit im Buildprozess bekommst du mit einer SSD.


Selbst bei unseren aktuellen Projekten stimmen deine Annahmen nicht. Auf unseren älteren Rechnern (Thinkpad T4xx/T14) dauert es auch mal Minuten (vor allem alle bis incl. T460 sind da katastrophal), bis Payara, der Docker Container und Co bereit zum debuggen sind. Mit den neuen Rechnern (aktuell Thinkpad E15 G2) ist das in wenigen Sekunden erledigt.

Gut dass es bei meinem Arbeitgeber für die Entwickler richtige Rechner und keine Ultrabooks gibt.