Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)
Seiten :
1
2
3
4
[
5]
6
7
8
9
10
11
12
13
14
15
16
17
18
dildo4u
2021-05-21, 09:35:12
Die IGPs werden doch immer fetter, Apple und Intel brauchen Heute schnelleren Speicher.
Die haben null Interesse AMD oder Nvidia weiterhin für Low End Modelle wie RTX 3050 zu bezahlen.
BlacKi
2021-05-21, 13:53:20
Die Latenz lässt sich leicht verglechen. Man würde heute immer noch schnelle Systeme mit DDR3 bauen können, wäre kein Problem, da sich die Latenz schlichtweg nicht ändert. Wie gesagt, es gab schon zu DDR-Zeiten Systeme, die identische oder gar niedrigere Latenzen aufwiesen als heute. DDR5 wird daran genau 0 ändern.
Das einzige was sich ändert ist die Bandbreite. Die ist zu einem gewissen Grad notwendig, aber die DDR4 vs. DDR5-Tests werden eben zeigen, dass es heute quasi 0 Unterschied macht, auf welchen Standard man setzt. Da brauchst schon Renderingsoftware oder irgendwas anderes bandbreitenlastiges, um davon zu profitieren. Bisher waren Spiele niemals die Profiteuere eines Speicherumstiegs.
bandbreite hilft auch bei spielen. so wie ich schon gesagt habe:
ddr4 3600 cl16 ist nicht gleich schnell wie ddr5 7200 cl32. ddr5 ist schneller.
obwohl die absolute latenz wohl gleich ist.
aufkrawall
2021-05-21, 13:57:10
Nicht wirklich, Quad Channel bringt für Spiele quasi gar nichts. Der Takt hilft offenbar vornehmlich wegen des IMCs und weil er, anders als einzelne Timings, der Latenz für alles hilft.
BlacKi
2021-05-21, 14:30:55
Nicht wirklich, Quad Channel bringt für Spiele quasi gar nichts. Der Takt hilft offenbar vornehmlich wegen des IMCs und weil er, anders als einzelne Timings, der Latenz für alles hilft.das hängt wohl mit dem quadchannel selbst zusammen. ausgehend von singlechannel hilft bandbreite wenn man einen 2. stick steckt.
Timbaloo
2021-05-21, 14:34:39
Es ist eher so, dass mehr Bandbreite ab einem gewissen Punkt (für eine gewisse Anwendung) nichts mehr bringt.
BlacKi
2021-05-21, 14:40:29
also brauchen wir 16kerner und spiele mit 16kernunterstützung imd cpu limit damit die banbreite vorteile hat?
ich habe schon tests mit geringem taktunterschied gemacht (3600vs 4000) aber mit erheblichen latenzstrafen, und trotzdem war hier bandbreite key.
ich glaube eher das die bandbreite bei den ryzens nicht ihren vorteil ausspielen kann, vl auch schon bei rocketlake, aber skylake profitiert enorm von bandbreite in diversen spielen.
aufkrawall
2021-05-21, 14:59:29
Sieh es doch einfach mal ein, dass du "die Bandbreite" als Faktor nicht eindeutig von den Latenzen isolieren kannst...
Badesalz
2021-05-21, 15:04:28
das hängt wohl mit dem quadchannel selbst zusammen. ausgehend von singlechannel hilft bandbreite wenn man einen 2. stick steckt.Das war auch eine stark unpräzise Aussage ;)
Beim Zocken spielt die Zugriffsgeschwindigkeit ala Latenz eine größere Rolle spielt, weil die Happen auch für 2ch. meist klein genug sind, dafür kommt es aber drauf an wie schnell das alles umsortiert werden kann. Da sind Takt und Latenzen klar im Vorteil vor roher Bandbreite.
Lässt man aber die Bedingungen gleich, schlägt QuadChannel natürlich trotzdem durch. Es ist halt nur bisschen... komisch, daß die Ergebnisse je nach System so unterschiedlich ausfallen...
https://www.youtube.com/watch?v=8EM0g0Szg_U
https://www.youtube.com/watch?v=dhMYmEu8gks
https://www.youtube.com/watch?v=-UkGu6A-6sQ
aufkrawall
2021-05-21, 15:12:52
Lässt man aber die Bedingungen gleich, schlägt QuadChannel natürlich trotzdem durch. Es ist halt nur bisschen... komisch, daß die Ergebnisse je nach System so unterschiedlich ausfallen...
https://www.youtube.com/watch?v=8EM0g0Szg_U
https://www.youtube.com/watch?v=dhMYmEu8gks
https://www.youtube.com/watch?v=-UkGu6A-6sQ
Setzt du gerade Dual Rank und Quad Channel gleich?
Badesalz
2021-05-21, 15:22:55
Hab ich wieder was verbaselt? :freak: So wirklich grad keine Zeit auch :usad: Stimmt mit dem ersten Video auch was nicht?
aufkrawall
2021-05-21, 15:33:56
Stimmt mit dem ersten Video auch was nicht?
Ich hab jetzt die dort verwendeten RAM-Riegel nicht überprüft. Aber es ist wohl wahrscheinlich, dass auch beim ersten Test, zusätzlich zum DC vs. QC, es ein Single vs. Dual Rank-Test ist und man damit nicht den QC-Effekt isoliert sehen kann.
Badesalz
2021-05-21, 15:35:54
Wohl eher nicht ;)
BlacKi
2021-05-21, 15:35:57
um nochmal auf die ausgangs position zurückzukommen
"mit reduzierten Timings von CL32-36-36 7.200MHZ"
Soll man da lachen oder weinen ?
B-Die CL14-14-14 3600Mhz sollte da doch merklich schneller sein :confused:
M.f.G. JVC
ich sage, CL32-36-36 7.200MHZ" wird schneller in spielen sein als
CL14-14-14 3600Mhz.
warum? ich hab latenz gegen bandbreite ausgespielt:
3200cl13 13 13 28 41,4ns aida latenz
https://abload.de/img/3200c12121228trkt8.png
vs
4266cl20 20 20 42 41,7ns aida latenz
https://abload.de/img/426600cl20202042ackwn.png
Edit: und der ram latency calculator spuckt eine deutlich schlechtere gesammtlatenz(8,125ns vs 9.37646507ns) aus und das, oh, obwohl 4266 sogar in spielen schneller ist:biggrin:
https://notkyon.moe/ram-latency.htm
BlacKi
2021-05-21, 15:42:07
sry doppelpost
Naja Leute, am Ende kommts halt darauf an, wie schnell die CPU an Daten aus dem RAM kommt. Latenzen werden weitgehend durch interleaving mitigiert, das geht aber nicht immer. Gehen wir mal vom Worst Case aus, dann zieht die volle 40ns Latenz und DANACH müssen die 64 Byte auch noch transferiert werden. Letzteres geht bei doppeltem Takt schon mal doppelt so schnell, weshalb die Datenübertragungsrate immer eine Rolle spielt. Gehen wir mal von gleich breitem SI aus, ist das was ihr Bandbreite nennt die Datenübertragungsrate.
Dual vs. Quad Channel zu betrachten hilft da wenig. Da mehr Channels zwar die Bandbreite erhöhen, die Datenübertragungsrate für einen einzelnen Zugriff jedoch nicht.
Am Ende spielt also immer Latenz wie auch Bandbreite eine Rolle. Immer. Je nach Zugriffsmuster kann eben das eine oder auch das andere stärker durchschlagen.
Badesalz
2021-05-21, 16:35:28
Grundsätzlich ist das schon immer so, daß die IMCs sozusagen entweder viel oder schnell können. War da nicht was, daß ab da wo sie bei Vollbestückung nicht mehr den Takt 1 Stufe runterschalten, sie trotzdem die Timings bisschen runterfahren?
"Irgendwas ist immer" :wink:
x-force
2021-05-21, 16:37:14
https://abload.de/img/3200c12121228trkt8.png
da kannst du aber nochmal ran:
trfc geht mit gutem ram unter 300
cr geht auch noch auf 1t
da ist noch einges an potential bei den subtimings.
ich bin mit cl14 bei 3350 mit unter 40ns unterwegs und mein b-die ist wahrlich nicht das gelbe vom ei :freak:
write und copy sind mit 3350 hier ebenfalls wesentlich höher als mit 4266 bei dir.
write ist bei dir mit 4266 sogar niedriger als mit 3200. da hast du irgendwo gehörig quark eingestellt, bzw werte auf auto gelassen und das mainboard versaut es.
die ergebnisse sind daher leider nicht wirkich vergleichbar.
BlacKi
2021-05-21, 16:48:34
natürlich sind das keine optimierten settings. weißt du wie lange das dauert? beide settings sind auto bis auf die ersten 4 werte um eine möglichst gleiche aida latenz zu erzeugen.
darauf kommt es aber auch garnicht an. denn optimiert wären die 4266 werte natürlich niedriger. und dann wäre 4266 nicht nur ein bischen schneller mit cl17 und dem timing tuning.
du musst hohem ramtakt schon extrem schlechte latenzen mitgeben bevor sie langsamer sind.
es geht darum die die gesammtlatenzen relativ sind und nicht absolut.
robbitop
2021-05-21, 17:23:50
das hängt wohl mit dem quadchannel selbst zusammen. ausgehend von singlechannel hilft bandbreite wenn man einen 2. stick steckt.
Wenn mehr Bandbreite helfen würde, würde auch QC helfen. Gesetz des abnehmenden Grenzertrags. Wenn der Bandbreitenbedarf (asymptotisch) gesättigt ist, bringt mehr auch nichts mehr.
Wie gesagt, die AIDA Werte als Indiz zu nehmen ist leider nicht möglich, weil die nicht sehr aussagekräftig sind in Bezug auf Latenz.
davidzo
2021-05-21, 17:29:54
Die IGPs werden doch immer fetter, Apple und Intel brauchen Heute schnelleren Speicher.
Die haben null Interesse AMD oder Nvidia weiterhin für Low End Modelle wie RTX 3050 zu bezahlen.
Genau, das sind seit Jahren die IGPs die am meisten davon profitieren. Und mit der niedrigeren Spannung sinkt auch der verbrauch pro dimm. Insofern macht es schon Sinn auf den neuen Standard zu wechseln. Allerdings nicht aus Performancegründen.
BlacKi
2021-05-21, 17:34:03
Wenn mehr Bandbreite helfen würde, würde auch QC helfen. Gesetz des abnehmenden Grenzertrags. Wenn der Bandbreitenbedarf (asymptotisch) gesättigt ist, bringt mehr auch nichts mehr.
Wie gesagt, die AIDA Werte als Indiz zu nehmen ist leider nicht möglich, weil die nicht sehr aussagekräftig sind in Bezug auf Latenz.
du weißt selbst, das eine quadchannel 2133 keine chance hat gegen dual 4266, selbst mit den gleichen absoluten latenzen. ich beziehe das nicht auf die bandbreite, sondern auf die taktrate.
aufkrawall
2021-05-21, 18:13:37
Um mal einen fetten Strich durch deine Milchmädchenrechnung zu machen: Wieso glaubst du eigentlich, dass der IMC von ADL auf einmal eine sagenumwobene Takt-Steigerung von >50% mitmachen wird? Den kannst du dann bei DDR5-Taktraten schön im Gear 2-Modus inkls. Latenz-Penalty fahren. ;D
Wenn da mal nicht noch die Mega-Enttäuschung kommt, siehe angeblichen Refresh mit Gaming-Cache...
BlacKi
2021-05-21, 18:28:40
ehm, gearmode ist halt asyncron. das muss er aber nicht mit ddr5. hier verdoppelt sich die taktrate, aber läuft syncron. ich bezweifle nicht, das ddr4 4400 mit guten timings keine probleme haben wird ddr5 4800 wegzustecken. aber gegen 7200 (ich hoffe da geht noch mehr) mit halbwegs guten timings werden selbst die besten und schnellsten ddr4 riegel ihre probleme haben.
und ddr7200 wird noch lange nicht das ende sein. gabs nicht letztens schon die ankündigung mit über 10ghz?
Edit:
burst length geht von 8 auf 16 bei ddr5. das reduziert latenzen? https://youtu.be/-RF5n5Og95s?t=261
du weißt selbst, das eine quadchannel 2133 keine chance hat gegen dual 4266, selbst mit den gleichen absoluten latenzen. ich beziehe das nicht auf die bandbreite, sondern auf die taktrate.
Wie gesagt, das Lesen einer Cacheline dauert bei 2133 nunmal doppelt so lange wie mit 4266. Dass das Dual Interface zwei gleichzeitig und das Quad Interface vier gleichzeitig lesen kann nützt halt recht wenig, wenn der Prozessor genau diese eine braucht um der Grafikkarte nen Draw Call zu schicken ;)
Platos
2021-05-21, 20:20:30
Was für eine Bedeutung hat es eig. dass die Spannungsregelung bei DDR5 vom Mainboard auf die Riegel wander ?
Also was für Vor- bzw. Nachteile hat das? Klar, die Mainboards werden tendentiell weniger kompliziert, die RAMs dann aber dafür komplizierter. Aber hat das irgend ein technischer Vorteil ?
BlacKi
2021-05-21, 21:01:55
Was für eine Bedeutung hat es eig. dass die Spannungsregelung bei DDR5 vom Mainboard auf die Riegel wander ?
Also was für Vor- bzw. Nachteile hat das? Klar, die Mainboards werden tendentiell weniger kompliziert, die RAMs dann aber dafür komplizierter. Aber hat das irgend ein technischer Vorteil ?
soviel ich weiß, ist es mit ddr5 möglich während des idle betriebes die taktfrequenz und die spannung zu senken. im prinzip so wie es die coreclock heute schon tut.
Platos
2021-05-21, 23:24:06
Hmm, hört sich nach nem Muss an für meinen zukünftigen Lowpower PC ^^
Badesalz
2021-05-21, 23:55:44
Dei meisten schon mitbekommen was Apple angeblich vorhat mit big.LITTLE beim MacPro? (Bloomberg -> Luxx)
BlacKi
2021-05-22, 00:29:25
nein
x-force
2021-05-22, 04:15:47
Hmm, hört sich nach nem Muss an für meinen zukünftigen Lowpower PC ^^
irrelevant für desktop
ddr4@jedec braucht vielleicht 5-6w für 16gb
BlacKi
2021-05-23, 02:35:28
irrelevant für desktop
ddr4@jedec braucht vielleicht 5-6w für 16gbdas wäre 60% meines gesammt idle verbrauchs auf meinem linux system^^
Jupiter
2021-05-23, 08:11:31
Wenn Alder-Lake DDR5, PCIe-5 und 10nm hat, werde endlich wieder den halben PC wechseln.
Badesalz
2021-05-23, 09:10:58
Und warum?
Jupiter
2021-05-23, 11:58:01
Im Vergleich zu meinen anderen technischen Geräten, zu denen qualitative Steigerungen kaum mehr möglich sind, sind meine PC-Komponenten aus Haswell- und DDR3-Generation seit geraumer Zeit nicht mehr ernst zu nehmen. Kurz vor den neuen Standards wollte ich kein neuen PC mit PCIe-4, DDR4 etc. haben. Verglichen mit Grafikkarten wechsle ich CPU, Mainboard etc. seltener.
DDR5, PCIe-5, 10nm und ATX12VO sind viele Änderungen auf einmal. AMDs CPUs finde ich erst seit Zen 3 interessant.
w0mbat
2021-05-23, 12:08:03
Naja, PCIe 5.0 ist wohl extrem überflüssig, es gibt erst seit kurzen PCIe 4.0 GPUs und SSDs, das wird noch 2-3 Jahre brauchen. ATX12VO kommt auch nicht und 10nm ist schon alt.
Platos
2021-05-23, 12:59:47
PCI-E 5.0 mit Alderlake?
Aber es ist technisch gesehen schon interessant m.M.n. Es braucht dann nämlich nur noch 1-2 Lanes für ne M.2 SSD und die Grafikkarte bräuchte eig. auch nur noch 4 Lanes.
Aber auch schon PCI-E 4.0 ist da sehr nützlich. Mit 12 Lanes ist man da (bei einer M.2 und einer Graka) voll dabei. Mit PCI-E 5.0 könnte man mit 8 Lanes schon ne Graka und 2x 7GB/s SSD anschliessen. Das wäre schon geil.
ATX12VO steht doch aber auch noch in den Sternen. Nicht ein einziges gibts für den diy Markt (Mainboards).
w0mbat
2021-05-23, 13:37:42
Dazu muss die HW aber auch PCIe Gen5 unterstützen und das wird noch eine Weile brauchen.
arcanum
2021-05-23, 13:46:57
ATX12VO steht doch aber auch noch in den Sternen. Nicht ein einziges gibts für den diy Markt (Mainboards).
das Asrocks Z490 Phantom Gaming 4SR war das einzige/eines der wenigen retail mainboard mit ATX12V support. bei den netzteilen gibt es bislang auch nur ein einziges. ab anfang 2022 soll sich das angebot an ATX12VO hardware mit alder lake aber stark ändern.
edit: scheinbar wurde das board vorgestellt, kam aber nie in den retail-handel.
Platos
2021-05-23, 13:52:21
Dazu muss die HW aber auch PCIe Gen5 unterstützen und das wird noch eine Weile brauchen.
Ja, das stimmt natürlich. Aber es ist immer so (idealerweise), dass die CPUs vor allem anderen kommen. Wäre ja auch komisch, wenns nicht so wäre.
das Asrocks Z490 Phantom Gaming 4SR ist das einzige mainboard mit ATX12V support. bei den netzteilen gibt es bislang auch nur ein einziges. ab anfang 2022 soll sich das angebot an ATX12VO hardware mit alder lake aber stark ändern.
Aber das Mainboard ist nicht kaufbar und das Netzteil auch nicht. Das ist nur für OEMs, so viel ich weiss.
Und kannst du mal was verlinken bezüglich 2022 und ATX12VO im diy Markt?
BlacKi
2021-05-23, 13:58:10
Wenn Alder-Lake DDR5, PCIe-5 und 10nm hat, werde endlich wieder den halben PC wechseln.
aufpassen, denn nur dir grafikkarte bekommt einen pcie5.0 slot. alle anderen bleiben 4.0.
ssds werden aber wohl vor 2023 nicht 5.0 anbieten und bis die bezahlbar werden und den 5.0 standard sinnvoll ausnutzen werden dementsprechend noch später. ich werde bis dahin vermutlich schon wieder wechseln wollen.
Dazu muss die HW aber auch PCIe Gen5 unterstützen und das wird noch eine Weile brauchen.
bei nv glaub ich werden sie schon bei der next gen 5.0 bringen. grafikkarten sind sowieso immer sehr schnell dabei. im idealfall kann man dann lanes halbieren.
arcanum
2021-05-23, 13:58:45
Und kannst du mal was verlinken bezüglich 2022 und ATX12VO im diy Markt?
https://www.tomshardware.com/news/vendors-prep-atx12vo-motherboards-ahead-of-intel-12th-gen-alder-lake-release
recht schwammig, aber scheinbar hat zumindest seasonic einige produkte in der pipeline die innerhalb der nächsten monate rauskommen könnten. hört sich alles nach einem henne-ei-problem an, da die kosten von den netzteilen auf die mainboards verlagert werden. solange es kein ausreichendes angebot an netzteilen gibt, werden die meisten mobo-hersteller wahrscheinlich keine 12VO boards rausbringen.
Windi
2021-05-23, 14:07:10
Es wäre ja schon ein guter Anfang, wenn die OEMs auf ATX12VO umsteigen würden und nicht alle ihre eigenes Süppchen kochen.
Dann wäre auch das Henne-Ei-Problem gelöst und der Retail Markt könnte recht gemächlich umsteigen.
Platos
2021-05-23, 14:10:27
Interessant, die News ist ja ziemlich neu, deswegen war mir das auch unbekannt. Aber Netzteile wären m.W.n gar nicht zwingend nötig, manche wollen da angeblich Adapter anbieten, habe ich mal gelesen (natürlich entfällt dann der Vorteil vom Netzteil aus gesehen, aber lauffähig wär's).
Aber das Mainboard muss natürlich definitv neu gekauft werden, bei einem kompletten PC Neukauf ist das aber sowieso nötig. Das Netzteil aber nicht, das behhält man ja normalerweise.
Was ich bisher gesehen habe, sieht ja gut aus, aber das waren alles maximal Gold Netzteile und (zumindest für mich) waren die alle keine Verbesserung zu meinem Netzteil. Solange es also keine Titanium Netzteile mit diesem Standart gibt, kann ich auch mittels Adapter fahren. Aber die Frage ist, ob ich dadurch nicht sogar noch minus mache.
Die Frage ist auch, ob es bei Titanium Netzteilen (also in dieser effizienzklasse) auch "so einfach" ist, die (prozentual) selben Fortschritte zu machen, wie es bei einem Goldnetzteil der Fall ist. Da sind die Unterschiede ja gewaltig. Ich kann mir aber gut vorstellen, dass der Unterschied ganz an der Spitze zwischen normal und 12VO nicht mehr so gross ist.
Und die Frage ist auch, wie schnell Titanium Netzteile kommen. Logischerweise wird man zuerst Netzteile produzieren, die eine höhere Absatzmenge haben (also Bronze bis Gold). Alles andere kommt vlt. mit Pech erst, wenn das schon etabliert ist.
Es wäre ja schon ein guter Anfang, wenn die OEMs auf ATX12VO umsteigen würden und nicht alle ihre eigenes Süppchen kochen.
Dann wäre auch das Henne-Ei-Problem gelöst und der Retail Markt könnte recht gemächlich umsteigen.
Ich will aber selber bauen:D
w0mbat
2021-05-23, 15:30:03
Aber wieso sollte man überhaupt auf ATX12VO umsteigen? Ein NT hat man länger als ein Mobo, wenn jetzt Teile der Stromversorgung auf das Mobo wandern, werden diese teurer und fehleranfälliger. Totaler Schwachsinn!
Platos
2021-05-23, 15:35:08
Der Stromverbrauch sinkt bei niedriglast.
aufkrawall
2021-05-23, 15:37:55
>90% kommen eh direkt vom CPU-Package, kommt mir auch komplett schwachsinnig vor.
Slipknot79
2021-05-23, 15:50:50
ATX12VO unnötige Shice, wieder mit AdaptOOOOOOOrs rumgurken und Gedanken machen ob ich 4x SATA an einen Mobo-Out anhängen kann. :rolleyes:
Platos
2021-05-23, 16:10:17
>90% kommen eh direkt vom CPU-Package, kommt mir auch komplett schwachsinnig vor.
Das sah aber in bisherigen Tests ziemlich anders aus.
w0mbat
2021-05-23, 16:17:08
Der Stromverbrauch sinkt bei niedriglast.
4-5W sind es nicht Wert, das Mobos teuer und Fehleranfälliger werden.
aufkrawall
2021-05-23, 16:23:22
Das sah aber in bisherigen Tests ziemlich anders aus.
Glaub ich nicht. Guck dir einfach den Package-Verbrauch vs. Gesamtsystem bei Teillast im Vergleich zu Idle an.
Platos
2021-05-23, 16:44:23
Was heisst du glaubst es nicht? die Messungen hier sagen aber genau das.
https://www.overclock3d.net/reviews/power_supply/atx12vo_tested_-_the_future_of_power_supplies/3
https://overclock3d.net/gfx/articles/2021/01/27065223302l.jpg
Platos
2021-05-23, 16:45:13
4-5W sind es nicht Wert, das Mobos teuer und Fehleranfälliger werden.
Es geht nicht um 4-5W. Und es hilft nicht nur bei Idle, auch bei Teillast. Das sind dann grosse Unterschiede. Siehe Test oben.
aufkrawall
2021-05-23, 16:52:28
Was heisst du glaubst es nicht? die Messungen hier sagen aber genau das.
https://www.overclock3d.net/reviews/power_supply/atx12vo_tested_-_the_future_of_power_supplies/3
https://overclock3d.net/gfx/articles/2021/01/27065223302l.jpg
Der Test vergleicht verschiedene Boards und verschiedene NT-Leistungsklassen. :freak:
Platos
2021-05-23, 16:57:38
Der Test vergleicht verschiedene Boards und verschiedene NT-Leistungsklassen. :freak:
Wie soll es denn auch sonst gehen? Das Mainboard muss ja einmal ATX12VO sein und einmal nicht. Das ist ja der Test. ATX12VO betrifft Netzteil und Mainboard. Das Mainboard muss ein anderes sein.
Und die Netzteile sind 750W vs. 650W. Das hat praktisch keinen Einfluss. Und mit sicherheit nicht 50W :wink:
Aber deine Werte basieren auf was? HWinfo? :D
aufkrawall
2021-05-23, 17:06:38
Es fehlen etwa auch Angaben zur Package-C-States und ASPM, das ist bei zig Boards nicht mal standardmäßig an. Komischerweise interessiert es keine Sau, dass dadurch mal eben der Idle- und sicherlich auch Teillast-Verbrauch um 15W oder mehr sinken kann.
Intel hat mit RKL gerade den Idle- und Teillast-Verbrauch mit Gear 1 deutlich verschlechtert gegenüber SKL, als ob da jetzt komplexere und teurere Stromversorgung die Priorität wäre...
Und ja, ich hab sicherlich mehr mit Wattmeter getestet als du.
Denniss
2021-05-23, 17:06:43
der Test ist recht seltsam und ist völlig nutzlos wenn die CPUs nicht auf offiziele PL1/PL2 gebremst werden für eine Vergleichbarkeit der Ergebnisse.
Auch schräg das 12VO ineffizienter sein soll bei CPU-Last aber teils weit effizienter sobald es auf die GPU geht.
Gerade die Unterschiede bei Webnutzung sind so seltsam das man die ganze Testmethode anzwifeln muß. Wurde da überhaupt gemessen oder nur Hw-Info bzw andere Softwar egenutzt?
Platos
2021-05-23, 17:14:42
Es fehlen etwa auch Angaben zur Package-C-States und ASPM, das ist bei zig Boards nicht mal standardmäßig an. Komischerweise interessiert es keine Sau, dass dadurch mal eben der Idle- und sicherlich auch Teillast-Verbrauch um 15W oder mehr sinken kann.
Intel hat mit RKL gerade den Idle- und Teillast-Verbrauch mit Gear 1 deutlich verschlechtert gegenüber SKL, als ob da jetzt komplexere und teurere Stromversorgung die Priorität wäre...
Und ja, ich hab sicherlich mehr mit Wattmeter getestet als du.
Ich behaupte ja nicht, der Test sei perfekt.
Aber woher kommen denn 50W Unterschied ?
Aber wie auch immer, wir sehen dann ja, wie sich die Sache entwickelt. Aber gut, wenn du mit Messgeräten misst. Wie misst du? Mit so ner Zange?
Aber irgendwoher muss der bessere Stromverbrauch ja kommen. Wenn nicht durch den ATX12VO Standart, dann woher? Ich würde ja gerne wissen, woher 50W weniger Verbrauch kommen.
Der_Korken
2021-05-23, 18:10:29
Aber woher kommen denn 50W Unterschied ?
Das frage ich mich auch. Was verbraucht denn ohne ATX12VO diese 50 zusätzlichen Watt? Das NT? Das müssen ja, wenn ich das richtig verstanden habe, 50W durch Wandlerverluste in kleinere Spannungen sein? Aber es gibt keine großen Verbraucher mehr abseits von 12V. Kommt mir sehr komisch vor.
davidzo
2021-05-23, 19:55:17
Ja, das stimmt natürlich. Aber es ist immer so (idealerweise), dass die CPUs vor allem anderen kommen. Wäre ja auch komisch, wenns nicht so wäre.
Aber das Mainboard ist nicht kaufbar und das Netzteil auch nicht. Das ist nur für OEMs, so viel ich weiss.
Und kannst du mal was verlinken bezüglich 2022 und ATX12VO im diy Markt?
Interesse anmeld!
Also hier wäre jemand der Interesse an sowas hat. Leider wie du sagst einfach nicht im retail verfügbar. 12VO ist in mehrfacher hinsicht spannend. Zum einen eröffnet das völlig neue Möglichkeiten für SFX PCs, weil man ohne extrakosten 12Volt Tischnetzteile wie das GST280A12 oder das Dell da-220 verwenden kann, die für midrange Hardware völlig ausreichend sind.
Zum anderen macht das USVs und embedded Computer viel einfacher. Ne 12V Bleibatterie, 12V Charger und ne spannungsüberwachung/notherunterfahren per usb to serial und fertig ist die Laube, ist auch viel effizienter als das erst wieder auf 230v hoch zu transformieren.
Im Embedded habe ich momentan wenig Lust auf PC hardware, selbst wenn die für Videoinhalte oder 3d Ui wesentlich mehr Leistet als ein Raspberry Pi. Aber mit 12VO und passenden mini itx boards kann man plötzlich grafikleistung verbauen die bisher schwer erreichbar und teuer war.
unl34shed
2021-05-23, 23:04:58
Das frage ich mich auch. Was verbraucht denn ohne ATX12VO diese 50 zusätzlichen Watt? Das NT? Das müssen ja, wenn ich das richtig verstanden habe, 50W durch Wandlerverluste in kleinere Spannungen sein? Aber es gibt keine großen Verbraucher mehr abseits von 12V. Kommt mir sehr komisch vor.
Es ist einfach unrealistisch, dass der Verbrauchsunterschied nur durch das Netzteil kommen soll. Sollte ATX12VO 100% Effizient bei 35W haben, wären es beim normalen ATX unrealistische unter 50%... geht man von 80% Effizienz aus bleiben nur noch 33% beim ATX Netzteil.
Also ist davon auszugehen, dass der Unterschied nicht (alleine) vom Netzteil kommt.
Denniss
2021-05-23, 23:25:48
Normal sollten sich beide nicht viel geben bei der Effizienz denn beide transformieren von AC auf DC nur bei 12V, die beiden kleinen Spannungen kommen aus den 12V.
Bei dem einen ist halt alles im kompakten Gehäuse während der andere Wandlerbauteile auf dem mainboard benötigt.
Ausgehend von gleicher Qualität der Wandler können da höchstens Verluste im Kabel bzw bei den Steckverbindungen auftreten.
Badesalz
2021-05-23, 23:29:08
Das sah aber in bisherigen Tests ziemlich anders aus.Wenn das in den Tests schon so gut aussah, wozu erst auf die Titanium warten? :|
Platos
2021-05-24, 02:47:29
Leute, ihr dürft nicht vergessen, dass es nicht nur ums Netzteil geht. Am Mainboard fallen auch einige Stecker weg und werden durch andere ersetzt etc. Aber keine Ahnung, was da den Grossteil ausmacht. Würde mich auch interessieren, was genau da jetzt ao viel Strom spart.
Wenn das in den Tests schon so gut aussah, wozu erst auf die Titanium warten? :|
Stimmt, ich habe mich da vertan. Ich hatte ein anderes Netzteil im Kopf (Corsair hat so ein Netzteil, welches in der neuen Serie extrem gute Niedriglast-Verluste hat. Es ist genau das selbe Netzteil (selber Name), aber die neue Revision ist extrem viel besser (im Bereich 2% Last)
Also das war gar kein 12VO Netzteil, sorry.
Aber ja, diese Kombi 12VO Netzteil und Mainboard ist richtig genial.
W4RO_DE
2021-05-24, 11:46:33
Weiß man schon, ob es Alder Lake auch als HEDT-Ableger geben wird, quasi was jetzt LGA 2066 im Consumer Markt ist?
unl34shed
2021-05-24, 11:55:12
Leute, ihr dürft nicht vergessen, dass es nicht nur ums Netzteil geht. Am Mainboard fallen auch einige Stecker weg und werden durch andere ersetzt etc. Aber keine Ahnung, was da den Grossteil ausmacht. Würde mich auch interessieren, was genau da jetzt ao viel Strom spart.
Das BIOS/UEFI, die CPUs laufen nicht im gleichen Betriebspunkt :wink:
Badesalz
2021-05-24, 12:05:53
Das BIOS/UEFI, die CPUs laufen nicht im gleichen Betriebspunkt :wink:Dieser Satz kein Verb :|
Leute, ihr dürft nicht vergessen, dass es nicht nur ums Netzteil geht. Am Mainboard fallen auch einige Stecker weg und werden durch andere ersetzt Na dann bleiben doch kaum Wünsche offen...
BlacKi
2021-05-24, 14:39:54
Weiß man schon, ob es Alder Lake auch als HEDT-Ableger geben wird, quasi was jetzt LGA 2066 im Consumer Markt ist?
hedt ist tot bei intel. schuld sind die 16 kerner von amd würde ich mal sagen. die haben den hedt bereich gekilled. selbst bei amd im portfolio sieht hedt nicht wirklich attraktiv aus.
Dr. Lloyd
2021-05-24, 15:19:31
Weiß man schon, ob es Alder Lake auch als HEDT-Ableger geben wird, quasi was jetzt LGA 2066 im Consumer Markt ist?
Sapphire Rapids soll neben Server- auch neue HEDT-CPUs bringen. Laut einer Meldung von Videocardz, sollen entsprechende Mainboards für die neue X-Plattform bereits in Vorbereitung sein:
https://videocardz.com/newz/intel-confirms-sapphire-rapids-uses-golden-cove-microarchitecture
Falls sich das noch dieses Jahr bewahrheitet, dann wird es bei mir womöglich doch kein Alder Lake, sondern Sapphire Rapids. Inzwischen sind die leistungsstärksten Consumer-CPUs und dazu passende Mainboards ja derart hochpreisig, dass HEDT im Einstiegssegment kaum teurer sein kann.
W4RO_DE
2021-05-24, 16:11:18
Danke euch beiden für die Infos! Schiele eigentlich nur auf HEDT wegen den zusätzlichen PCIe-Lanes ...
BlacKi
2021-05-24, 18:18:27
wenn intel hedt bringt toll, es gab nur keine roadmaps dazu.
Badesalz
2021-05-24, 20:46:25
Diesmal vielleicht ein Design mit Speicherbänken die nicht senkrecht sind und damit die Luft um den Sockel einschliessen? Ähh... warte:
Baut Supermicro nicht ewig und fortlaufend solche Boards, für Xeons? Wann ist HEDT also gestorben?
Ist Supermicro pleite?
davidzo
2021-05-24, 21:05:57
Diesmal vielleicht ein Design mit Speicherbänken die nicht senkrecht sind und damit die Luft um den Sockel einschliessen? Ähh... warte:
Baut Supermicro nicht ewig und fortlaufend solche Boards, für Xeons? Wann ist HEDT also gestorben?
Ist Supermicro pleite?
Supermicro ist sehr lebendig! Die Boardvielfalt bzw. Auswahl mit Xeon, Xeon-D und Epyc ist praktisch größer als je zuvor. Zudem sind die meist einige Monate früher verfügbar und stabiler als die Anderen.
Es ist halt praktisch wenn man nur drei Straßenecken von AMD und Intel seine Büros hat. Das heißt dass die Mainboard-Ingenieure zwangsläufig in denselben restaurants Mittagessen wo die Leute speisen welche die Chipsets und CPUs entworfen haben und die Design Guides schreiben. Das nimmt mal gut und gerne 6Monate an Testing aus dem ganzen Entwicklungsprozess und amortisiert die hohen Lebenshaltungskosten die man für Engineers/Developer im Valley mittlerweile leider hat.
Es gibt nur eine Gegend auf der Welt wo die großen Billboards auf dem Highway Werbung für Bladeserver oder Mellanox Netzwerkkarten machen;D
Badesalz
2021-05-25, 07:42:17
Ah sag an?? :wink:
Na also Leute. MACHEN :smile:
Loeschzwerg
2021-05-25, 07:53:26
Falls sich das noch dieses Jahr bewahrheitet,
Bis jetzt sieht es eher nach 2022 aus.
Badesalz
2021-05-25, 08:48:31
Wobei... wenn ich mir das aktuelle Angebot anschaue... ist das schon ziemlich LAUSIG.
Früher - wo nicht alles besser war, aber vieles halt gut - mit z.B. Xeon E5 v3 oder v4, war das recht einfach. Man wählte 1630 oder 1650 oder 1660 und das wars. Hatte man wirklich high-MT Loads, was dann eh schon meist dem beruflichen Umfeld entsprang, wählte man >10cores. Da stand auch einiges zu Auswahl.
Wenn ich mir das so in etrwa ab der Zeit anschaue wo sie eben von "E" zu Edelmetallen übergingen, macht das keinen wirklich Sinn mehr. Das ging bis v5 noch halbwegs gut, danach haben sie noch nichtmal E5 v6 gebracht und die Takte bei den nur 4c E3 v6 sind lausig.
Das sie sich seitdem schämen Hedt noch zu erwähnen, gegen+ber dem was AMD schon für Consumermarkt macht, das ist nur verständlich.
Schade halt nur, daß AMD auch mit Milan diesen Markt nicht sieht.
Wie gesagt, das Lesen einer Cacheline dauert bei 2133 nunmal doppelt so lange wie mit 4266. Dass das Dual Interface zwei gleichzeitig und das Quad Interface vier gleichzeitig lesen kann nützt halt recht wenig, wenn der Prozessor genau diese eine braucht um der Grafikkarte nen Draw Call zu schicken ;)
Mir ist noch was eingefallen... DDR5 halbiert ja die Bus-Breite! Ein DIMM hat künftig 2 Channels mit je 32 Bit, was dann mit der auf 16 verlängerten Burst-Length wieder die gewünschten 64 Byte je Burst ergibt.
Das heißt, DDR5 benötigt für den Transfer einer Cache Line doppelt so viele Takte wie DDR4. Kann man mangels Parallelisierbarkeit nicht alle Channels auslasten, wird das am Ende noch langsamer. Jedenfalls wird ein einzelner Lesezugriff länger dauern als bei hoch getaktetem DDR4.
BlacKi
2021-05-27, 12:57:46
but why?
man hat ja deshalb auf 2x 32 bit heruntergebrochen, damit man nicht auf 64 warten muss. das hat man mit absicht getan, nicht weil es ihnen langeweilig war.
Der_Korken
2021-05-27, 13:44:22
Die Halbierung der Channelbreite auf 32bit war notwendig, weil bei 64bit und 16-fachem Prefetch immer 128Byte in einem Rutsch übertragen werden würden. Dadurch könnte man keine einzelnen Cache-Zeilen mehr über einen Channel transferieren, sondern müsste das immer paarweise machen, was im worst case 50% der Bandbreite verschwenden würde. Bei DDR4 wurde der Prefetch nicht erhöht und bei DDR3 ging sich das mit Channel-Breite und Cache-Zeilengröße noch aus (d.h. man hat 64Byte statt 32Byte auf einmal übertragen, was aber nicht schlimm war, weil man eh immer ganze Cache-Zeilen aus dem RAM holt).
BlacKi
2021-05-27, 15:29:47
danke für die erklärung, dann hat man keinen vorteil und keinen nachteil.
Solange der Takt tatsächlich verdoppelt wird, hat man keinen Nachteil. Dann überträgt ein DDR4 3200 CL16 Channel eine Cache Line so schnell wie ein DDR5 6400 CL32 Channel. Nur wird DDR5 eben nicht doppelt so hoch takten wie ausgereizter DDR4.
(die Bandbreite beim sequenziellen bzw. interleaved lesen mehrerer Cacheline ist natürlich höher aber wir haben hier ja über die Dauer einzelner Zugriffe gesprochen).
Benutzername
2021-05-27, 16:21:10
Supermicro ist sehr lebendig! Die Boardvielfalt bzw. Auswahl mit Xeon, Xeon-D und Epyc ist praktisch größer als je zuvor. Zudem sind die meist einige Monate früher verfügbar und stabiler als die Anderen.
Es ist halt praktisch wenn man nur drei Straßenecken von AMD und Intel seine Büros hat. Das heißt dass die Mainboard-Ingenieure zwangsläufig in denselben restaurants Mittagessen wo die Leute speisen welche die Chipsets und CPUs entworfen haben und die Design Guides schreiben. Das nimmt mal gut und gerne 6Monate an Testing aus dem ganzen Entwicklungsprozess und amortisiert die hohen Lebenshaltungskosten die man für Engineers/Developer im Valley mittlerweile leider hat.
Es gibt nur eine Gegend auf der Welt wo die großen Billboards auf dem Highway Werbung für Bladeserver oder Mellanox Netzwerkkarten machen;D
Dazu noch die Anmerkung, daß Supermicro auch vorsichtig den Zeh wieder in den Endverbrauchermarkt stippt. Leider nix mit AM4 dabei. :(
Unter der AMrke Supero bieten sie auch barebones und leere Gehäuse an: https://www.supero.com/en/
Ich verstehe nur nicht, warum sie das Zeuch unter einer (etwas) anderen MArke verkaufen?
Naja zurück zu Alder Lake.
w0mbat
2021-05-30, 23:53:59
In 4 Stunden startet die Computex mit Intels keynote: https://www.youtube.com/watch?v=ATz4TPWdVbk
Vielleicht gibt es sogar neues zu ADL :)
BlacKi
2021-06-02, 23:30:19
ddr5 wird schon bei gleichem speichertakt 1.36x schneller sein.
https://pics.computerbase.de/9/8/8/8/4-e3ff6f477bc63504/6-1080.4766eba8.jpg
https://www.computerbase.de/2021-06/micron-mehr-alpha-ram-bald-ddr5-und-ufs-3.1-fuers-auto/
Der_Korken
2021-06-03, 00:13:13
Was soll denn "effective bandwidth" bedeuten? DDR4-3200 schafft theoretisch 51,2GB/s. Wie berechnen sich die 16,8GB/s auf den Folien? Bei gleichem Takt würde ich DDR5 wegen der Burst Length 16 eher im Nachteil sehen, weil eine einzelne Cache-Zeile doppelt so viele Takte für die Übertragung braucht und man somit doppelt so viele parallele Anfragen braucht, um den Speicher auszulasten.
KarlKastor
2021-06-03, 01:03:23
Das ist doch nicht neu. Die Details zu DDR5 sind ja schon seit Monaten bekannt. Google mal nach "micron DDR5 Whitepaper", in denen ist alles leicht verständlich und anschaulich erklärt.
Im Grunde sind es die Verdoppelung der Bankgroups und Banks und der "Same Bank Refresh" Befehl, die die effektive Zugriffszeit verringern und.man somit näher an die theoretisch mögliche Bandbreite heran kommt.
Bei deiner CPU wirst du ja nie die 51.2 GB/s messen können.
BlacKi
2021-06-03, 01:56:12
https://www.micron.com/-/media/client/global/documents/products/white-paper/ddr5_new_features_white_paper.pdf?la=en
x-force
2021-06-03, 02:22:55
Bei deiner CPU wirst du ja nie die 51.2 GB/s messen können.
aida erzählt mir etwas anderes
ddr5 wird schon bei gleichem speichertakt 1.36x schneller sein.
https://pics.computerbase.de/9/8/8/8/4-e3ff6f477bc63504/6-1080.4766eba8.jpg
https://www.computerbase.de/2021-06/micron-mehr-alpha-ram-bald-ddr5-und-ufs-3.1-fuers-auto/
Marketing Blabla, der ist keinen Deut schneller in der Praxis. Gabs je einen Speicherstandard, der Anfangs schneller war als der letzte? DDR war ne Ausnahme, weil Intel sich das damals versaut hatte, ansonsten war DDR2 anfangs langsamer als DDR, DDR3 war nicht schneller als DDR2 anfangs und DDR5 wird nicht schneller als DDR4 anfangs. Die Vorteile kommen über die Zeit. dieses DDR5-Gehype kapier ich überhaupt nicht. Das sind derart unrealistische Erwartungend daran geknüpft. Noch 1000x, die Latenzen werden nicht sinken.
dildo4u
2021-06-03, 08:43:54
Vieleicht haben sie diesmal einfach länger mit der Release gewartet, es soll angeblich in diesem Jahr Modelle mit 7000+ mit reduzierten Timings geben.
https://www.computerbase.de/2021-05/arbeitsspeicher-von-geil-ddr5-mit-bis-zu-7.200-mhz-und-rgb-kommt-im-4.-quartal/
BlacKi
2021-06-03, 12:11:25
lol, wenns nur mal stimmt. scheduller update für alderlake, sammt neuer windows version. windows 11:biggrin:
https://twitter.com/mooreslawisdead/status/1400367814440013826
Thunder99
2021-06-03, 12:19:54
Gabs ja auch damals mit Bulldozer und dann mit Zen. Wenn sie es schaffen, weitreichende Anpassungen vorzunehmen ist es nur zu begrüssen. Am Ende profitieren wir alle davon :)
Und Namen sind Schall und Rauch. Im Grunde sind alle Versionen von Windows 10 nach dem Release .X. Hat sich MS nur bei Apple abgeschaut die nach wie vor von OSX reden.
Eventuell wollen sie den Kernel umbauen, damit dieser besser damit umgehen kann. Kommt auch ARM zu Gute.
w0mbat
2021-06-03, 12:29:16
Naja, bei AMD kamen die scheduler Anpassungen peu à peu nach dem launch. Wenn es jetzt extra für ADL einen neuen scheduler vor dem launch gibt hat Intel aber mächtig geplecht.
BlacKi
2021-06-03, 12:34:06
Wenn es jetzt extra für ADL einen neuen scheduler vor dem launch gibt hat Intel aber mächtig geplecht.
http://dailynewsdig.com/wp-content/uploads/2014/10/Im-going-to-make-him-an-offer-he-cant-refuse.jpg
Thunder99
2021-06-03, 12:36:36
http://dailynewsdig.com/wp-content/uploads/2014/10/Im-going-to-make-him-an-offer-he-cant-refuse.jpg
:biggrin:
Sonst würde ja ein Bulldozer von Intel dabei raus kommen :freak:;D.
lol, wenns nur mal stimmt. scheduller update für alderlake, sammt neuer windows version. windows 11:biggrin:
https://twitter.com/mooreslawisdead/status/1400367814440013826
The next Windows Version comes with massive scheduling upgrades...
ooh :-D
vielleicht haben sei ja nicht nur für Big Little was getan, sondern auch in anderen Bereichen (Nutzung von 64Core...) um den teilweise großen Geschwindigkeitsnachteil zu Linux aufzuholen... (s. https://www.phoronix.com/scan.php?page=article&item=windows10-ubuntu21-tr3990x&num=3)
:biggrin:
Sonst würde ja ein Bulldozer von Intel dabei raus kommen :freak:;D.
Würde mich nicht wundern, wenn Das "Intels Bulldozer" wird :ulol:
(noch halte ich nichts von dem "Bi-Li"-g Konzept im Desktop)
M.f.G. JVC
WedgeAntilles
2021-06-04, 15:56:06
Naja, bei AMD kamen die scheduler Anpassungen peu à peu nach dem launch. Wenn es jetzt extra für ADL einen neuen scheduler vor dem launch gibt hat Intel aber mächtig geplecht.
Naja. Wenn die Intel-Bosse mit den Microsoft-Bossen Golf spielen und dabei ihre Pläne besprechen und sagen: "Könnt ihr bei der nächsten Windows-Version da was machen, das das gut funktioniert?" hatte das halt "etwas" mehr Einfluss, als wenn AMD bei Microsoft in der Telefonzentrale anrief und das gleiche Anliegen hatte.
Es würde mich massiv überraschen wenn Intel und Microsoft sich NICHT vorher über diese Dinge ausgetauscht haben.
Und zwar nicht 3 Monate vorher sondern schon Jahre vorher.
Und nachdem aus diesen Gesprächen dann was positives rauskam wurde halt Alder Lake finalisiert.
Hätte MS abgewunken wäre AL in dieser Konzeption IMO nie erschienen.
Daher halte ich es auch für ziemlich wahrscheinlich, dass Alder Lake sehr viel besser funktionieren wird als hier im Forum so geunkt wird.
davidzo
2021-06-04, 16:34:26
Hat sich MS nur bei Apple abgeschaut die nach wie vor von OSX reden.
OSX ist doch End of life, habe ich was verpasst?
Ok, darwinbasierend sind beide, aber seit 10.12 heißt es nicht mehr OSX sondern macOS und mit 11.4 big Sur ist auch das namensgebende X=10 verschwunden. Aber dein punkt in bezug auf 'so macht Microsoft es jetzt auch' ist natürlich trotzdem richtig :wink:
Blediator16
2021-06-04, 17:21:30
bla
Ich stelle schon mal Eimer für die Tränchen bereit, nachdem ADL gelauncht wurde und die windows scheduler secret sauce dann doch vergammelt schmeckt ;D
Thunder99
2021-06-04, 17:58:40
OSX ist doch End of life, habe ich was verpasst?
Ok, darwinbasierend sind beide, aber seit 10.12 heißt es nicht mehr OSX sondern macOS und mit 11.4 big Sur ist auch das namensgebende X=10 verschwunden. Aber dein punkt in bezug auf 'so macht Microsoft es jetzt auch' ist natürlich trotzdem richtig :wink:
Danke für die Klarstellung :)
Und ohne Anpassung von Windows würde es wahrscheinlich echt in die Hose gehen. Software muss auf Hardware angepasst werden, ansonsten wird man zersägt von der Konkurrenz.
y33H@
2021-06-04, 21:18:58
Der Win10 Scheduler funktioniert schon bei Lakefield ziemlich gut, sehe da eigentlich nicht, warum er bei Alder Lake spacken sollte.
WedgeAntilles
2021-06-05, 11:22:46
Ich stelle schon mal Eimer für die Tränchen bereit, nachdem ADL gelauncht wurde und die windows scheduler secret sauce dann doch vergammelt schmeckt ;D
Wieso Tränen?
Ich kaufe mir keinen Alder Lake.
Meine 6 Jahre alte CPU reicht mir noch bis Ende 2022 / Anfang 23 und Lovelace.
Da gibt es dann aber schon wieder neue CPUs.
Zen 4 / Raptor Lake.
Generell ist mir die Leistung einer Firma relativ egal. Bringt eine Firma nur noch Murks kaufe ich die halt nicht mehr. Bringen alle Firmen nur noch wenig Mehrleistung für massig Kohle wird der PC halt erst nach 8 Jahren ausgetauscht - so what?
Nicht jeder bringt den Grad an Fanatismus auf, den du gegenüber AMD hast.
dildo4u
2021-06-05, 11:25:45
Imo gehts bei Win 11 nicht um Intel sondern ARM, da muss was passieren oder Apple marschiert weg.
Sieht man schon beim ipad pro die überbietem nur sich selbst + 50% von 2020 zu 2021.
Geächteter
2021-06-05, 11:39:59
Imo gehts bei Win 11 nicht um Intel sondern ARM, da muss was passieren oder Apple marschiert weg.
Sieht man schon beim ipad pro die überbietem nur sich selbst + 50% von 2020 zu 2021.
Ob da aber ein Tiger Lake mit angeflanschtem Atom wirklich Paroli bieten kann, fraglich.
dildo4u
2021-06-05, 11:45:58
Natürlich nicht Intel ist bei 10nm Apple 5nm, daher müssen Windows Optemierungen für ARM kommen Qualcomm bekommt den 4 nm Node minimal 1 Jahr vor AMD.
https://www.notebookcheck.com/Riesiger-Performance-Sprung-in-2022-erwartet-Viele-Specs-zu-Qualcomms-4-nm-Snapdragon-888-Nachfolger-SM8450-geleakt.543059.0.html
CrazyIvan
2021-06-05, 12:11:20
Imo gehts bei Win 11 nicht um Intel sondern ARM, da muss was passieren oder Apple marschiert weg.
Sieht man schon beim ipad pro die überbietem nur sich selbst + 50% von 2020 zu 2021.
+1
MS muss aus der Abhängigkeit zu x86 raus, wenn sie in 5 Jahren noch Betriebssysteme an den Mann bringen wollen.
Thunder99
2021-06-05, 12:35:35
Nur wenn ARM x86 ersetzt. Und das wird Stand heute nicht der Fall sein, eher parallel laufen.
Ein Software Hersteller und Spiele Programmierer sollte Mal gegenüberstellen wie es um x86 und ARM steht. UE5?
dildo4u
2021-06-05, 12:43:53
MS hat keine Kontrolle über x86 CPUs könnte aber ARM SOC bauen, da werden sie ihren Fokus drauf richten.
Ansonsten gibt es keine Chance gegen Apple die alles kontrollieren.
amdfanuwe
2021-06-05, 16:51:00
Arm wird sich nur durchsetzen, wenn Microsoft für X86 den Abgesang anstimmt und Windows auf ARM ordentlich lauffähig hat so dass der Umsteiger von X86 kein Problem hat sein System zu portieren und seine sonstige Hardware weiternutzen kann.
Thunder99
2021-06-05, 17:48:46
Die Frage ist halt auch wie Spiele auf ARM laufen werden (komplexe) im Verhältnis zu x86.
0815 office, surfen, Bildbearbeitung, Video bedarf es ja kein x86 mehr um gut zu laufen.
bbott
2021-06-05, 17:50:03
+1
MS muss aus der Abhängigkeit zu x86 raus, wenn sie in 5 Jahren noch Betriebssysteme an den Mann bringen wollen.
Selten so einen Quatsch gelesen, solange Apple die CPUs nicht an dritte verkauft ändert rein gar nichts. Außerdem wer sagt das, Apple das Tempo für wenig auf recht erhalten kann?
Falls es dir noch nicht aufgefallen ist gibt AMD nun mit x86-64 Gas! Warum nur hat AMD ARM liegengelassen, wenn es doch so überlegen ist :freak: :biggrin:
Warum wohl war und ist x86-64 so erfolgreich?! Weil die Software Kompatibilität das A und O ist und da ist x86-64 King. Wenn Intel oder AMD geschwächelt hat hat der andere frischen Wind reingebracht. Bei INtel läuft es hoffentlich bald wieder rund. Apple hat nun bei ARM64 keine Alternative, wenn sie mal "Stolper" wie Intel haben sie ein Problem. Zu Zeit läufst Rund, aber das tut es nicht ewig.
Ich denke wenn Apple die aktuelle x86-64 Entwicklung vorher gewusst hätte, würde Apple wahrscheinlich gar keine CPU selber entwickelt und die Macbooks iMacs hätten (Customized APUs) Zen2/3(+).
Man war von Intel schwer enttäuscht und hat es AMDs Ryzen nicht zugetraut so stark zu werden.
Appel wird für über 90% der Kunden zu teuer bleiben und damit auch nicht ansatzweise Wintel gefährden.
So schließt sich ein kreis und wie häufig hat man den Untergang von x86-64 prophezeit. Von Propheten die den Markt, die Stärken und Schwächen nicht kennen oder verstehen.
Nur mal so an die meinen ARM wäre die "neue" super Architektur, die dies ist von 1983 und x86 ist von 1978. Als von wegen ARM ist so viel neuer und besser und so... im Computerzeitalter sind beide Asbach uralt.
Quelle:
https://de.wikipedia.org/wiki/Arm-Architektur
https://en.wikipedia.org/wiki/X86
Ich schätze das Intel erst wieder mit 5nm (falls es nicht noch noch mehr (viel) verspätet) wieder wirklich gute Produkte liefern wird, von Alder Lake erwarte ich sehr wenig. Ich hoffe das in Zukunft zwischen Desktop nur Big Cores und Mobile big.LITTLE unterscheiden wird. Das ist mMn eine Fehlentwicklung wie APUs mit 30% und mehr verschwendeter Die für die GPU. Als Fallback tut es auch eine alte low Cost Grafikkarte.
aufkrawall
2021-06-05, 17:58:27
Damit hängt die Bedeutung von x86 in der Zukunft entsprechend stark an der Fertigung von Intel. Ob AMD auf absehbare Zeit Stückzahl für den OEM-Massenmarkt wird liefern können, darf bezweifelt werden.
Wird wirklich mal Zeit, dass es kaufbare und günstige Nachfolgegeräte für Gemini Lake im <300-400€-Bereich gibt.
bbott
2021-06-05, 18:15:37
Damit hängt die Bedeutung von x86 in der Zukunft entsprechend stark an der Fertigung von Intel. Ob AMD auf absehbare Zeit Stückzahl für den OEM-Massenmarkt wird liefern können, darf bezweifelt werden.
Wird wirklich mal Zeit, dass es kaufbare und günstige Nachfolgegeräte für Gemini Lake im <300-400€-Bereich gibt.
Da hatte ich von TSMC schon deutlich mehr erwartet, dass das Limit deutlich höher liegt als bei GF. Echt schade das AMD nun so ausgebremst wird, so wird dsas mit den 50:50 nichts. Mal sehen, ob wir wenn Intel die Fabs öffnet auch AMD Kunde wird ;D ;D ;D
Dann wäre endlich mal ein echter Vergleich möglich bei identischer Fertigung, aber ob Intel sich dann genauso ins Zeug hängt, wie bei den eigenen CPUs, eher unwahrscheinlich. :freak:
ChaosTM
2021-06-05, 20:09:01
Appls ARM CPUs sind interessant aber man will ja möglichst proprietär bleiben. Viel spannender wird imho das was Nvidia (https://www.forbes.com/sites/tiriasresearch/2021/04/12/nvidia-introduces-3-new-arm-processors/) so alles basteln wird. Momentan konzentriert man sich noch auf den Server Bereich.
Von Alder erwarte ich nicht allzu viel aus den schon genannten Gründen. Der Prozess ist nicht mehr ganz zeitg....
Apple ARM-CPUs sind 100% irrelevant für alle anderen Märkte außer für Apple.
BlacKi
2021-06-06, 01:10:26
Apple ARM-CPUs sind 100% irrelevant für alle anderen Märkte außer für Apple.das sehe ich genauso.
TheAntitheist
2021-06-06, 02:17:18
Da hatte ich von TSMC schon deutlich mehr erwartet, dass das Limit deutlich höher liegt als bei GF. Echt schade das AMD nun so ausgebremst wird, so wird dsas mit den 50:50 nichts. Mal sehen, ob wir wenn Intel die Fabs öffnet auch AMD Kunde wird ;D ;D ;D
Dann wäre endlich mal ein echter Vergleich möglich bei identischer Fertigung, aber ob Intel sich dann genauso ins Zeug hängt, wie bei den eigenen CPUs, eher unwahrscheinlich. :freak:
AMD hätte doch viel mehr CPUs herstellen können, oder mehr Wafer ordern können. Aber sie beliefern lieber zuerst MS und Sony für die Konsolen. Das ist schon deren eigenes Verschulden.
Und das AMD richtig gas gibt bei ihren x86 CPUs hm, sie haben gerade eine 6 Jahre alte Architektur eingeholt, ihr Gegner hat nix gemacht also ist es eher Intels Verschulden. Da müssen wir noch 3-4 Jahre abwarten, dann weiß man wohin die Reise geht. AMD hatte ja schon 3x so eine Phase wo sie Intel kurzeitig ebenbürtig waren bis es wieder ganz schnell bergab ging.
dildo4u
2021-06-06, 08:37:18
Apple ARM-CPUs sind 100% irrelevant für alle anderen Märkte außer für Apple.
Hä wo konkurieren die nicht?Apple hat als einziger über 100% bei PCs zugelegt da sie nicht mher an veraltet x86 Technik gebunden sind.
Intel nutzt veraltet Technik könnte aber genug liefern, AMD ist moderner wäre aber niemals in der Lage den Markt alleine zu sättigen.
https://www.idc.com/getdoc.jsp?containerId=prUS47601721
Intel bringt nich umsonst neue 10nm Chips immer zu erst in Ultrabooks dort werden die Millarden gemacht.
Hier stänkert MS direkt gegen den M1 Mac. https://youtu.be/HyliB3OYMlc
ChaosTM
2021-06-06, 08:58:53
X86/64 ist halt schon ziemlich "aus-entwickelt". Deshalb gab es auch von Seiten Intels nur mehr wenig Fortschritt.
Natürlich hat man sich auf den Lorbeeren ausgeruht, die Konkurrenz unterschätzt und einiges verschlafen.
Classic Hybris halt.
Mittlerweile ist man aber wieder wach und es geht auch nicht viel weiter. Nur mehr marginale Fortschritte.
AMD kann auch nicht zaubern und wird bald vor einer ähnlichen virtuellen Wand stehen.
Die Zukunft gehört anderen Architekturen wie eben ARM, RISC5 oder was völlig neuem.
Da wir Menschen aber per Definition faul* sind, halten wir so lange es geht an "bewährtem" fest.
* aus dieser Faulheit heraus resultieren nebenbei aber die besten Erfindungen. :)
Hä wo konkurieren die nicht?Apple hat als einziger über 100% bei PCs zugelegt da sie nicht mher an veraltet x86 Technik gebunden sind.
Intel nutzt veraltet Technik könnte aber genug liefern, AMD ist moderner wäre aber niemals in der Lage den Markt alleine zu sättigen.
https://www.idc.com/getdoc.jsp?containerId=prUS47601721
Intel bringt nich umsonst neue 10nm Chips immer zu erst in Ultrabooks dort werden die Millarden gemacht.
Hier stänkert MS direkt gegen den M1 Mac. https://youtu.be/HyliB3OYMlc
Die Prozessoren Konkurrieren nirgendwo. Es gibt keine Macs mit nicht-M1 mehr und es gibt keine PCs mit M1. Es gibt keinen Markt, auf dem diese Prozessoren miteinander konkurrieren. Apple hat sein komplett eigenes Ökosystem, seine eigene Kundschaft. PC und Mac sind zu 90% unterschiedliche Anwenderphilosophien, es ist also eher Apple vs. den Rest der Welt und das wiederum hat mit CPUs nichts zu tun. M$ ist natürlich angepisst, dass Intel nichts vernünftiges zustandebringt momentan und AMD keine Alternative ist. Aber das ist ja ein temporärer Zustand, der wieder beseitigt wird.
a.) wird AMD sehr viel mehr CPUs auf den Markt bringen die nächsten 2 Jahre
b.) wird Intel die Fertigungsmisere auf die ein oder andere Weise beenden
Nur weil Apple einen konkurrenzfähigen Prozessor entwickelt hat (welcher i.Ü. einen Node vorne ist, was gerne vergessen wird) ist er doch noch lange nicht relevant für nicht-Apple-Märkte, oder siehst du da irgendjemanden, der da M1 verbaut? (Oder den Apple überhaupt M1 verbauen lassen würde?) Die Performance des M1 ist schlichtweg irrelevant.
Und Intel mag jetzt in der 10nm-Krise stecken, mit 7nm wird die jedoch schon wieder entschärft. Und wenns gar nicht läuft, kommen die relvanten CPUs demnächst schlichtweg von anderen Foundries, das ist relativ einfach. Intel bleibt Intel, die Fertigung ist jedoch ersetzbar im Notfall. Du hypst den M1 bis zum Umfallen, aber es bleibt "Nachts ist kälter als draußen"-Denken. Du verknüpfst Dinge, die nicht zusammen passen.
dildo4u
2021-06-06, 09:43:49
Die Konkurrieren nirgendwo. Es gibt keinen Markt, auf dem diese Produkte konkurrieren. Apple hat sein komplett eigenes Ökosystem, seine eigene Kundschaft. PC und Mac sind zu 90% unterschiedliche Anwenderphilosophien, es ist also eher Apple vs. den Rest der Welt und das wiederum hat mit CPUs nichts zu tun.
Nur weil Apple einen konkurrenzfähigen Prozessor entwickelt hat (welcher i.Ü. einen Node vorne ist, was gerne vergessen wird) ist doch doch noch lange nicht relevant für nicht-Apple-Märkte, oder siehst du da irgendjemanden, der da M1 verbaut? (Oder den Apple überhaupt M1 verbauen lassen würde?) Die Performance des M1 ist schlichtweg irrelevant.
Und Intel mag jetzt in der 10nm-Krise stecken, mit 7nm wird die jedoch schon wieder entschärft. Und wenns gar nicht läuft, kommen die relvanten CPUs demnächst schlichtweg von anderen Foundries, das ist relativ einfach. Intel bleibt Intel, die Fertigung ist jedoch ersetzbar im Notfall. Du hypst das bis zum Umfallen, aber es bleibt "Nachts ist kälter als draußen"-Denken.
Warum schaltet dann MS und Intel Werbung gegen das Macbook?
Du kannst alles auf dem Ding machen außer AAA Gameing was mit UltraBooks von Intel auch nicht geht.
Intel vs Apple: https://www.intel.com/content/www/us/en/products/performance/gopc.html
MS gegen Apple: https://youtu.be/HyliB3OYMlc
Warum schaltet dann MS und Intel Werbung gegen das Macbook?
Du kannst alles auf dem Ding machen außer AAA Gameing was mit UltraBooks von Intel auch nicht geht.
Intel vs Apple: https://www.intel.com/content/www/us/en/products/performance/gopc.html
MS gegen Apple: https://youtu.be/HyliB3OYMlc
Ich hab das Posting noch mal präzisiert, zitiere das bitte. Du bist einfach völlig auf dem Holzweg, das ist das Problem.
CrazyIvan
2021-06-06, 10:06:59
@bbott
"Quatsch" also? Vielleicht fährst Du erst einmal Deine Aufgeregtheit eine Stufe zurück und schaust Dir mal näher an, was der M1 zu leisten imstande ist - hier zum Beispiel:
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/4
Nicht nur kann der M1 in der ST-Leistung mit dem besten mithalten, was bei x86 verfügbar ist (5950x). Er dreht vor allem bei Perf/W Kreise um die Konkurrenz. Schau Dir mal die ST-Werte von Renoir an. Der benötigt jedoch im ST auch 12-15 Watt, während M1 mit 6-10w durch die Tür kommt. Und das ist nicht allein durch 7nm vs. 5nm erklärbar - TSMC selbst spricht da nur von 15% mehr Leistung oder 30% weniger Verbrauch.
Und nun zu der Frage, was das alles mit Windows und x86 zu tun hat:
Apple zeigt mit dem M1, was mit der ARM ISA machbar ist, wenn das primäre Ziel nicht "low power" lautet. IMHO ist es nur eine Frage der Zeit, bis Qualcomm/nVidia/Samsung/MS/Google ein ähnliches Design aufsetzen. Die großen OEMs wie Dell, HP und Lenovo würden so etwas mit Kusshand nehmen, um nicht vollends von Apple abgehängt zu werden. Und diesen Bedarf bzw. diese Gefahr wird auch MS auf der OS-Seite endlich erkannt haben.
Der erste Anlauf war eher schlecht als recht, aber immerhin eine Basis. Ich sehe keinen Grund, warum nicht performancekritische Software auf ARM nicht "schnell genug" emuliert werden können sollte. Und mit den richtigen Werkzeugen sowie APIs wie DX12 sollte man auch bspw. Spiele künftig nativ für beide ISAs anbieten können.
Und von da an ist es nur noch ein kurzer Weg für gesockelte ARM-Prozessoren auf normalen ATX-Mainboards mit allen gängigen Erweiterungsmöglichkeiten im DIY Markt.
Aber wenn ihr weiterhin glauben wollt, dass das alles nix mit der Windows-Welt und x86 zu tun hat, dann herzlichen Glückwunsch zur Begrenzung des eigenen Horizonts. Das schöne ist ja, dass wir uns zurücklehnen und schauen können, was die nächsten Jahre so bringen werden.
CrazyIvan
2021-06-06, 10:16:35
Die Prozessoren Konkurrieren nirgendwo.
Ja genau. HP, Dell und Lenovo konkurrieren natürlich überhaupt nicht mit Apple - wie lachhaft ist das denn.
Müsste ich heute einem Bekannten eine Empfehlung für ein Notebook geben und wüsste, dass dieser keine speziellen Anwendungsfälle wie AAA-Gaming hätte, dann lautet die Antwort fast zwangsläufig Apple Silicon. Und das obwohl ich mich als x86-Jünger bezeichnen würde.
AAA Gaming auf nem Notebook funktioniert eh nicht ohne aktive Stromversorgung. CPU Leistung reicht auch völlig. GPU Power fehlt wie auch am Desktop. M1 also irrelevant (selbst wenn es den für Windows gäbe)
Laufzeit (mit gescheiter Leistung) in der Ultrabook Klasse und drunter, ist ein Vorteil den ich beim M1 sehe. Da eiert Intel seit Dekaden rum.
maximus_hertus
2021-06-06, 10:45:10
Ja genau. HP, Dell und Lenovo konkurrieren natürlich überhaupt nicht mit Apple - wie lachhaft ist das denn.
Müsste ich heute einem Bekannten eine Empfehlung für ein Notebook geben und wüsste, dass dieser keine speziellen Anwendungsfälle wie AAA-Gaming hätte, dann lautet die Antwort fast zwangsläufig Apple Silicon. Und das obwohl ich mich als x86-Jünger bezeichnen würde.
Ich sehe das ein wenig differenzierter.
Klar konkurrieren die Frmen, aber es ist kein direkter Kampf.
Apple hat seine Nische und verdient verdammt gut. Die können und wollen nicht den Massenmarkt bedienen.
Zum Apple Silicon: eine echt starke CPU. Aber wen ich jetzt gehäßig wäre, könnte ich schreiben, dass man bis heute keine bezahlbaren Geräte damit kaufen kann. Das ist nicht auf dich oder mich bezogen, aber die übergroße Mehrheit der Bevölkerungen kauft sich nur eräte im Sub 500 Euro Breich.
Geräte für 1000 bzw. ab 2000 auswärts sind zwar MArgenträchtig, aber ein sehr, sehr, sehr kleiner MArkt (Stückzahlen) im Vergleich zu den unteren Preisbereichen.
Die Lösung wären andere ARM Chips, die in die Lücke springen, z.B. von Qualcomm oder Samsung. Wenn es diese mal irgendwann in der (fernen) Zukunft geben würde, bleibt das Problem der Software.
Win x86 hat einen fetten Vorteil und Nachteil:
Vorteil: Kompatibilität
Nachteil: Kompatibilität
Man kann teils Uralt Software aus den 90er (problemlos) nutzen. Viele Programme werden nicht (mehr) gepflegt und bekommen keine Updates mehr. Ein Cut zu ARM würde wohl nicht wenige Programme zum Opfer fallen. Eine Emulation a la Rosetta scheint MS auch nicht hinzubekommen. Die PErformance und Kompatibilität ist da einfach mies. Das kann sich zwar theoretisch ändern, aber legacy Software wird man wohl nie 100% "perfekt" auf ARM zum laufen kriegen.
Wie weit MS überhaupt mit ARM ist, sieht man ja an Win 10X. Wie immer: grandios gefailt.
Aber selbst wenn das alles gelöst wäre - wo kommen so viele abermillionen CPUs her? Fertigungskapazitäten, vor allem um x86 spürbar zu "schaden", sind nicht mal eben aufgebaut.
Bis es so weit wäre, haben Intel und AMD noch (sehr) viele Jahre Zeit, neue Designs zu basteln.
fondness
2021-06-06, 10:51:42
Nicht nur kann der M1 in der ST-Leistung mit dem besten mithalten, was bei x86 verfügbar ist (5950x). Er dreht vor allem bei Perf/W Kreise um die Konkurrenz. Schau Dir mal die ST-Werte von Renoir an. Der benötigt jedoch im ST auch 12-15 Watt, während M1 mit 6-10w durch die Tür kommt. Und das ist nicht allein durch 7nm vs. 5nm erklärbar - TSMC selbst spricht da nur von 15% mehr Leistung oder 30% weniger Verbrauch.
Also wenn ich jetzt mal als Michmädchenrechnung 30% Verbrauch von deinen Renoir-Werten abziehe, bin ich bei 8,4-10,5 Watt. Sieht nicht so schlecht aus. Zumal Renoir eben auch 16 Threads in die Waagschale werfen kann, die GPU bei Renoir ein ganz anderes Featurelevel beherrscht (und dabei ist das noch ein altes Vega-Design) und I/O auch viel Strom schluckt.
Und nun zu der Frage, was das alles mit Windows und x86 zu tun hat:
Apple zeigt mit dem M1, was mit der ARM ISA machbar ist, wenn das primäre Ziel nicht "low power" lautet. IMHO ist es nur eine Frage der Zeit, bis Qualcomm/nVidia/Samsung/MS/Google ein ähnliches Design aufsetzen. Die großen OEMs wie Dell, HP und Lenovo würden so etwas mit Kusshand nehmen, um nicht vollends von Apple abgehängt zu werden. Und diesen Bedarf bzw. diese Gefahr wird auch MS auf der OS-Seite endlich erkannt haben.
IMO ist dein Denkfehler, dass es nicht an der ISA liegt, sondern Apple einfach ein sehr gutes Design entwickelt hat. Würde es an der ISA liegen, wären die Designs von Qualcomm/nVidia/Samsung und ARM selbst nicht meilenweit zurück.
Denniss
2021-06-06, 10:59:24
Ziemlich viel unqualifizierter ideologisch geprägter UnsinnAMD hat knallharte Verträge mit Sony/M$, klar das die mit Priorität beliefert werden.
Übrigends mit Zen/+ hat AMD Intel in der IPC erreicht, mit Zen2 leicht überholt und mit Zen3 weiter davongezogen. Der anfangs fehlende Takt ist inzwischen auch da.
Intel hat vor fast 2 Jahren auch eine neue Architektur gebracht aber die konnte in der IPC bestenfalls aufholen.
Nightspider
2021-06-06, 11:05:55
Im Bereich der CPU gab es halt gefühlt viele Jahre lang eine Stagnation bei Geschwindigkeit und Effizienz.
Das hat den Markt etwas ausgebremst und deswegen erscheint Apple jetzt vielleicht auch besser als es wirklich der Fall ist.
Aber es hat sich bei CPUs die letzten 1-2 Jahre extrem viel getan, auch bei Laptops.
Es gibt jetzt verdammt viel Leistung und Effizienz für wenig Geld und in naher Zukunft kommen noch deutlich effizientere und schnellere Produkte für Windows Laptops.
Die billigen TN Panels verschwinden zum Glück auch langsam vom Markt und jetzt gibt es teils schon 14-16 Zoll Laptops mit IPS und 7nm APU für 500 Euro.
Lasst mal in rund einem Jahr die 5nm APUs (eventuell mit stacked Memory) gegen den M1 vergleichen, der wird dann nicht mehr so brachial aussehen imo.
Klar ist Apple rund 1,5 Jahre im Vorsprung beim Fertigungsprozess aber den muss man auch teuer bezahlen.
amdfanuwe
2021-06-06, 11:20:51
Das schöne ist ja, dass wir uns zurücklehnen und schauen können, was die nächsten Jahre so bringen werden.
Das mach ich seit 30 Jahren.
Hab damals nicht verstanden, warum sich Amiga oder Atari ST nicht gegen den PC durchsetzen konnten oder der Acorn Archimedes mit überlegenem ARM Prozessor https://de.wikipedia.org/wiki/Acorn_Archimedes
Seit erscheinen von Apples Mac wurde gepredigt, das Apple das bessere System ist, hat nur nichts genützt.
Seit dem erstem Linux wurde vorausgesagt, dass es DOS und später Windows ersetzen wird weil es besser ist.
Das sich X86 damals so durchgesetzt hat lag daran, dass man Hardware von verschiedenen Herstellern zu unterschiedlichen Preisen bekommen konnte, variabel und aufrüstbar war. DOS bzw. Windows gabs praktisch für umme dazu bzw. bekam man als Kopie. Microsoft verdiente im Firmenbereich und hats im Privatbereich geduldet.
Letztendlich hat es sich durchgesetzt, weil für Meßkarten, Drucker, Videokarten, Soundkarten und sonstiger Peripherie die entsprechenden Treiber geliefert wurden. Das ist der Vorteil von Windows. Neue Peripherie wird angeschlossen, Treiber installiert und funktioniert (meistens).
Für andere Systeme bekommt man kaum Treiber, für welches Linux soll der denn entwickelt werden? Ubuntu, RedHat, Debian... ? Für welche Oberfläche das Benutzerinterface ausgelegt werden, damit es auch schön aussieht? Gibt ja nur ein paar hundert. Und das ganze noch Pflegen.
Apple hat sein eigenes Ökosystem und wer meint nicht mit der unterstützten Peripherie auszukommen hat halt Pech gehabt.
Wenn nun einige Firmen für ihr System spezialisierte Lösungen auf ARM Basis entwickelt haben, lag das daran, das Intel zu gierig war.
Da wurde ausgerechnet, dass man mit einer eigenen ARM Lösung günstiger, effizienter etc. ist als weiterhin auf Intel zu setzen.
Die Entwicklungen wurden vor Jahren angestoßen, als man AMD schon in der Pleite sah und sich Intels Monopolgebaren ausmalen konnten.
Das sind aber spezialisierte Systeme, nichts für die Masse.
Selbst wenn jetzt einer mit einem Super Duper ARM System auf den Markt käme und Windows samt Treibern und Peripherieunterstützung schneller als auf einem PC emuliert bekäme, selbst dann würden die Firmen weiterhin Software für X86 Windows entwickeln weil es ja darauf läuft und noch genug native X86 PCs gibt. Könnte ja sein, dass es nur eine Eintagsfliege ist.
Wenn einer X86 ablösen will, dann hat er dafür zu sorgen, dass er ein ordentliches OS dafür hat, die Softwarefirmen davon überzeugt native Software dafür bereitzustellen, dafür sorgt, dass alle Peripheriehersteller zukünftig Treiber und Installationssoftware für sein System liefern. Desweiteren muß das System offen sein, dass Drittanbieter auch kompatible Systeme anbieten können und somit einen zukünftige Entwicklung und Bestand garantieren.
Kurz gesagt: Vergesst es.
Arm in Propietären Systemen gibt es und wird es weiterhin geben.
Android oder Google OS in Smartphones, Tablets und Cromebooks für den Mediakonsum wird viele PCs in den Privathaushalten ablösen.
Vielleicht kommen auf der Schiene auch mal leistungsfähigere ARM Systeme die dann Tripple A Gaming erlauben, die X86 Industrielösungen werden dadurch nicht abgelöst.
amdfanuwe
2021-06-06, 11:25:21
J
Müsste ich heute einem Bekannten eine Empfehlung für ein Notebook geben und wüsste, dass dieser keine speziellen Anwendungsfälle wie AAA-Gaming hätte, dann lautet die Antwort fast zwangsläufig Apple Silicon. Und das obwohl ich mich als x86-Jünger bezeichnen würde.
Vielleicht reicht ihm ja auch schon ein Cromebook oder Tablet.
Sollte man vorher schon gut den Anwendungsfall erörtern. Mit X86 ist man halt auf der sicheren Seite und hat die Wahl Betreffs Austattung und Preis.
Zossel
2021-06-06, 11:51:14
Seit erscheinen von Apples Mac wurde gepredigt, das Apple das bessere System ist, hat nur nichts genützt.
Kooperatives Multitasking ohne Speicherschutz wie bei den Macs bis NeXt kam ist und bleibt Müll. Mac-Nutzer waren nicht so anspruchsvoll als das die sich dran gestört haben das wenn man A vor B startet die Kiste abstürzt.
Letztendlich hat es sich durchgesetzt, weil für Meßkarten, Drucker, Videokarten, Soundkarten und sonstiger Peripherie die entsprechenden Treiber geliefert wurden. Das ist der Vorteil von Windows. Neue Peripherie wird angeschlossen, Treiber installiert und funktioniert (meistens).
Das ändert sich gerade in Richtung Linux. Ich hab mitllerweile HW gesehen für es keine Windows Treiber gibt, sondern lediglich Linux Treiber.
Und wenn man die Nummer von FTDI anschaut wo die Windows Treiber absichtlich Hardware sabotieren bzw. zerstören ist das auch gut so!
amdfanuwe
2021-06-06, 12:05:28
Kooperatives Multitasking ohne Speicherschutz
War damals Stand der Dinge außerhalb von Unix Systemen.
Deshalb gab es ja dann WIN NT für den Anwender mit gehobenen Ansprüchen.
Daraus wurde dann Windows XP ab Ende 2001 für die Masse.
Gab und gibt trotzdem immer noch genügend Anwendungen, die den ganze Rechner abstürzen lassen.
Hatte ich letztere Zeit des öfteren durch irgend eines diese Zwangsupdates. Anscheinend im letztem Update wieder behoben.
Das ändert sich gerade in Richtung Linux. Ich hab mitllerweile HW gesehen für es keine Windows Treiber gibt, sondern lediglich Linux Treiber.
Hab ich schon mit gearbeitet. War ein Sensor und das Linuxpaket diente nur dazu um das ganze überhaupt erst mal ans laufen zu bekommen und die Funktionsweise zu verstehen. Anschließend konnte ich das in unsere Firmware integrieren. Ein embedded ARM Produkt.
Linuxtreiber sind einfacher zu entwickeln als Windowstreiber und wo das ganze nachher in einem Produkt verschwindet, braucht es auch keinen weiteren Support.
robbitop
2021-06-06, 12:06:43
Fertigungstechnoligie ist nur eine Seite, die uArch die andere. Ein 5nm Produkt von 2020 mit einem Produkt von 2022 mit einem 2 Jahre neueren Design zu vergleichen ist ein verzerrter Vergleich. Bzw ein marktfremder. Dem Endkunden ist das alles total egal. Da zählt nur was kaufbar ist. 2022 hat Apple längst 1-2 neuere uArchs.
IMO war der Punkt von fondness extrem gut. Die ARM ISA macht nicht den Unterschied. Die uArch tut es. Sonst wären nicht alle anderen ARM Designs massiv zurück.
Und außerdem scheint es so zu sein, dass Intel und AMD massive Fortschritte für die IPC für die nächsten Jahre in der Pipeline haben.
Bei x86 wurde uns im Prinzip ein halbes Jahrzehnt an Fortschritt geraubt. Mangels Wettbewerb. Und kaum ist der Wettbewerb wieder zurück, geht es wieder mit Vollgas nach vorn. :)
CrazyIvan
2021-06-06, 12:25:49
@amdfanuwe
30 Jahre sind es bei mir tatsächlich auch bereits - obgleich mein Zugang als DDR-Kind vielleicht nicht ganz so niedrigschwellig war. Und in dieser Zeit fanden so einige Entwicklungen statt, die aus meiner Sicht den Blick auf die Zukunft durch reine Extrapolation der Vergangenheit verbieten:
Das Internet und die Technologien, auf denen es fußt, sind sowohl auf Server- als auch Client-Seite plattformagnostisch. Musste man Entwickler früher überzeugen, Dinge abseits Wintel zu unterstützen, hat sich das Problem mittlerweile weitestgehend erledigt.
Plattformagnostische Cloud-Plattformen wie Microsoft365, GoogleDrive und Co. setzen sich im Unternehmensbereich zusehends durch. Selbst branchen- und bereichsspezifische Applikationen sind zunehmend webbasiert - auch Eigenentwicklungen. Das erlebe ich als jemand, der in einem großen deutschen Konzern in diesem Bereich arbeitet, hautnah.
Im Zuge dessen verliert das Active Directory - einstiges Rückgrat vieler Unternehmens-IT-Infrastrukturen - immer mehr an Bedeutung. Der klassische Windows-Account als Haupt-Authentifizierungsmethode ist auf dem besten Wege zur Obsoleszenz.
Legacy-Applikationen werden konsequent migriert. Und wenn nicht, dann eben emuliert oder in VMs betrieben. Und für die ganz wenigen Dinge wie Legacy-CAD & Co. sowie hardwarenahe Geschichten wird Wintel ja auch nicht verschwinden.
War die Nutzung von Apple oder Chromebooks bei uns vor einigen Jahren noch undenkbar, gehört es heute zum "Business as usual".
Also ja, Apple ist heute eine ernsthafte Bedrohung für das Wintel-Kerngeschäft - und das erhöht den Zugzwang.
Da ich nun schon zum zweiten Mal mindestens mitverantwortlich für diesen Off-Topic-Exkurs war, möchte ich das ganze nicht noch weiter ausbreiten. Ist es möglich, dass ich mich mit meinen Aussagen grandios irre? Auf jeden Fall! Aber eine solche Entwicklung von vornherein auszuschließen halte ich angesichts aller angeführten Punkte für zu kurzsichtig.
amdfanuwe
2021-06-06, 12:49:27
Auf jeden Fall! Aber eine solche Entwicklung von vornherein auszuschließen halte ich angesichts aller angeführten Punkte für zu kurzsichtig.
Stimme ich dir zu. Nur ist die Entwicklung langfristig und ein M1 krempelt nicht von heut auf morgen alles um wie das anscheinend einige meinen.
Wenn die Spielkonsolen einen gescheiten Browser bieten würden und ich auch mal einen Brief schreiben und drucken könnte, hätte ich schon keinen PC mehr. Aber bisher gibt es für mich keine Alternative zum Zocken, etwas Home Office und TV sowie Media Konsum in einem Gerät.
w0mbat
2021-06-06, 12:53:54
ARM hat einfach gerade 10 Jahre mit einer extremen Entwicklung hinter sich. So ab ca. 2010 hatte wirklich jeder ein Smartphone und damit wurden die kleinen, sparsamen ARM-Chips extrem gefragt. Also wurde dort total viel Zeit und Geld in die Entwicklung gesteckt.
Bei x86 auf der anderen Seite wars es genau anders herum. Ab ca. 2010 war Intel mit Abstand der alleinige Makrtführer und hat sich quasi nicht bewegt, weil sie es nicht mussten. Seit 2017 ist AMD mit Zen wieder da und es geht langsam wieder los, in den jetzten 3 Jahren hat sich bei x86 mehr bewegt als in den 6 Jahren davor.
ARM ist also quasi gerade am Ende eines Sprints, während x86 jetzt mit dem Aufwärmen fertig ist. In 5 Jahren denkt niemand mehr an ARM.
Akkarin
2021-06-06, 12:54:20
IMHO ist es nur eine Frage der Zeit, bis Qualcomm/nVidia/Samsung/MS/Google ein ähnliches Design aufsetzen.
Keiner von denen hat auch nur ansatzweise ein Design Team, welches auch nur ansatzweise mit ARM/AMD/Apple/Intel mithalten kann. Sie haben ja auch alle aufgegeben echte custom Cores zu bauen und werkeln stattdessen mit ARM cores rum.
Und klar, man kann auch ein neues Design Team auf ziehen. Aber Apple hat ein Jahrzehnt gebraucht um an den Punkt zu kommen an dem sie jetzt sind. Man mag jetzt zwar an einem Punkt starten der näher an den top-CPUs ist, aber deutlich schneller wird es auch nicht gehen.
Die Risiken eine neue high-end CPU zu entwickeln sind einfach sehr hoch. Apple konnte sich das leisten weil sie gleichzeitig alle "Zwischenschritte" im iPhone und iPad verwenden konnten. Aber für alle anderen macht es wenig sinn, vor allem wenn man einfach ARM cores benutzen kann (und vorher auch schon nicht mit ARM mithalten konnte).
Der einzige Player der evt. daran interesse hat einen high-end core auf der ARM ISA zu bauen ist vermutlich ARM selbst.
Zossel
2021-06-06, 13:13:03
War damals Stand der Dinge außerhalb von Unix Systemen.
Deshalb gab es ja dann WIN NT für den Anwender mit gehobenen Ansprüchen.
OS2 kam schon Ende der 80'er raus.
Daraus wurde dann Windows XP ab Ende 2001 für die Masse.
Gab und gibt trotzdem immer noch genügend Anwendungen, die den ganze Rechner abstürzen lassen.
Danach wurde die Qualität von MS besser.
Hatte ich letztere Zeit des öfteren durch irgend eines diese Zwangsupdates. Anscheinend im letztem Update wieder behoben.
Um dann wieder mit der Qualität von MS wieder schlechter zu werden.
Zossel
2021-06-06, 13:14:51
Keiner von denen hat auch nur ansatzweise ein Design Team, welches auch nur ansatzweise mit ARM/AMD/Apple/Intel mithalten kann. Sie haben ja auch alle aufgegeben echte custom Cores zu bauen und werkeln stattdessen mit ARM cores rum.
QC hat sich vor kurzen eine ARM-Butze gezogen, und die aktuellen Server-ARMs sehen auch nicht schlecht aus.
mboeller
2021-06-06, 13:15:30
Der einzige Player der evt. daran interesse hat einen high-end core auf der ARM ISA zu bauen ist vermutlich ARM selbst.
irgendwie scheinen immer alle die Server-Cores von ARM zu vergessen:
https://www.anandtech.com/show/16073/arm-announces-neoverse-v1-n2
amdfanuwe
2021-06-06, 13:32:32
irgendwie scheinen immer alle die Server-Cores von ARM zu vergessen:
Wird erst interessant, wenn Dell, HP, Cray, Lenovo... Systeme damit anbieten.
Eine schöne Schneeflocke macht noch keine Skipiste und ein schneller Prozessor noch kein einsatzfähiges System.
aufkrawall
2021-06-06, 13:38:07
für welches Linux soll der denn entwickelt werden? Ubuntu, RedHat, Debian... ?
Es gibt nur ein Upstream-Linux. Gegen den Abhängigkeiten-Dschungel gibts mittlerweile Flatpak.
Für welche Oberfläche das Benutzerinterface ausgelegt werden, damit es auch schön aussieht?
GTK 3/4 sieht in Gnome und Plasma korrekt aus, der Rest interessiert nicht wirklich.
Akkarin
2021-06-06, 14:00:05
Die ARM server cores basieren IIRC alle auf mobile chips. Das ist für hoch parallele Server ja auch in Ordnung, man hat zwar eine niedrige ST Leistung, aber gute perf/mm und perf/W und hat deshalb im MT möglicherweise Vorteile.
Die neuen V-Server Chips werden auf den X Mobile Chips basieren. Die ST leistung wird zwar besser, aber vermutlich nicht auf Apple/AMD/Intel Niveau. Aber mal sehen was mit X2/3/4 etc. kommt.
bbott
2021-06-06, 14:53:32
@bbott
"Quatsch" also? Vielleicht fährst Du erst einmal Deine Aufgeregtheit eine Stufe zurück und schaust Dir mal näher an, was der M1 zu leisten imstande ist - hier zum Beispiel:
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/4
Nicht nur kann der M1 in der ST-Leistung mit dem besten mithalten, was bei x86 verfügbar ist (5950x). Er dreht vor allem bei Perf/W Kreise um die Konkurrenz. Schau Dir mal die ST-Werte von Renoir an. Der benötigt jedoch im ST auch 12-15 Watt, während M1 mit 6-10w durch die Tür kommt. Und das ist nicht allein durch 7nm vs. 5nm erklärbar - TSMC selbst spricht da nur von 15% mehr Leistung oder 30% weniger Verbrauch.
Und nun zu der Frage, was das alles mit Windows und x86 zu tun hat:
Apple zeigt mit dem M1, was mit der ARM ISA machbar ist, wenn das primäre Ziel nicht "low power" lautet. IMHO ist es nur eine Frage der Zeit, bis Qualcomm/nVidia/Samsung/MS/Google ein ähnliches Design aufsetzen. Die großen OEMs wie Dell, HP und Lenovo würden so etwas mit Kusshand nehmen, um nicht vollends von Apple abgehängt zu werden. Und diesen Bedarf bzw. diese Gefahr wird auch MS auf der OS-Seite endlich erkannt haben.
Der erste Anlauf war eher schlecht als recht, aber immerhin eine Basis. Ich sehe keinen Grund, warum nicht performancekritische Software auf ARM nicht "schnell genug" emuliert werden können sollte. Und mit den richtigen Werkzeugen sowie APIs wie DX12 sollte man auch bspw. Spiele künftig nativ für beide ISAs anbieten können.
Und von da an ist es nur noch ein kurzer Weg für gesockelte ARM-Prozessoren auf normalen ATX-Mainboards mit allen gängigen Erweiterungsmöglichkeiten im DIY Markt.
Aber wenn ihr weiterhin glauben wollt, dass das alles nix mit der Windows-Welt und x86 zu tun hat, dann herzlichen Glückwunsch zur Begrenzung des eigenen Horizonts. Das schöne ist ja, dass wir uns zurücklehnen und schauen können, was die nächsten Jahre so bringen werden.
Wie viel davon wird durch Accelerator-Einheiten (AES, HTML5 usw.) gepusht!? Zen3 legt durch den V-Cach alleine 15% zu und ist "nur" in 7nm... Zen 4 wird ein 5nm Produkt sein, dann können wir gerne nochmal vergleichen.
Ich bin mal gespannt, wann Apple anfängt 150-500€ PC/ Notebook anzubieten und alle AAA bis Z Games und Windows Software darauf läuft
Nochmals AMD hat sich für x86 und gegen ARM entscheiden, die werden es wohl besser Wissen als wir :wink:
M1 im Goldenen Apple Käfig sogt, für etwas drück und Ideen im ARM und x86 Lager aber mehr nicht. Es wird weder am Windows noch am ARM Lager etwas gravierendes ändern. Eine Nintendo Switch wäre etwas gewesen...
Es ist ganz einfach x86-64 ist auch ständig erneuert und erweitert worden, es hat nicht mehr viel mit dem Ur- Ur-x86 gemeinsam. Die x86-64 Architektur ist eben nicht das "alte" Eisen wie manche meinen, anderenfalls ist ARM quasi genauso alt und gammelig :freak:
AMD hat mit Zen in x86-64 neues Leben eingehaucht und Intel wird dies bald auch tun, z.B. mit big.Littel (auch wenn ich kein Fan davon bin).
Intel hat von AMD mit Zen einen Ar***- Tritt verpasst bekommen und jetzt hat halt Apple Intel und AMD mal vors Knie getreten. Die Rahmenbedingungen haben sich nicht geändert, solange wird es auch keine Änderung eben.
Ich schaue immer über meinen Tellerrand, nur Hype ich nicht gleich bei jedem Hypertrain rum, der auf einem ganz anderen Gleis fährt und in eine ganz andere Richtung fährt als es mancher hier will.
Aber kannst ja gerne in Frankfurt in den Zug nach Köln steigen, weil der schneller ist, obwohl du nach Berlin willst bzw. musst bist dann nur am falschen Ziel ;D
bbott
2021-06-06, 14:58:07
irgendwie scheinen immer alle die Server-Cores von ARM zu vergessen:
https://www.anandtech.com/show/16073/arm-announces-neoverse-v1-n2
Und bisher sind alle verschwunden, nicht auf den Markt gekommen oder extrem nischig, ohne Nachfolger.
Wenn AMD mit x86-64 und Zen /2 /3 schon einen scheren Stand hat, warum sollte ich als Admin auf ARM wechseln :freak:
Der Servermarkt ist EXTREM KONSERVATIV! Nur ganz große wie Google Amazon testen vielleicht mal, aber bisher ist keiner wirklich umgeschwenkt. Stichwort: Eintagsfliege.
mboeller
2021-06-06, 15:03:13
Und bisher sind alle verschwunden, nicht auf den Markt gekommen oder extrem nischig, ohne Nachfolger.
Wenn AMD mit x86-64 und Zen /2 /3 schon einen scheren Stand hat, warum sollte ich als Admin auf ARM wechseln :freak:
Der Servermarkt ist EXTREM KONSERVATIV! Nur ganz große wie Google Amazon testen vielleicht mal, aber bisher ist keiner wirklich umgeschwenkt. Stichwort: Eintagsfliege.
Amazon's Graviton2 ist ARM N1. Amazon scheint den Graviton2 sehr häufig einzusetzen. Die ST-Performance ist auch nicht so schlecht (in etwa wie ein EPYC 7571). V1 soll in ST noch einmal 50% schneller werden, selbst N2 soll in ST 40% schneller werden als N1.
Schaut also momentan nicht so schlecht aus.
https://www.anandtech.com/show/15578/cloud-clash-amazon-graviton2-arm-against-intel-and-amd/5
https://www.anandtech.com/show/16640/arm-announces-neoverse-v1-n2-platforms-cpus-cmn700-mesh
KarlKastor
2021-06-06, 15:04:39
Der Servermarkt ist EXTREM KONSERVATIV! Nur ganz große wie Google Amazon testen vielleicht mal, aber bisher ist keiner wirklich umgeschwenkt. Stichwort: Eintagsfliege.
Genau, die testen nur und nächstes Jahr schmeißen die alle wieder weg und kaufen wieder Intel.
https://images.anandtech.com/doci/16640/Neoverse_Intro_10.png
amdfanuwe
2021-06-06, 16:18:29
Nochmals AMD hat sich für x86 und gegen ARM entscheiden, die werden es wohl besser Wissen als wir :wink:
Genau. Lisa sagte doch mal sinngemäß: Die bisherigen ARM Lösungen sind proprietär und sie sieht keinen Markt für eine schnelle general pupose ARM CPU.
Wenn die Kunden danach fragen ist AMD aber auch sicherlich schnell mit ARM dabei. Den X86 Decoder durch einen ARM Decoder im ZEN zu ersetzen dürfte fürs erste nicht der größte Aufwand sein.
Timbaloo
2021-06-06, 19:49:27
AMD hat kein Interesse an "general purpose" ARM-CPUs. Sie haben eine x86-Lizenz. Die wären blöd wenn sie ARM pushen würden. Die melken die Kuh so lange wie möglich und wenn dann die Dämme reissen schwenkt man auf ARM um und lassen sich von amdfans dafür feiern, dass man ja dem bösen proprietären x86 den Stecker gezogen hat.
w0mbat
2021-06-06, 19:54:18
RISC ist einfach beschränkt und hat gegen CISC keine Chance. ARM steht schon mit einem Bein im Grab.
Zossel
2021-06-06, 20:11:53
RISC ist einfach beschränkt und hat gegen CISC keine Chance. ARM steht schon mit einem Bein im Grab.
Wieviel RISC ist CISC und wieviel CISC ist RISC?
amdfanuwe
2021-06-06, 20:13:02
No risc, no fun
Timbaloo
2021-06-06, 20:15:23
RISC ist einfach beschränkt und hat gegen CISC keine Chance. ARM steht schon mit einem Bein im Grab.
:facepalm:
Daredevil
2021-06-06, 20:20:27
Mutig, das einen Tag vor der WWDC zu posten. :D
w0mbat
2021-06-06, 20:27:58
:facepalm:
Ja, das fasst ARM in einem Bild sehr gut zusammen.
mboeller
2021-06-06, 20:44:06
RISC ist einfach beschränkt und hat gegen CISC keine Chance. ARM steht schon mit einem Bein im Grab.
yep, du sagst es!
PS: irgendwie verstehen einige deinen Sarkasmus nicht. Keine Ahnung warum.
Nightspider
2021-06-07, 05:03:42
Fertigungstechnoligie ist nur eine Seite, die uArch die andere. Ein 5nm Produkt von 2020 mit einem Produkt von 2022 mit einem 2 Jahre neueren Design zu vergleichen ist ein verzerrter Vergleich. Bzw ein marktfremder. Dem Endkunden ist das alles total egal. Da zählt nur was kaufbar ist. 2022 hat Apple längst 1-2 neuere uArchs.
Das ist schon richtig was du sagst.
Vielleicht kam es etwas anders rüber was ich meinte. Viele fahren vor allem auf die gute Effizienz vom M1 ab und die ist auch toll aber das wird es bald auch für Windows geben. Und imo kommt man bald auch in einen Sättigungsbereich was die benötige Leistung angeht.
Wer nicht extrem anspruchsvolle Software auf dem Laptop laufen lässt kommt extrem weit mit der aktuellen Leistung und ich denke bzw. kann mir vorstellen das wir auch in 1,5 Jahren passiv gekühlte Windows Laptops mit extreme Laufzeit bekommen könnten, die für 90% aller Nutzer genügend Leistung haben.
Niemand braucht 30h Laufzeit aber diese 12-20h Laufzeit, welche die M1 Laptops, glaube ich, schaffen hätten Viele schon gerne bei einem Windows Laptop.
Viel mehr brauchen die meisten imo gar nicht. Noch ein guter Bildschirm ran und 90% der Kunden wären befriedigt, so denke ich mir das.
Cezanne -30% Verbrauch wäre schon genial und dann noch RDNA2 und eventuell gar V-Cache um die GPU richtig zu befeuern und die Effizienz noch weiter zu steigern, da könnte man so viel machen. Und davon würde mir eventuell schon eine 20W Variante reichen, die kurz hochboosten kann.
Zen3 war bei gleichem Verbrauch 20-30% schneller und auch effizienter. Ein Zen4 könnte bei reduziertem Verbrauch dank 5nm auch nochmal 30% Leistung drauflegen. Mit einer 20W APU würde man da auch schon geniale Leistung erhalten, denke ich.
Und die Tiger Lake Nachfolger werden sicherlich auch tolle CPUs. Bin mal gespannt wann Intels erste 7nm mobile CPUs kommen.
mboeller
2021-06-07, 07:13:38
... Cezanne -30% Verbrauch wäre schon genial ...
auch wenn es jetzt endgültig OT wird, die CPU ist IMHO inzwischen fast egal was die OnScreen-Zeit angeht. Und, das Notebook den ganzen Tag im Standby lassen um >20h Laufzeit zu erreichen ist imho auch nicht zielführend.
Da das Display die meiste Energie verbraucht bei "normaler Office-Arbeit" wäre so was hier imho zielführender: https://www.displayninja.com/igzo-vs-ips/
At the moment, the main advantage of IGZO is its very low power consumption. In comparison to the standard a-Si panel monitor, it is up to 80%-90% more power efficient due to the higher electron mobility, which is 20-50 times faster than that of a regular panel.
am besten kombiniert mit OLED
PS.: hab zumindest fast keine IGZD-Notebooks gefunden
y33H@
2021-06-07, 07:16:47
/falscher Thread
fondness
2021-06-07, 08:43:21
AMD hat kein Interesse an "general purpose" ARM-CPUs. Sie haben eine x86-Lizenz. Die wären blöd wenn sie ARM pushen würden. Die melken die Kuh so lange wie möglich und wenn dann die Dämme reissen schwenkt man auf ARM um und lassen sich von amdfans dafür feiern, dass man ja dem bösen proprietären x86 den Stecker gezogen hat.
AMD hat mit K12 eine "general purpose" ARM CPU entwickelt und war kurz vor der Markteinführung. Zu sagen sie hätten daran kein Interesse finde ich vor diesem Hintergrund etwas seltsam. Die x86-CPU war eigentlich bis dahin eher Beiwerk als Hauptprodukt. Erst als AMD gemerkt hatte, dass es für K12 keinen Markt gab, bzw. kein Kunde Interesse hatte wurde das Projekt eingestellt und man fokussierte sich voll auf x86.
Wenn der Markt danach verlangt wird AMD auch ARM-CPUs bauen. Wenn den Serverbereich ein ARM-Chiplet bereichern kann, gibts halt entsprechendes und das würd ich auch nicht für unwahrscheinlich halten.
Für den PC-Bereich ist ARM ne totale Illusion. Apple hat den Vorteil eine geschlossenen Ökosystems, die sind in der Lage dieses zu ändern. Auf dem PC mit einem offenen Ökosystem ist das schlichtweg illusorisch, es ist das alte viel diskutierte Problem. Ich frag mich aber, warum ARM immer als besser als x64 definiert wird. Das ist Blödsinn, beides hat Stärken und Schwächen. Früher war die Diskussion PPC vs. x86 übrigens ähnlich, die Protagonisten fallen hier auf den gleichen Blödsinn rein.
robbitop
2021-06-07, 10:31:30
IMO sollten sowohl AMD und Intel "absprungbereit" für ARM sein. Das Thema ARM ist so hoch dynamisch, dass man nicht sicher sagen kann, dass x86 auf alle Ewigkeiten ein valider Markt bleibt. Kann sein, muss aber nicht. Wenn der Umbruch kommt, sollte man dabei sein. Idealerweise sogar schon ein bisschen vorher.
Da das nicht aus dem kalten Stand geht und die erste Iteration nie perfekt ist, sollte man also schon langsam anfangen.
fondness
2021-06-07, 11:12:29
IMO sollten sowohl AMD und Intel "absprungbereit" für ARM sein. Das Thema ARM ist so hoch dynamisch, dass man nicht sicher sagen kann, dass x86 auf alle Ewigkeiten ein valider Markt bleibt. Kann sein, muss aber nicht. Wenn der Umbruch kommt, sollte man dabei sein. Idealerweise sogar schon ein bisschen vorher.
Da das nicht aus dem kalten Stand geht und die erste Iteration nie perfekt ist, sollte man also schon langsam anfangen.
Intel geht mit x86 unter (was IMO nicht passieren wird). Die verwenden doch nicht eine fremd-ISA, die dann möglicherweise sogar Nvidia gehört, wenn sie heute alles in der Hand haben. Das war auch der Grund, warum AMD damals Richtung ARM schielte. Heute ist die Situation natürlich eine andere, wenn der NV-Deal durchgeht und ARM kein unabhängiges Unternehmen mehr ist das selbst keine Konkurrenzprodukte anbietet.
robbitop
2021-06-07, 11:22:26
Tja wie du schon sagst - das kann selbst für Intel schief gehen. Intel ist aber so groß und hat so viel Reserven, dass sie wahrscheinlich viele Jahre "auf die Mütze" bekommen könnten, sich langsam an eine andere ISA anpassen könnten und dann immer noch leben würden. :D
Den Luxus hat AMD nicht. Zum Glück scheint AMD wendiger zu agieren.
Die Dynamik um ARM hat ja massiv zugenommen. Siehe mehrere Anfahrversuche von Microsoft. Es kommen nun auch immer mehr ARM Devices für Windows raus. Die Produkte sind noch nicht großartig - aber dank Apples ARM Vorstoß unter enormen Innovationsdruck. Und das wird für Fortschritt sorgen.
Gerade für Low Power scheint sich da ja zu lohnen. Und man darf nicht vergessen, dass die meisten CPUs dank mobile heutzutage bereits ARM sind. Die installed basis ist groß...
Mich würde es nicht wundern, wenn x86 langfristig immer unbedeutender werden wird. Aber wissen kann man das natürlich nie. :D
Außerdem ist da ja auch noch RISC-V. Wer weiß was mit dieser ISA über die nächsten Jahrzehnte passiert. Gerade auch im Zusammenhang mit China und der USA Außenpolitik.
Das betrifft wenn dann aber nur den Servermarkt. Im Consumerbereich bleibt alles bei x64. Klar gibts hier und das ARM-Ausnahmen, die sind aber auf bestimmte Märkte beschränkt.
Im Serverbereich wird AMD mMn auf jeden Fall auch schon an ARM-Lösungen arbeiten, bei Intel ist das schwer zu sagen, nach deren Firmenpolitik in der Vergangenheit zu urteilen wohl eher nein.
robbitop
2021-06-07, 12:07:11
Das betrifft wenn dann aber nur den Servermarkt. Im Consumerbereich bleibt alles bei x64. Klar gibts hier und das ARM-Ausnahmen, die sind aber auf bestimmte Märkte beschränkt.
Im Serverbereich wird AMD mMn auf jeden Fall auch schon an ARM-Lösungen arbeiten, bei Intel ist das schwer zu sagen, nach deren Firmenpolitik in der Vergangenheit zu urteilen wohl eher nein.
"Nur" den Servermarkt ist aber eine Untertreibung. ;) Server und HPC sind die gewinnträchtigsten Märkte. Erst danach kommen Laptops und erst dann Desktop.
Ich bin der Meinung, dass man es für keinen dieser Märkte sicher wissen kann. Das kann auch schnell mal ein Domino sein. Die Dynamik ist IMO aktuell höher als schon lange nicht mehr.
BlacKi
2021-06-07, 12:08:52
adata bringt q3 ddr5 6000-7400 memory, der mit oc 12600 mhz mitmachen soll.
https://youtu.be/D2mih653104?t=67
CrazyIvan
2021-06-07, 12:26:10
@robbitop
+1 für die letzten Beiträge
davidzo
2021-06-07, 14:00:01
"Nur" den Servermarkt ist aber eine Untertreibung. ;) Server und HPC sind die gewinnträchtigsten Märkte. Erst danach kommen Laptops und erst dann Desktop.
Ich bin der Meinung, dass man es für keinen dieser Märkte sicher wissen kann. Das kann auch schnell mal ein Domino sein. Die Dynamik ist IMO aktuell höher als schon lange nicht mehr.
Nicht wirklich. Client computing ist bei Intel nicht nur doppelt soviel Umsatz (11 vs 6mrd pro quartal), sondern auch die Op-margin ist mittlerweile höher (41% vs 32% in Q4'20). Und da sind hochprofitable Sparten wie networking etc. schon mit eingerechnet.
Mit so 90er Jahr Kategorien wie "Server" und "Desktop" ist die Diskussion eh nicht zielführend. Notebooks und Desktopcomputer sind eh dieselben Kanäle, OEMs, Kunden, die auch mit nahezu derselben Technologie bedient werden können. Die Differenzierung im Datacenter ist dagegen real und da sind völlig unterschiedliche Produkte nötig, in Zukunft noch unterschiedlicher als ohnehin schon.
HPC ist zwar am Wachsen, aber nach wie vor kein großer Markt und erst recht keiner wo man gute Margen hat, dazu wird zu hart verhandelt. Man kann froh sein dass man damit keine Verluste macht und ein bisschen die dafür notwendige Forschung refinanzieren kann.
Der klassische Enterprise-Server-Markt ist zwar sehr margenstark, aber seit über zehn Jahren am schrumpfen, wegen dem Umbruch zu Cloud und Saas.
Für Enterprise interessiert sich niemand mehr, und die die sich interessieren wollen alle nur irgendwie ihren Job retten.
Die Hyperscaler wiederum, also die Betreiber der Cloud- und Saas-Lösungen verhandeln durchaus stark, da sind die Margen nicht so goldig. Die haben außerdem ihre Software in der Hand und damit keine Probleme sich mit anderen ISAs anzufreunden oder direkt auf GPU-Beschleunigung, custom hardware (google TPUs, VCUs) etc. zu setzen. Selbst Microsoft und Facebook haben mittlerweile custom chip Abteilungen gegründet und werden bald den Absprung wagen.
Die CPU wird da mehr und mehr zum Nebenschauplatz, taucht in der BOM aus RAM, Networking, Power Grid, Thermal, Storage, etc. kaum noch auf, geschweige denn in der TCO.
Bloß weil der "Datacenter" - Markt ein nie dagewesenes Wachstum aufzeigt, heißt das noch lange nicht dass da auch für Intel und AMD so viel bei herum kommt.
Der einzige Wachstumsmarkt in denen man mit CPUs aktuell einigermaßen einen Stich machen kann sind Telco-Datacenter. Das sind CDNs, DNS und andere webserver damit von fibre und 5G überhaupt etwas ankommt. Da ist networking und FPGA zwar auch ganz groß, aber da haben Asics und custom cpus bisher noch nicht so stark übernommen wie bei den hyperscalern.
Der Client Markt für CPUs ist nach wie vor viel größer. Es macht also Sinn wenn man sich bei den Kapazitäten zuerst auf Alderlake konzentriert und den Servermarkt zur not etwas weiter bluten lässt.
Aber auch da sehe ich Chancen für andere ISAs. Windows on ARM ist zwar dilettantisch gestartet, aber lebendig und real und wird sich über chromebooks in Schulen und einigen Unternehmen durchsetzen. Und im Client wäre macOS jetzt schon die bessere Alternative für die meisten Nutzer, erst recht wo die Geräte sogar schon die bessere preis-leistung aufweisen als vergleichbar performende Ultrabooks. Dass Apple seit dem M1 zweistellige Wachstumszahlen für Macs aufweisen konnte kommt nicht von ungefähr. Das wird aber eine weile Dauern und Wintel bleibt durchaus Zeit zu einigen Gegenschlagsversuchen die den Zuwachs wieder egalisieren könnten.
CrazyIvan
2021-06-07, 14:17:36
@davidzo
+1 und danke für konkrete Zahlen zur Verteilung. Haben mich ein Stück weit doch überrascht.
MacOS und die CPU können noch so toll sein, es ist aber eben keine Alternative. Es ist schlichtweg was Anderes. Das ist ein geschlossenes System. Wenn man das will, ist Apple Pflicht, der riesengroße Teil der Anwender will aber ein offenes System. MacOS ist schon seit Jahrzehnten besser als Windows, das spielt aber einfach keine Rolle. Deiser Hype ist so bescheuert, weil das einfach am Thema vorbei ist.
Bezüglich Server hat davidzo aber Recht, das verändert sich stetig. Hier ist oftmals aber Kompatiblität nicht so wichtig, je nach Anwendungsbereich. Ich würde da sogar noch viel weiter gehen, dass es irgendwann so ist wie es gestartet ist, nämlich eigene ISAs oder ISAs auf RiscV-Basis oder ähnliches. ARM ist hier eher ein Übergang zur Freiheit aus der Intel-Dominanz durch Amazon, Google, Huawei usw.
Leonidas
2021-06-07, 15:09:25
MacOS ist schon seit Jahrzehnten besser als Windows, das spielt aber einfach keine Rolle.
Für mich als jemanden, der sich mit den jeweiligen Unzulänglichkeiten herumrärgern muß: Niemals. Bei Windows kann man trotz aller Schwächen immer noch zum Ziel gelangen. Bei MacOS gehen gewisse Dinge einfach nicht, es fehlen entsprechende Optionen & Tools.
Leonidas
2021-06-07, 15:10:31
BTT:
Hassan Mujtaba (WCCF Tech) @ Twitter
https://twitter.com/hms1193/status/1401857902009372672
ADL-S CPU
20 Gen 5.0 Lanes
(x16 GPU / x4 NVMe)
DMI 4.0 x8
Z690 PCH: x4 Gen 4.0
Z690 boards will have PCIe 5.0 slots
Also eigentlich DMI4x mMn, nur 4x für die PCIs4-SSD reserviert. Rest ist PCIe3 und hängt an 4x.
Mangel76
2021-06-07, 15:46:38
MacOS und die CPU können noch so toll sein, es ist aber eben keine Alternative. Es ist schlichtweg was Anderes. Das ist ein geschlossenes System. Wenn man das will, ist Apple Pflicht, der riesengroße Teil der Anwender will aber ein offenes System. MacOS ist schon seit Jahrzehnten besser als Windows, das spielt aber einfach keine Rolle. Deiser Hype ist so bescheuert, weil das einfach am Thema vorbei ist.
Hier muss man schon etwas genauer hinschauen, es gibt nicht nur eine Art von Konkurrenz. Kann ich nicht den gleichen Markt bedienen, kann man immer noch ein Substitut anbieten. Auch wenn die Telekom das Monopol beim Telefonnetz hat, gibt es Substitute für die angebotenen Leistungen: Mobilfunk als Alternative zum Festnetz, Kabelnetz und 4G bzw. 5G für den DSL-Anschluss. Dafür bietet die Telekom auch Fernsehen über DSL in Konkurrenz zum Kabelnetz an.
Natürlich kann man mit einem Apple-Gerät nicht alles das machen, was man mit einem Windows-Gerät machen kann. Viele brauchen diese Dinge aber nicht und für Internet, Medien und ein bisschen Bürokram tut es auch ein Apple. Andere Dinge kann Apple sogar besser. Daher stehen sie sehr wohl miteinander in Konkurrenz aus Sicht vieler Kunden, die ein Gerät benötigen für ihre persönlichen Anwendungsszenarien. Konkurrenz setzt nicht Identität voraus, nur die Erfüllung der gleichen Bedürfnisse.
Ja aber dafür ist Apple viiieel zu teuer. Die Diskussion führt zu nichts. Apple ist speziell, immer schon gewesen und das wird sich nicht ändern. Die machen nicht jetzt wegen dem M1 wer weiss wieviel Marktanteil, das ist schlichtweg Unsinn. Es gibt einen Apple-Markt, der wird bedient und der ist nur ganz wenig Durchlässig zu anderen Märkten.
Ich denke auch, dass es Apple schlichtweg billiger kommt eigene CPUs für die eigene Infrastruktur zu entwickeln und produzieren zu lassen anstatt die gesamte Hardware einkaufen zu müssen. Dass das im Computerbereich jetzt auch so ist, ist schlichtweg ein Synergieeffekt zum Mobiltelefonmarkt. Die CPU und GPU-Entwicklerteams hat man ja eh.
Thunder99
2021-06-07, 16:03:48
BTT:
Hassan Mujtaba (WCCF Tech) @ Twitter
https://twitter.com/hms1193/status/1401857902009372672
ADL-S CPU
20 Gen 5.0 Lanes
(x16 GPU / x4 NVMe)
DMI 4.0 x8
Z690 PCH: x4 Gen 4.0
Z690 boards will have PCIe 5.0 slots
Nutzen für Desktop = 0 (PCI Express 5.0)
Dennoch nicht schlecht.
Es ist dennoch ein Vorteil.
PEG -> 16x PCIe5
1. m.2 -> 4x PCIe5
2. m.2 -> 4x PCIe4
Rest PCIe3
AMD hat bei den x70X-Chipsätzen eben durchgehend PCIE4.
Der Praxisnutzen ist halt so oder so so ne Sache.
davidzo
2021-06-07, 16:44:17
MacOS und die CPU können noch so toll sein, es ist aber eben keine Alternative. Es ist schlichtweg was Anderes. Das ist ein geschlossenes System. Wenn man das will, ist Apple Pflicht, der riesengroße Teil der Anwender will aber ein offenes System. MacOS ist schon seit Jahrzehnten besser als Windows, das spielt aber einfach keine Rolle. Deiser Hype ist so bescheuert, weil das einfach am Thema vorbei ist.
Es ist schlicht das Trauma von der ewigen lernkurve von Windows was die meisten leute abhält etwas anderes zu probieren. Da viele aber auch ein iphone haben ist der Schritt nicht mehr so weit wie er mal war, vor allem wenn man nicht spielt.
Für mich als jemanden, der sich mit den jeweiligen Unzulänglichkeiten herumrärgern muß: Niemals. Bei Windows kann man trotz aller Schwächen immer noch zum Ziel gelangen. Bei MacOS gehen gewisse Dinge einfach nicht, es fehlen entsprechende Optionen & Tools.
Kommt drauf an was man macht, die Karte kann man auch anders herum spielen. Windows fehlen viele shelltools die macOS hat, keine build-umgebung wie homebew, keinen automator, etc. Nicht jeder mag in visual studio herumklicken, manche programmieren auch lieber richtig und da ist macOS meist die bessere basis. Dass Windows nicht zu anspruchsvoller foto oder videobearbeitung taugt muss ich ja gar nicht sagen, das hat ja nichtmal eine farbverwaltung nach all den Jahren.
Was für optionen und tools meinst du denn?
Ja aber dafür ist Apple viiieel zu teuer.
War. Mittlerweile ist schon das entrylevel Macbook Air günstiger und schneller als jedes Microsoft surface oder vergleichbare ultrabooks. Nebenbei mehr Akkulaufzeit btw. Auch zum 4,5K imac gibt es keine preisliche Alternative, eine Windowslösung ist doch viiieel teurer.
Gerade im entrylevel bereich um die 900-1500€ ist Apple gerade mit dem Air, imac, ipad pro extrem gut aufgestellt.
maximus_hertus
2021-06-07, 16:48:06
Das riecht doch (PCIe 5.0) nach neuen Preisrekorden bei den Mainboards...
Ich sehe es schon:
Value Z690: rauf auf 200 - 230 Euro
Ordentliche Z690: rauf auf 270 - 350 Euro
Gute Z690: rauf auf 400 - 500 Euro
Flagship Z690: ab 600 Euro und mehr
Wenn ich dann an 2016/2017 zurück denke, da hatten wir "Value" Z270 Boards (ASrock Pro Serie, ASUS Prime Serie) für 110 - 130 Euro im Shop. Das ASUS Hero mit Z270 bei rund 275 Euro und das ASUS Formula mit Z270 für rund 350 Euro.
Im Prinzip werden sich in weniger als 5 Jahren die Preise mehr oder weniger verdoppelt haben. Autsch.
Eine gewisse Preiserhöhung ist ja normal, aber bei den Mainboards ist das teils echt heftig. Ist mir schon länger aufgefallen, dass es da von Gen zu Gen teils deutlich teurer wird.
aufkrawall
2021-06-07, 17:14:03
Liegt teilweise auch an der immer bekloppter werdenden "Gaming"-Brand-Abzocke. Zumindest einzelne Boards haben dann ein weit besseres P/L-Verhältnis.
Gibt ja jetzt auch RAM-OC mit dem B-Chipsatz.
Platos
2021-06-07, 17:21:59
Ja, selbes Spiel wie mit "Gaming-" Mäusen, -Tastaturen, Grafikkarten (viel Bling Bling), Gehäusen, Komplett-PCs, Lüfter, Kabel, Monitore...
Ja alles eig. Dumm kauft gut...quasi.
Thunder99
2021-06-07, 18:07:28
Die Mainboards werden auch immer komplexer, siehe auch dass sie immer mehr Layers haben.
Leonidas
2021-06-07, 18:12:44
Was für optionen und tools meinst du denn?
Bei mir geht es meistens nur darum, Normalbürger ihre Probleme zu lösen. Da finde ich MacOS bei weitem nicht so freundlich gelöst wie Windows, wo man wirklich alles machen und tunen kann - ganz wie es der Benutzer wünscht.
Zossel
2021-06-07, 18:58:20
Da viele aber auch ein iphone haben ist der Schritt nicht mehr so weit wie er mal war, vor allem wenn man nicht spielt.
Reden wir von den selben Iphones? Ich kenne nur die Iphones die 15% Marktanteil haben. Oder haben wir unterschiedliche Definitionen von "Viele"?
davidzo
2021-06-07, 21:40:36
Reden wir von den selben Iphones? Ich kenne nur die Iphones die 15% Marktanteil haben. Oder haben wir unterschiedliche Definitionen von "Viele"?
ahem, bisschen von gestern deine Daten. 23,4% in Q4'20? Und beim Umsatz gute 50% Anteil und beim Gewinn wahrscheinlich 80-90% wenn man den chinesischen handset zulieferern glaubt.
Wir reden hier vom Weltmarktanteil nach Stückzahl, da zählt also auch jedes Einstiegs Galaxy das für 70€ in Afrika über die Theke geht mit rein. In westlichen Ländern ist der Marktanteil aber viel größer, in UK z.B. bei knapp 40%.
Was man dabei auch nicht vergessen darf ist dass das nur Verkaufzahlen sind, keine Nutzungszahlen. Da iphones in der Regel für längere Zyklen gekauft werden als das durchschnittliche Android Telefon und einen größeren gebrauchtmarkt haben, liegt die Nutzungszahl über den verkauften Stückzahlen.
Das kann man gut an den Statistiken zur mobilen Browsernutzung erkennen. Chrome auf Android hat in Deutschland 50%, Safari auf iOS 32%. Also wesentlich mehr als die verkauften Stückzahlen suggerieren. Btw, in UK führt iOS sogar mit 50,6% die Charts an.
Man Leute, ihr könnt nicht immer dieselben alten Halbwahrheiten wiederholen, das wirkt echt langsam senil. Wieso nicht gleich weiter Blackberry OS?
Bei mir geht es meistens nur darum, Normalbürger ihre Probleme zu lösen. Da finde ich MacOS bei weitem nicht so freundlich gelöst wie Windows, wo man wirklich alles machen und tunen kann - ganz wie es der Benutzer wünscht.
:freak: Gerade bei den täglichen Anwendungen für Normalbürger sehe ich macOS meilenweit vor Windows10 :wink:
Hier spricht jemand der vor drei-vier Jahren erst selber umgestiegen ist und jahrelang noch Windows Bootcamp auf einem von der arbeit mitgegebenen Macbook betrieben hat. Ich habe dann irgendwann mal gemessen wieviele Klicks und sinnlosdialoge ich mir bei täglichen Anwendungen in macOS spare und wieviel Zeit das einspart. Es waren an die 50% :eek:
Einem wird da erst richtig bewusst wie Wirr uns sinnlos die Windows Menüs und steuerungsdialoge doch sind, die miese englisch verdeutschung, die registry ohne die nichts geht, die vielen User-verunsicherungen und redundanten bestätigungsdialoge, etc.
Ne echt, da hättest du jetzt mal Fakten nennen können, so klingt das für mich echt wie ein vorgeschobenes argument, nicht danach als hätte da jemand ernsthaft erfahrungen gesammelt. Alleine schon "probleme von normalbürgern", das ist echt windows mindset :wink: also ich "nutze lieber anwendungen" und habe keine probleme mit dem OS.
Zossel
2021-06-07, 22:07:24
Gerade bei den täglichen Anwendungen für Normalbürger sehe ich macOS meilenweit vor Windows10
Wenn das dein Maßstab ist, da tut es locker auch ein Linux. (Free Appstores since 1997)
Und immer diese First-World Denke ......
Es ist schlicht das Trauma von der ewigen lernkurve von Windows was die meisten leute abhält etwas anderes zu probieren. Da viele aber auch ein iphone haben ist der Schritt nicht mehr so weit wie er mal war, vor allem wenn man nicht spielt.
Das ist nicht das Problem.
Kommt drauf an was man macht, die Karte kann man auch anders herum spielen. Windows fehlen viele shelltools die macOS hat, keine build-umgebung wie homebew, keinen automator, etc. Nicht jeder mag in visual studio herumklicken, manche programmieren auch lieber richtig und da ist macOS meist die bessere basis. Dass Windows nicht zu anspruchsvoller foto oder videobearbeitung taugt muss ich ja gar nicht sagen, das hat ja nichtmal eine farbverwaltung nach all den Jahren.
Was für optionen und tools meinst du denn?
Das nutzen 99% der Anwender nicht. Dem ist es außerdem schnurz, hauptsache man kommt zum Ziel. Windows ist doch da sehr problemlos.
War. Mittlerweile ist schon das entrylevel Macbook Air günstiger und schneller als jedes Microsoft surface oder vergleichbare ultrabooks. Nebenbei mehr Akkulaufzeit btw. Auch zum 4,5K imac gibt es keine preisliche Alternative, eine Windowslösung ist doch viiieel teurer.
Gerade im entrylevel bereich um die 900-1500€ ist Apple gerade mit dem Air, imac, ipad pro extrem gut aufgestellt.
;D ymmd, ernsthaft. Enrty Level, aha. Als wenn das der Löwenanteil der Produkte wäre.
davidzo quixote kämpft einen völlig sinnlosen Kampf auf einer Front, die es gar nicht gibt. Apple bietet Exklusivprodukte. Und wenn die Produkte billiger werden bedeutet das wohl eher, dass sie sich mittlerweile schlichtweg der Konkurrenz stellen müssen. Vorbei sind die Zeiten von Windows 98, Vista. Microsoft hat i.Ü. versucht den Apple-Weg mit 8 und 10x einzuschlagen, also geschlossene Ökosysteme zu schaffen, beides floppte total.
davidzo
2021-06-07, 22:23:50
Wenn das dein Maßstab ist, da tut es locker auch ein Linux. (Free Appstores since 1997)
Ja, würde es tun. Leider hatte ich selbst als alter Thinkpadnutzer immer meine probleme damit alle Treiber zum laufen zu bekommen und alle Basistools so eizustellen wie ich es mir wünsche bzw. es am meisten zeit spart. Bis ich einigermaßen zufrieden war kam ein großes neues Update das manche meiner händischen Änderungen wieder zerschossen hat. Irgendwas ist immer, schlechte broadcom wifitreiber, keine switchable graphics, Akkulaufzeit unterdurchschnittlich, wacht nicht mehr auf aus dem standby, helligkeitssensor für display geht nicht, touchpad nur ohne multitouch...
MacOS ist für mich ein Linux mit Herstellersupport, stabilen Treibern, sensible Defaults und einer Auswahl an richtig guten mitgelieferten Programmen (keychain, spotlight, imovie, pages, mail, notes, etc.).
Nu aber genug Ot hier, sorry :weg:
Um auf wombats Ausgangspost zu dieser Diskussion zurück zu kommen:
Man kann nur hoffen dass nun die Bewegung in x86 reingekommen ist, welche im letzten Jahrzehnt fehlte. Und Alderlake könnte der erste Schritt sein, in jedem Fall aber weiteres learning für intel.
Wie man an der WWDC heute dehen konnte hab es keine neuen Macs: Apple lässt sich also mehr Zeit um den aktuellen M1 Vorsprung bei Ultramobilgeräten in Form von M2 desktop- und pro grade SOCs auszubauen. Das können Intel und AMD jetzt nutzen.
Als wenn Apple soweit enteilt wäre :freak:. Das ist vielleicht ein Nonsens.
KarlKastor
2021-06-07, 22:36:58
Wir reden hier vom Weltmarktanteil nach Umsatz, da zählt also auch jedes Einstiegs Galaxy das für 70€ in Afrika über die Theke geht mit rein.
Verstehe die Logik nicht. Du redest davon dass eh viele ein iPhone haben, also von Stückzahl. Der Umsatz-Marktanteil von Apple ist viel natürlich höher als an Stückzahl gemessen.
Zudem muss man schon das Jahresmittel nehmen, da nun mal alle unterschiedlich releasen.
Leonidas
2021-06-08, 06:46:42
:freak: Gerade bei den täglichen Anwendungen für Normalbürger sehe ich macOS meilenweit vor Windows10 :wink:
Hier spricht jemand der vor drei-vier Jahren erst selber umgestiegen ist und jahrelang noch Windows Bootcamp auf einem von der arbeit mitgegebenen Macbook betrieben hat. Ich habe dann irgendwann mal gemessen wieviele Klicks und sinnlosdialoge ich mir bei täglichen Anwendungen in macOS spare und wieviel Zeit das einspart. Es waren an die 50% :eek:
Einem wird da erst richtig bewusst wie Wirr uns sinnlos die Windows Menüs und steuerungsdialoge doch sind, die miese englisch verdeutschung, die registry ohne die nichts geht, die vielen User-verunsicherungen und redundanten bestätigungsdialoge, etc.
Augenscheinlich unterschiedliche Erfahrungen, möglicherweise wegen unterschiedlicher Aufgabenstellungen.
Möglicherweise stoße ich bei MacOS auf so viele Limitiationen, weil ich zu sehr Windows gewohnt bin. Umgedreht könnte es eventuell genauso sein.
Okay, nun aber BTT.
robbitop
2021-06-08, 09:30:10
Nicht wirklich. Client computing ist bei Intel nicht nur doppelt soviel Umsatz (11 vs 6mrd pro quartal), sondern auch die Op-margin ist mittlerweile höher (41% vs 32% in Q4'20). Und da sind hochprofitable Sparten wie networking etc. schon mit eingerechnet.
Mit so 90er Jahr Kategorien wie "Server" und "Desktop" ist die Diskussion eh nicht zielführend. Notebooks und Desktopcomputer sind eh dieselben Kanäle, OEMs, Kunden, die auch mit nahezu derselben Technologie bedient werden können. Die Differenzierung im Datacenter ist dagegen real und da sind völlig unterschiedliche Produkte nötig, in Zukunft noch unterschiedlicher als ohnehin schon.
HPC ist zwar am Wachsen, aber nach wie vor kein großer Markt und erst recht keiner wo man gute Margen hat, dazu wird zu hart verhandelt. Man kann froh sein dass man damit keine Verluste macht und ein bisschen die dafür notwendige Forschung refinanzieren kann.
Der klassische Enterprise-Server-Markt ist zwar sehr margenstark, aber seit über zehn Jahren am schrumpfen, wegen dem Umbruch zu Cloud und Saas.
Für Enterprise interessiert sich niemand mehr, und die die sich interessieren wollen alle nur irgendwie ihren Job retten.
Die Hyperscaler wiederum, also die Betreiber der Cloud- und Saas-Lösungen verhandeln durchaus stark, da sind die Margen nicht so goldig. Die haben außerdem ihre Software in der Hand und damit keine Probleme sich mit anderen ISAs anzufreunden oder direkt auf GPU-Beschleunigung, custom hardware (google TPUs, VCUs) etc. zu setzen. Selbst Microsoft und Facebook haben mittlerweile custom chip Abteilungen gegründet und werden bald den Absprung wagen.
Die CPU wird da mehr und mehr zum Nebenschauplatz, taucht in der BOM aus RAM, Networking, Power Grid, Thermal, Storage, etc. kaum noch auf, geschweige denn in der TCO.
Bloß weil der "Datacenter" - Markt ein nie dagewesenes Wachstum aufzeigt, heißt das noch lange nicht dass da auch für Intel und AMD so viel bei herum kommt.
Der einzige Wachstumsmarkt in denen man mit CPUs aktuell einigermaßen einen Stich machen kann sind Telco-Datacenter. Das sind CDNs, DNS und andere webserver damit von fibre und 5G überhaupt etwas ankommt. Da ist networking und FPGA zwar auch ganz groß, aber da haben Asics und custom cpus bisher noch nicht so stark übernommen wie bei den hyperscalern.
Der Client Markt für CPUs ist nach wie vor viel größer. Es macht also Sinn wenn man sich bei den Kapazitäten zuerst auf Alderlake konzentriert und den Servermarkt zur not etwas weiter bluten lässt.
Aber auch da sehe ich Chancen für andere ISAs. Windows on ARM ist zwar dilettantisch gestartet, aber lebendig und real und wird sich über chromebooks in Schulen und einigen Unternehmen durchsetzen. Und im Client wäre macOS jetzt schon die bessere Alternative für die meisten Nutzer, erst recht wo die Geräte sogar schon die bessere preis-leistung aufweisen als vergleichbar performende Ultrabooks. Dass Apple seit dem M1 zweistellige Wachstumszahlen für Macs aufweisen konnte kommt nicht von ungefähr. Das wird aber eine weile Dauern und Wintel bleibt durchaus Zeit zu einigen Gegenschlagsversuchen die den Zuwachs wieder egalisieren könnten.
@davidzo
+1 und danke für konkrete Zahlen zur Verteilung. Haben mich ein Stück weit doch überrascht.
Dito. Sehr guter Beitrag von davidzo. :up: Nichts desto trotz bleibt auch das nicht statisch in Hinblick auf ISA. Alle Märkte könnten zu einer anderen ISA kippen. Über die nächsten Jahrzehnte kann das niemand mit Sicherheit sagen.
Auch kann das Domino auch dadurch kippen, dass Teile der Sparten an ARM fallen. Entsprechend stellt sich irgendwann auch für AMD und Intel die Frage, wozu dann 2x ISAs durchschleppen? :)
CrazyIvan
2021-06-08, 10:38:58
@davidzo
+1 für die Beiträge zum Thema Apple vs. Rest der Welt.
Ich denke, das Thema ist ausdiskutiert. Es gibt diejenigen, die den Anteil potenzieller Apple Kunden am Gesamtmarkt als Universalkonstante betrachten und die, die das anders sehen. Ich zähle mich ebenfalls zu letzteren.
rentex
2021-06-10, 05:43:20
https://videocardz.com/newz/intel-allegedly-planning-raptor-lake-cpus-with-24-cores-and-alder-lake-hx-series-for-enthusiast-notebook-series
Das liest sich wie "Das Imperium schlägt zurück"... ;-D
CrazyIvan
2021-06-10, 06:36:18
Finde ich interessant, dass Intel die Relation stark zu den little Cores verschiebt, wohingegen Apple in die andere Richtung zu gehen scheint. Und das, obwohl bei letzterem PPW, PPA und sehr wahrscheinlich auch PPC besser zu sein scheint.
dildo4u
2021-06-10, 06:46:06
Scheint logisch die fetten Kerne wurden mit AVX512 aufgeblasen, die Atom Kerne können es nicht.
https://en.wikichip.org/wiki/intel/microarchitectures/gracemont
Apples fette Kerne sind vermutlich immer noch deutlich kleiner als Golden Cove.
fondness
2021-06-10, 07:55:41
Finde ich interessant, dass Intel die Relation stark zu den little Cores verschiebt, wohingegen Apple in die andere Richtung zu gehen scheint. Und das, obwohl bei letzterem PPW, PPA und sehr wahrscheinlich auch PPC besser zu sein scheint.
Apple hat halt auch effiziente big Cores, Intel nicht.
dildo4u
2021-06-10, 08:08:44
Laut dem Leak scheint Intel King für Gaming zu werden, da AMD vermutlich keine Low End Modelle mit 3D Cache bringen wird wird sher interresant.
Bin gespannt ob Team Rot es ernst meint und die Lösung der 5600G sein wird der sogar noch beschnitten ist.
fondness
2021-06-10, 08:31:57
Laut dem Leak scheint Intel King für Gaming zu werden, da AMD vermutlich keine Low End Modelle mit 3D Cache bringen wird wird sher interresant.
Bin gespannt ob Team Rot es ernst meint und die Lösung der 5600G sein wird der sogar noch beschnitten ist.
AMD kann den 3D-Cache sehr flexibel und sehr kurzfristig dort einbauen wo es Sinn macht. Zumal Intel schlecht King werden kann wenn AMD die Performace-Krone hält.
dildo4u
2021-06-10, 08:39:12
Es scheint sich im Low End nicht zu rechnen, der Leaker erwartet z.b das der 5800X einfach billiger wird ich vermute für Rund 300€.
Und der Ersatz mit 3D Cache wieder bei 450€ einsteigt.
CrazyIvan
2021-06-10, 08:54:13
Apple hat halt auch effiziente big Cores, Intel nicht.
Exakt das habe ich mir dabei auch gedacht.
robbitop
2021-06-10, 08:56:17
Naja die Frage ist wieviel davon Betriebspunkt ist. Die Firestorms takten deutlich niedriger als Intels Cores. Je nach Punkt auf der Kennline braucht man da natürlich viel mehr Spannung die ja quadratisch eingeht.
Der_Korken
2021-06-10, 10:09:44
Naja die Frage ist wieviel davon Betriebspunkt ist. Die Firestorms takten deutlich niedriger als Intels Cores. Je nach Punkt auf der Kennline braucht man da natürlich viel mehr Spannung die ja quadratisch eingeht.
Dafür ist die IPC so hoch, dass die trotzdem mit Intels 5Ghz Cores mithalten können. Wobei der niedrige Takt wohl eher durch das Design zustande kommt als durch einen gewählten Betriebspunkt (wenn die Firestorm-Kerne 5Ghz mit LuKü schaffen würden, dann hätten Intel und AMD aber die nächsten Jahre nichts zu lachen).
Eigentlich könnte ein Mod mal diesen ganzen Apple-Quatsch ersatzlos löschen, ist hier schlichtweg ot und das meiste davon stumpfes Fanboygelaber.
BlacKi
2021-06-10, 10:27:42
Dafür ist die IPC so hoch, dass die trotzdem mit Intels 5Ghz Cores mithalten können. Wobei der niedrige Takt wohl eher durch das Design zustande kommt als durch einen gewählten Betriebspunkt (wenn die Firestorm-Kerne 5Ghz mit LuKü schaffen würden, dann hätten Intel und AMD aber die nächsten Jahre nichts zu lachen).
ist das nicht eher auf den zusätzlichen dram zurückzuführen, den intel einfach nicht hat. die featureliste man die intels halt fett. und dann ist apple doch schon fertigungstechnisch meilenweit vorraus.
Platos
2021-06-10, 10:38:44
@dildo4u: Inwiefern steht da, das Intel Gamingking wird? Es liest sich eher so, als wolle Intel mit Raptor Lake mehr "billige" Kerne ins Rennen schmeissen. So nach dem Motto: "seht her, wir haben den Grössten".
Und bei Alderlake steht ja auch nicht bezüglich Gamingleistung. Was will ich mit 16 Kernen und 24 Threads? Ich wüsste nicht, inwiefern dass die Gamingleistung signifikant ateigern würde. Oder fällt hier jemand auf das "double perfomance" rein? Das zählt doch nur bei Anwendungen, die jeden Kern 1A auslasten können :D
Gamingking wird der Ryzen mit VCache, das ist klar, da kann ADL nicht mithalten, selbst wenn er mehr IPC hat. Für Spiele war aber I/O schon immer wichtiger, das hat Broadwell beeindruckend demonstriert. RTL soll ja auch einen "GamingCache" bekommen, interessant wäre nur, was damit gemint ist.
dildo4u
2021-06-10, 10:44:11
@dildo4u: Inwiefern steht da, das Intel Gamingking wird? Es liest sich eher so, als wolle Intel mit Raptor Lake mehr "billige" Kerne ins Rennen schmeissen. So nach dem Motto: "seht her, wir haben den Grössten".
Und bei Alderlake steht ja auch nicht bezüglich Gamingleistung. Was will ich mit 16 Kernen und 24 Threads? Ich wüsste nicht, inwiefern dass die Gamingleistung signifikant ateigern würde. Oder fällt hier jemand auf das "double perfomance" rein? Das zählt doch nur bei Anwendungen, die jeden Kern 1A auslasten können :D
Der 11400f ist die mit Abstand beste CPU was Preis/Leistung fürs zocken angeht.
8Jkl1nQVPUw
Wenn Intel dort nur 10% IPC draufpakt müsste AMD auch bei den Low End Modelle 3D Cache verbauen was ich nicht glaube.(zu Teuer in der Produktion)
Müssten sie nicht, sie müssten den 5600 endlich mal in diese Märkte tragen. Ob das jetzt ein Cezanne oder ein Vermeer ist, spielt dabei eine eher untergeordnete Rolle. Da ist immer noch alles Zen2, warum auch immer.
BlacKi
2021-06-10, 10:48:38
Gamingking wird der Ryzen mit VCache, das ist klar, da kann ADL nicht mithalten, selbst wenn er mehr IPC hat.
diese sicherheit:biggrin:
@dildo4u: Inwiefern steht da, das Intel Gamingking wird? Es liest sich eher so, als wolle Intel mit Raptor Lake mehr "billige" Kerne ins Rennen schmeissen. So nach dem Motto: "seht her, wir haben den Grössten".
Und bei Alderlake steht ja auch nicht bezüglich Gamingleistung. Was will ich mit 16 Kernen und 24 Threads? Ich wüsste nicht, inwiefern dass die Gamingleistung signifikant ateigern würde. Oder fällt hier jemand auf das "double perfomance" rein? Das zählt doch nur bei Anwendungen, die jeden Kern 1A auslasten können :D
das ist der falsche blickwinkel. der 8+8er wird keine tausend € cpu. sicher wirds idioten geben die nur auf die kerne schauen, aber da würde es auch reichen 16 kleine kerne zu verbauen. darum gehts aber nicht. es geht darum, beste ipc kombiniert mit guter multithreading leistung zu erreichen. das ist für intel mit nur großen oder nur kleinen kernen nicht zu ereichen. und das ohne die die größe explodieren zu lassen. so wie es aussieht bekommen wir mit alderlake einen 16kerner mit der größe eines 10 kerners. zum preis eines 12 kerners(intel halt).
dildo4u
2021-06-10, 10:49:26
AMD hat schon gesagt das der 5600G unter dem 5600X kommt und der ist beschnitten was Cache angeht.
https://youtu.be/LeQsWaMFlNU?t=1191
Es müsste noch ein 5600 ohne Suffix kommen. Der lässt aber auf sich warten ;).
diese sicherheit:biggrin:
Oh ja. Der Cache katapultierte Broadwell trotz weniger IPC und deutlich weniger Takt über Skylake. Der Cache ist der Schlüssel zur Spieleleistung.
Platos
2021-06-10, 11:17:25
Vlt. sollte man mal ne Regel einführen, dass man ohne Quellen nur noch im Konjunktiv spricht bezüglich Hardwarespekulation. Dann sind wir solche substanzlose Behauptungen mal los...
das ist der falsche blickwinkel. der 8+8er wird keine tausend € cpu. sicher wirds idioten geben die nur auf die kerne schauen, aber da würde es auch reichen 16 kleine kerne zu verbauen. darum gehts aber nicht. es geht darum, beste ipc kombiniert mit guter multithreading leistung zu erreichen. das ist für intel mit nur großen oder nur kleinen kernen nicht zu ereichen. und das ohne die die größe explodieren zu lassen. so wie es aussieht bekommen wir mit alderlake einen 16kerner mit der größe eines 10 kerners. zum preis eines 12 kerners(intel halt).
Ja aber wo entnimmst du diese sagenhafte IPC-Steigerung? Also wo steht das in diesem "Leak" ? Also irgendwas mathematisches mit Zahlen und so ^^
AMD hat schon gesagt das der 5600G unter dem 5600X kommt und der ist beschnitten was Cache angeht.
https://youtu.be/LeQsWaMFlNU?t=1191
Der 4600G hatte auch schon 8MB und der 3600X 32MB. Ist schade, aber ist so.
dildo4u
2021-06-10, 11:23:39
Warum sollte AMD die Modelle mit dem V Cache bringen wenn sie mehr Gewinn mit den derzeitigen Modellen machen?
Sie rechnen einfach damit das Alderlake was kann und Zen 4 erst Ende 2022 fertig ist.
Der_Korken
2021-06-10, 11:30:17
ist das nicht eher auf den zusätzlichen dram zurückzuführen, den intel einfach nicht hat.
Nein, die Firestorm-Kerne drücken auch in Cinebench und SPECint/fp: https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/2
Eigentlich könnte ein Mod mal diesen ganzen Apple-Quatsch ersatzlos löschen, ist hier schlichtweg ot und das meiste davon stumpfes Fanboygelaber.
Quervergleiche zwischen Architekturen finde ich in einem Spekulationsthread angebracht, weil man daraus Rückschlüsse ziehen kann, welche Verbesserungen für Hersteller X noch kommen könnten, wenn man es schon bei Hersteller Y in Aktion sieht. Oder um Entwicklungen zu vergleichen. Dass z.B. Intel offenbar nach Alder Lake noch stärker auf kleine Kerne setzen will, obwohl Apple die mittlerweile schon wieder zurückbaut und AMD noch gar nicht erst damit angefangen hat, finde ich durchaus interessant.
Platos
2021-06-10, 11:32:00
Ja, witzig ist es ja schon oben Mods darum zu bitten, "Fanboygelaber" zu löschen und weiter unten ohne irgendwelche Daten felsenfest zu behaupten, AMD wird den Gamingking raus bringen;D
davidzo
2021-06-10, 11:39:06
Der 11400f ist die mit Abstand beste CPU was Preis/Leistung fürs zocken angeht.
https://youtu.be/8Jkl1nQVPUw
Wenn Intel dort nur 10% IPC draufpakt müsste AMD auch bei den Low End Modelle 3D Cache verbauen was ich nicht glaube.(zu Teuer in der Produktion)
Du meinst genau so wie der 19% IPC increase von Rocketlake von dem wir in games nichtmal 5% sehen?
Ne, dass die IPC Verbesserungen in games gut skalieren ist extrem unwahrscheinlich. Zudem muss dan erstmal das Taktdefizit von 10nm aufgeholt werden und die Schedulerproblematik gelöst werden.
ADL wird ein guter Schub für MT Loads und an Energieeffizenz, aber in Games darf man sich wohl eher freuen wenn es nicht sogar langsamer wird als RKL.
dildo4u
2021-06-10, 11:45:41
Deshalb kommt ja das Fette Windows Update für Big/Little, ich würde nicht bezweifeln das Intel immer noch ordentlichen Einfluss auf MS hat.
Bei AMD hat man hingegen eher das Gefühl das sie sich an Intel anpassen müssen als umgekehrt.
Zen 4 soll ja z.b AVX 512 bekommen damit Leute leichter von Intel umsteigen können.
aufkrawall
2021-06-10, 11:59:45
Ja, witzig ist es ja schon oben Mods darum zu bitten, "Fanboygelaber" zu löschen und weiter unten ohne irgendwelche Daten felsenfest zu behaupten, AMD wird den Gamingking raus bringen;D
Was glaubst du denn, was mit 16C Zen 3 + Gaming-Cache in einem 128 Spieler Battlefield "6" mit RT los sein wird gegen ADL mit 8 BIGs? :freak:
CrazyIvan
2021-06-10, 12:01:52
Ne, dass die IPC Verbesserungen in games gut skalieren ist extrem unwahrscheinlich. Zudem muss dan erstmal das Taktdefizit von 10nm aufgeholt werden und die Schedulerproblematik gelöst werden.
ADL wird ein guter Schub für MT Loads und an Energieeffizenz, aber in Games darf man sich wohl eher freuen wenn es nicht sogar langsamer wird als RKL.
+1
Platos
2021-06-10, 12:15:11
Was glaubst du denn, was mit 16C Zen 3 + Gaming-Cache in einem 128 Spieler Battlefield "6" mit RT los sein wird gegen ADL mit 8 BIGs? :freak:
vermutlich etwa 400 Euro Unterschied wird da "los sein":freak: Aber du hast auch die Glaskugel gefressen damit du jetzt schon weisst, dass 16 Kerne so viel in dem Spiel bringen oder gibts da weitere Infos dazu? Ich wusste nämlich noch nicht, dass viele Spieler= hohe Kernnutzung bedeutet. Siehe die ganzen Battle Roayle Spiele ;)
Man hat ja gesehen, wie schwankend der Nutzen von dem Cache sein soll. Manchmal bringts viel, manchmal sehr wenig.
Abgesehen davon wissen wir ja nicht, was Alderlake bringt (gibt keinerlei IPC Angaben zu Alderlake). AMD kann ja gut sein, sie müssen aber besser sein und nicht gut. Und ausserdem müssten sie das auch noch überhaupt verbauen in den entsprechenden Modellen. Welche Modelle das kriegen, ist mal völlig in den Sternen.
aufkrawall
2021-06-10, 12:33:28
Du scheinst nicht zu wissen, wie schon BFV mit RT skaliert? :confused:
Ich würde den Gaming-Cache für Zen 3 auch weniger als einen notwendigen Konter auf ADL sehen, sondern als Möglichkeit für AMD, noch vor Zen 4 weiter die Marge zu erhöhen.
Platos
2021-06-10, 13:03:13
Ne, scheint mir wohl entangen zu sein. Kannst du mal einen Test verlinken, in dem 16 Cores so gut ausgelastet werden?
Akkarin
2021-06-10, 13:57:34
Je nachdem wie viel der 3D cahce bringt brauch Intel "nur" 20-25% um die Krone in Spielen zu holen. Das ist mMn zwar nicht sicher, aber durchaus drin, die 8 little cores geben ein bisschen zusätzliche MT Leistung, man hat DDR5 um ein oder zwei Prozent raus zu Kitzeln und letztendlich springt man ja quasi zwei Core Generationen weiter, so dass man auch ST Steigerungen sehen kann.
Das Problem bei Intel ist eher das es furchtbar teuer wird. 10nm wird nicht weniger pro Transistor kosten als 14nm und Rocket Lake ist schon verdammt groß. ADL hat noch größere Cores, 8 little cores und PCIe 5 und DDR5 haben nicht nur einen Impact auf der Chipfläche, sondern auch beim Mainboard. Und Intel muss den großen 8+8 core bis hinunter zum i5-K benutzen. Erst beim i5 und i3 hat man evt. einen Kostenvorteil gegenüber AMD.
Da der i5 non-K aber nur eine 6+0 statt 6+X Konfig hat braucht AMD hier nicht so viel zu bangen. Ein 5600X wird genauso schnell sein, und ohne X wirds auch nur leicht Langsamer. Sobald TSMC mehr liefert kann AMD mit dem Preis runter gehen und damit auch einem 12400f das Wasser abgraben.
CrazyIvan
2021-06-10, 16:59:39
Je nachdem wie viel der 3D cahce bringt brauch Intel "nur" 20-25% um die Krone in Spielen zu holen. Das ist mMn zwar nicht sicher, aber durchaus drin, die 8 little cores geben ein bisschen zusätzliche MT Leistung, man hat DDR5 um ein oder zwei Prozent raus zu Kitzeln und letztendlich springt man ja quasi zwei Core Generationen weiter, so dass man auch ST Steigerungen sehen kann.
Das ist ganz schön optimistisch. Und von IceLake auf TigerLake hat sich bzgl. IPC rein gar nix getan. Also müssten Deine 25% aus dem Sprung zu Golden Cove und mehr Takt kommen. Mehr Takt ist aber verdammt ungewiss, da man erst einmal an den Takt von RKL rankommen muss.
dildo4u
2021-06-10, 18:08:07
Tigerlake scheint ziemlich potent zu sein wenn man die 8 Cores Benches sieht, in 10nm können sie genug Cache verbauen was beim Gameing hilft.
Anwendungen + 20 bis 30% zu Comet Lake 8 Core.
www.techspot.com/amp/review/2262-intel-core-i7-11800h/
Gameing Tests sind alle auf 5900hx Level.
CrazyIvan
2021-06-13, 16:23:17
MLID hat wohl einiges zu ADL und RTL zu berichten. Da ich kein Youtuber-Gucker bin, nachfolgend der Link auf einen NBC-Artikel zum Video: https://www.notebookcheck.com/Viele-Details-zu-kommenden-Alder-Lake-und-Raptor-Lake-Prozessoren-geleakt-Intel-Insider-offenbar-besorgt-wegen-Apple-M2-SoC.545181.0.html
Viel Neues ist nicht dabei. Aber sehr interessant ist folgendes: Zwar hat man seitens Intel ein wenig Angst vor Zen 5 und Zen 6. Mit RTL meint man sich gegen Zen 4 gut aufgestellt. Ernsthafte Sorgen macht man sich intern jedoch wegen Apple M2.
Gott sei Dank ist Intel nicht ganz so ignorant wie so einige hier im Forum.
Achja: nVidia will wohl bald GPUs bei Intel fertigen lassen.
robbitop
2021-06-13, 16:32:12
Da bin ich skeptisch. Bis dato gibt es ja noch keine Beweise und Referenzen dafür, dass Intels Prozesse gut geeignet für GPUs oder überhaupt externe IP ist. Intel hat iirc nicht nur das Design auf den Prozess optimiert sondern auch anders herum. Die haben sicherlich eine ganze Menge legacy. Das wird man nicht über Nacht los. Ich wäre nicht überrascht, wenn TSMCs top notch Prozess mittelfristig bei externer IP zu den besten Resultaten führen wird.
TSMC hat damit lange Erfahrung gemacht und auch eine sehr ehrgeizige Roadmap und auch schon lange eine gute Execution gezeigt (Prozesse verzögern sich nicht und rampen in Bezug auf yield sehr schnell).
Allerdings ist Performance nicht alles. Aktuell schaut man natürlich noch nach Kapazität und ggf Preis. Ggf lockt Intel neue Kunden mit beidem.
CrazyIvan
2021-06-13, 16:43:46
@robbitop
Da bin ich ganz bei Dir. Wenn es in absehbarer Zeit passieren soll, dann kann es kein High-End werden.
Könnte mir irgendwas aus dem Low-End-Portfolio auf Intel 14nm vorstellen, um OEM Verpflichtungen zu erfüllen.
Allgemein dürfte Intel beim Foundry-Business noch einiges zu tun haben. Vor allem hinsichtlich der Bibliotheken für zukünftige Kunden.
davidzo
2021-06-13, 17:14:48
Je nachdem wie viel der 3D cahce bringt brauch Intel "nur" 20-25% um die Krone in Spielen zu holen. Das ist mMn zwar nicht sicher, aber durchaus drin(...)
Das ist ziemlich unrealistisch, vor allem da der gewöhnlich dafür notwendige Taktsprung durch den wechsel von 14 auf 10nm wohl ausfällt wegen is nicht. Der einzige derartige Sprung in den letzten 20 Intel Jahren war Conroe bzgl gaming. Alle anderen Architekturen haben nur einstellige IPC Zuwächse gebracht und den Rest über Mehrtakt gelöst. Gerade die ach so tolle Skylake "gaming-Architektur" war nur mit massiven taktupgrades überhaupt schneller als die Vergänger Broadwell und Haswell.
Mehr als die Hälfte der Gaming-Leistungszuwächse seit Sandybridge bestehen aus simplen Taktupgrades. Da sich Sandybridge aber exzellent übertakten ließ, erreicht ein 2700k immer noch 75% der Leistung eines 6700K auf ähnlichen Taktraten. 25% Leistungszuwachs in games innerhalb von vier Jahren und vier Generationen - das ist die Realität bei Intel.
Und Taktupgrades oder mehr große Cores fallen diesmal ja aus, also nix neues was Games nützen würde.
Es hat schon einen Grund wieso in den Folien zu RTL "improved gaming" steht. Das bedeutet durch die Blume dass ADL für gaming erstmal nichts bringt. Dann macht es auch wieder Sinn wieso man so kurz davor noch RKL gebracht hat, kaum ein halbes Jahr auseinander. Das war das Gaming upgrade, jetzt kommt das Productivity upgrade mit ADL.
Das Problem bei Intel ist eher das es furchtbar teuer wird. 10nm wird nicht weniger pro Transistor kosten als 14nm und Rocket Lake ist schon verdammt groß. ADL hat noch größere Cores, 8 little cores und PCIe 5 und DDR5 haben nicht nur einen Impact auf der Chipfläche, sondern auch beim Mainboard.
Genau umgekehrt, 10nm ESF ist ein extrem kostenoptimierter Prozess. Da kann sich Intel die Fläche locker erlauben. ADL wird zudem nicht viel größer als TGL-H, da es weiterhin bei einer kleinen 32EU GPU bleibt und die little Cores fallen kaum ins Gewicht. Die Golden Cove Cores haben zudem einige Abspeckungen bei der FPU, die nicht mehr so fette AVX512 Einheiten aus dem Serverbereich mit sich herumschleppt die bisher immens an Fläche verbrauchen und im Clientbereich nicht gefragt sind. Ich würde nicht erwarten das Golden Cove überhaupt fettere Cores hat als Willow.
TSMC N7 mit advanced 3D packaging, dazu ein teureres AM4 Package mit Pins statt Pads wird in der Fertigung weitaus teurer sein als eine LGA1700CPU mit 200mm2 ADL DIE in 10ESF.
Tigerlake scheint ziemlich potent zu sein wenn man die 8 Cores Benches sieht, in 10nm können sie genug Cache verbauen was beim Gameing hilft.
Anwendungen + 20 bis 30% zu Comet Lake 8 Core.
www.techspot.com/amp/review/2262-intel-core-i7-11800h/
Gameing Tests sind alle auf 5900hx Level.
Da ist imo soviel Varianz drin, soviele TDPs, unterschiedliche thermal solutions, ramtimings, etc. dass sich da nichts herauslesen lässt, außer vielleicht dass man sich noch in 90% der Fälle im GPUlimit befindet. Da ist ja manchmal der 10875H schneller, andere male der 5900HS.
Zudem sind die AMD Mobile Cores mit ihren 16MB L3 von der Leistung in Games eher mit Zen2 zu vergleichen als der volle Zen3 mit 32mb Cache.
Ich würde da also nichts zur Desktop Gaming Leistung von ADL hineininterpretieren.
robbitop
2021-06-13, 17:22:48
19% IPC Fortschritt von Vermeer ggü Matisse verdampfen durch 16 mib L3? Klingt etwas übertrieben IMO.
davidzo
2021-06-13, 17:29:15
19% IPC Fortschritt von Vermeer ggü Matisse verdampfen durch 16 mib L3? Klingt etwas übertrieben IMO.
Ich gehe da auch von desktop RAM vs Mobile RAM aus. Cezanne entspricht von der Leistung eher einem Zen2 Desktop system in Games. Was auch schon eine Leistung für sich ist, in einer einzigen Generation so einen Zuwachs zu bieten der auch noch in Games gut skaliert..
Btw, wenn nvidia zu Intels Foundry geht, dann kann ich mir am ehesten vorstellen dass man das mit networking chips tut. Oder Automotive. Etwas was nicht groß ins Gewicht fällt, wo man aber von der zertifizierung, testing expertise von Intel profitieren kann.
genervt
2021-06-13, 17:34:37
Zuletzt hatte eher AMD mit MS neue Features entwickelt und in Windows gebracht.
Aber kein Zweifel, etwas wird man auch bei MS machen müssen.
MLID hat wohl einiges zu ADL und RTL zu berichten. Da ich kein Youtuber-Gucker bin, nachfolgend der Link auf einen NBC-Artikel zum Video: https://www.notebookcheck.com/Viele-Details-zu-kommenden-Alder-Lake-und-Raptor-Lake-Prozessoren-geleakt-Intel-Insider-offenbar-besorgt-wegen-Apple-M2-SoC.545181.0.html
Viel Neues ist nicht dabei. Aber sehr interessant ist folgendes: Zwar hat man seitens Intel ein wenig Angst vor Zen 5 und Zen 6. Mit RTL meint man sich gegen Zen 4 gut aufgestellt. Ernsthafte Sorgen macht man sich intern jedoch wegen Apple M2.
Gott sei Dank ist Intel nicht ganz so ignorant wie so einige hier im Forum.
Achja: nVidia will wohl bald GPUs bei Intel fertigen lassen.
So funktuioniert leider Marketing, oft über Ablenkungen auf Dinge, die nicht relevant sind. Natürlich macht sich Intel PR-Technisch mehr Sorgen um Apple, weil das irrelevant ist und die reale Bedrohung AMD vor dem Zielpublikum quasi unsichtbar bleibt, weil jeder auf Apple schaut und AMD nicht weiter beachtet. Das ist zumindest das Ziel solcher Aussagen.
Zen3 hat immer die gleiche IPC, die Leistung wird durch mehr Cache nur besser nutzbar.
w0mbat
2021-06-14, 09:48:43
Zen3 hat immer die gleiche IPC, die Leistung wird durch mehr Cache nur besser nutzbar.
Also für mich ist Cache immer ein Teil der IPC und nicht extra zu betrachten.
davidzo
2021-06-14, 10:19:22
So funktuioniert leider Marketing, oft über Ablenkungen auf Dinge, die nicht relevant sind. Natürlich macht sich Intel PR-Technisch mehr Sorgen um Apple, weil das irrelevant ist und die reale Bedrohung AMD vor dem Zielpublikum quasi unsichtbar bleibt, weil jeder auf Apple schaut und AMD nicht weiter beachtet. Das ist zumindest das Ziel solcher Aussagen.
Zen3 hat immer die gleiche IPC, die Leistung wird durch mehr Cache nur besser nutzbar.
Apples Marktanteil an verkauften PCs in Stückzahlen liegt bei 15%. Und in jedem Gerät ist eine CPU. AMDs CPU-Marktanteil liegt bei 19% im desktop, 18% mobile und 8% server. Das ist also durchaus vergleichbar von den Stückzahlen. Dass Apple gerne die fetten Chips mit Iris und vollem Cache verbaut hat war dazu ein erheblicher Faktor für Intels hohen ASP, kein anderer OEM nimmt mehr solche chips in derartigen Stückzahlen ab.
Apples Marktanteil an verkauften PCs in Stückzahlen liegt bei 15%. Und in jedem Gerät ist eine CPU. AMDs CPU-Marktanteil liegt bei 19% im desktop, 18% mobile und 8% server. Das ist also durchaus vergleichbar von den Stückzahlen. Dass Apple gerne die fetten Chips mit Iris und vollem Cache verbaut hat war dazu ein erheblicher Faktor für Intels hohen ASP, kein anderer OEM nimmt mehr solche chips in derartigen Stückzahlen ab.
Ich wills nicht wieder aufmachen aber: Irrelevant. Dafür müsste das gesamte Apple-Produkt zur Konkurrenz für den PC werden, das ist nicht der Fall. Beide bewegen sich in alternativen Universen und bevölkern gleichzeitig den gleichen Computermarkt. Das ist auch mehr als MacOS vs. Windows und hat mit Prozessoren nichts zu tun. Das sind unterschiedliche Philophien.
Mangel76
2021-06-14, 11:14:23
Ich wills nicht wieder aufmachen aber: Irrelevant. Dafür müsste das gesamte Apple-Produkt zur Konkurrenz für den PC werden, das ist nicht der Fall. Beide bewegen sich in alternativen Universen und bevölkern gleichzeitig den gleichen Computermarkt. Das ist auch mehr als MacOS vs. Windows und hat mit Prozessoren nichts zu tun. Das sind unterschiedliche Philophien.
Und das ist in dieser absoluten Art immer noch Unfug. Wenn sie den gleichen Computermart bevölkern, stehen sie natürlich miteinander in Konkurrenz. Ich brauche absehbar ein neues Notebook und bin tatsächlich am Überlegen, ob es diesmal vielleicht doch ein MacBook werden soll. Das würde bedeuten, dass eine CPU von Intel/AMD weniger verkauft wird.
w.z.b.w.
Und das ist in dieser absoluten Art immer noch Unfug. Wenn sie den gleichen Computermart bevölkern, stehen sie natürlich miteinander in Konkurrenz. Ich brauche absehbar ein neues Notebook und bin tatsächlich am Überlegen, ob es diesmal vielleicht doch ein MacBook werden soll. Das würde bedeuten, dass eine CPU von Intel/AMD weniger verkauft wird.
w.z.b.w.
Das ist die einzige Überschneidung. Wie gesagt, die bevölkern den gleichen Markt. Aber es ist eben kaum relevant für den PC-Markt. Und die CPU spielt bei dieser Kaufentscheidung nahezu gar keine Rolle, 99% der Mac-Interessenten kaufen das Produkt nicht wegen der CPU. Ihr seid da einfach grandios auf dem Holzweg.
Es gäbe eine einzige Möglichkeit, die ich sehe, in der Apples CPUs für den restlichen Markt gefährlich werden würde, wenn Windows für ARM jetzt plötzlich signifikante Marktanteile gewinnen würde und Apple den M1 für diesen Markt frei gibt. Das ist aber ein Wunschtraum mMn.
robbitop
2021-06-14, 11:42:39
Letzten Endes ist jeder verkaufte Mac ein verkaufter PC mit Intel/AMD CPU weniger. Je überzeugender das Gesamtprodukt desto größer sein Marktanteil und desto kleiner der Restanteil. Die CPU scheint einen nicht unwesentlichen Teil des Produkteindrucks auszumachen. Auffällig war, dass bei den M1 Macs die Schwärmerei mit der Akkulaufzeit trotz hiher Performance zu sehen war. Und das war nur ein Beispiel. Mit M1 startete für Intel die Erosion eines netten Stück ihres Umsatzes. Seit Zen geraten sie auch durch AMD unter Druck. Die Konkurrenz durch die Apple SoCs mag nicht ganz direkt sein - aber sie ist real.
In gewissem Sinne hast du recht, aber das ist nicht von Dauer und bereitet Intel in Wahrheit sicherlich kaum Kopfzerbrechen.
Siehe den Mobiltelefonemarkt. Apple ist hier fulminant gestartet und hat auch seinen Marktanteil, aber der Großteil des Marktes ist eben doch von Android besetzt worden, obwohl Android zu Anfang viel schlechter war als iOS. Heute ist das IPhone just another High-End-Smarktphone, oder, wenn man das aus FB-Sicht sieht, das Ultra-Smartphone. Auch hier hat man den mit Abstand schnellsten Prozessor. Hilft das? Kaum. Und der Vergleich hinkt auch noch ein bisschen, da Android+Play geschlossener ist als Windows.
Verstehst du was ich samit sagen will. Ja es könnte Intel im HighEnd ein paar % kosten, aber das ist nicht unbedingt nachhaltig so und das ist vor allem nicht so weltbewegend. Ich halte das eben für völlig überschätzt. Es bleibt der Vergleich einer geschlossenen Plattform vs. einer offenen Plattform, Prozessor hin oder her.
Wenn AMD 7nm Cezannes in großen Mengen auf den Markt bringen könnte, wäre das eine erheblich üblere Bedrohung. Auch Rembrandt ist eine heftige Bedrohung, wenn man die Lieferprobleme beseitigt. Der M1 oder auch M2 jedoch ist weit weg für Intel. Das tut eher dem Ego weh als wirtschaftlich.
ADL und RTL sind wegen der inffezienten 10nm leider weiter Durststrecke für Intel, Apple wird hier sicherlich ein paar % gutmachen in der Zeit, aber AMD, sobald sie liefern können, werden signifikant reinhauen in den Marktanteil, denn der Lieferengpass wird sicherlich deutlich entschärft werden über 22 hinweg. In der Situation, in der auch Intel von dem Cache überrascht wurde nebenbei, ist es doch klar, dass der Marketingmensch sagt, dass man sich um Zen4 keine Sorgen mache, denn damit würde man ja den Ausblick auf 22 trüben, das will man auf gar keinen Fall. Also sagt man Zen4 ist uns egal, aber der M1, ui, das ist was. Hinterheit heißt es dann AMD macht und ganz schön zu schaffen, aber Apple haben wir gut im Griff. Man dreht sich das in der PR halt genau so, wie man das gebrauchen kann.
robbitop
2021-06-14, 12:30:26
Der smartphone Markt ist ein ganz schlechtes Beispiel IMO. Apple hat den überwiegenden Anteil des Gesamtgewinn des Marktes. Umsatz ist irrelevant - Gewinn ist relevant. Dazu kommt, dass auch der Anteil in den Industrieländern deutlich größer ist als wenn man nur auf den weltweiten Markt schaut.
Mit Apples Wechsel zu custom silicon hat Intel langfristig einen guten Anteil ihres Unternehmensergebnisses verloren.
Man wird sehen wir viel AMD noch zurück holen wird. Am Ende ist dann vielleicht nur noch die Hälfte vom Kuchen übrig verglichen mit vor 10 Jahren. Diese Konstellation ist schon sehr unschön für Intel. Wenn sie nicht bereit für einen ISA Wechsel sind, könnte es noch ungemütlicher werden.
Was soll denn die neue ISA sein? ARM? Es ehrt dich ja, dass du für alles offen bist, aber es mutet aus meiner Sicht doch etwas sinnlos an, denn im PC-Markt wird sich die ISA nicht ändern, selbst wenn hier und da mal ein ARM-Notebook dazuwischengrätscht. Das sind dann eher spezielle Märkte wie die Cromebooks. Aber dass X64 abgelöst wird ist ein Wunschraum, der nicht in Erfüllung gehen wird. Das Ende von x86 wird schon seit Jahrzehnten geträumt. Der M1 wird da nichts daran ändern.
fondness
2021-06-14, 12:52:22
Was macht die Leute hier eigentlich so sicher, dass Apple nicht sehr viel größere Ambitionen hat als aktuell sichtbar? Ich meine, wenn ich schon ein sehr gutes Design habe warum nicht unabhängig von Apple Devices verkaufen? Die Margen im HW-Geschäft sind traumhaft, noch viel höher als bei Apple aktuell. Spätestens dann hat Intel ein großes Problem wenn sie nicht schleunigst mal ordentlich abliefern. Das einzige valide Ziel von Intel muss sein, dass ich in jeder noch so kleinen Marktnische das beste Produkt anbiete. Im meine die haben Ressourcen Ende nie, die haben eigenen Fabs, die haben alle Möglichkeiten und werden von allen Seiten überholt - das ist doch absurd.
=Floi=
2021-06-14, 12:55:40
Als AMD kunde kann man relativ einfach wechseln. Als Apple imac kunde bleibt man imho zu 99% bei apple.
Ganz böse gesagt kosten die super guten intel chips dann auch noch mehr, als ein vergleichbarer MX Apple.
maximus_hertus
2021-06-14, 13:29:05
Was macht die Leute hier eigentlich so sicher, dass Apple nicht sehr viel größere Ambitionen hat als aktuell sichtbar?
Ambitionen bzgl. Stückzahl? Das würde man lange im Vorraus merken, da sie ja die Chips irgendwo produzieren lassen müssten / Fertigungskapazitäten aufbauen lassen müsste.
Apple wird mehr oder weniger da bleiben, wo sie sind: im Hochpreissegment mit den Top-Margen. Ggf. wird man den Einstieg ein klein wenig vereinfachen / vergünstigen, aber der große Massenmarkt, gerade im Niedrigpreissegment, wird Apple wohl nicht angreifen.
Für Dritte Lizenzieren ist auch nicht in Apples Interesse. Man hätte eigene Konkurrenz (Tablet / Smartphones mit gleicher oder gar mehr Performance) und hätte unter Umständen nur kurzfristig was davon, je nachdem, was alle anderen hinbekommen.
robbitop
2021-06-14, 20:40:08
Was soll denn die neue ISA sein? ARM? Es ehrt dich ja, dass du für alles offen bist, aber es mutet aus meiner Sicht doch etwas sinnlos an, denn im PC-Markt wird sich die ISA nicht ändern, selbst wenn hier und da mal ein ARM-Notebook dazuwischengrätscht. Das sind dann eher spezielle Märkte wie die Cromebooks. Aber dass X64 abgelöst wird ist ein Wunschraum, der nicht in Erfüllung gehen wird. Das Ende von x86 wird schon seit Jahrzehnten geträumt. Der M1 wird da nichts daran ändern.
Ich finde das ist eine naive, engstirnige Sicht der Dinge. Es war schon immer so und wird nie anders sein. Milliarden Geräte sind ARM. Immer mehr Dynamik geht in diese Richtung, die es voher nicht gab (Windows on ARM, M1). RISC-V wächst exponentiell.
Dinge sind nicht statisch und vorhersehbar. Smartphones, Tablets sind ARM. Server und HPC sind am Wechseln. Notebooks hegen auch diese Dynamik. Der Desktop ist die letzte Bastion.
Es ist völlig unvorhersehbar was hier über die nächsten Jahrzehnte passiert.
=Floi=
2021-06-14, 23:19:57
Für Dritte Lizenzieren
Das könnte sich aber doch lohnen. Es gibt genug andere märkte und bereiche, welche apple nicht tangieren würden.
Ein M1 würde auch super in einen office pc passen, auf dem die gängigen anwendungen und SAP laufen. M1 würde auch gut in die cloud passen etc.
Automotive.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.