PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die offiziellen Spezifikationen und eine Perf.-Prognose zur GTX 1080


Leonidas
2016-05-07, 14:07:04
Link zur News:
http://www.3dcenter.org/news/die-offiziellen-spezifikationen-und-eine-performance-prognose-zur-geforce-gtx-1080

MasterElwood
2016-05-07, 16:04:51
Nicht zu vergessen die rund 30 Prozent extra Performance Plus dort wo man sie am meisten braucht: bei VR.

Unter VR zieht sogar die 1070er an der 980TI vorbei.

sulak
2016-05-07, 16:41:01
Preisangabe stimmt so nicht ganz, es sind ja 2 Modelle die herauskommen werden:

http://www.3dcenter.org/dateien/abbildungen/nVidia-GP104-Livestream_pic2_GeForce-GTX-1080.jpg

MSRP 599$ für die Standard Variante.
Für 699$ die Founders Edition mit +2GHz Core Clock, zumindest wurde das im Stream gesagt/gezeigt, aber auf der offiziellen Webseite von NV gibt es nur die Werte der Standard Variante...

Enthusiast
2016-05-07, 17:15:35
Preisangabe stimmt so nicht ganz, es sind ja 2 Modelle die herauskommen werden:

http://www.3dcenter.org/dateien/abbildungen/nVidia-GP104-Livestream_pic2_GeForce-GTX-1080.jpg

MSRP 599$ für die Standard Variante.
Für 699$ die Founders Edition mit +2GHz Core Clock, zumindest wurde das im Stream gesagt/gezeigt, aber auf der offiziellen Webseite von NV gibt es nur die Werte der Standard Variante...
Wenn die Verfügbarkeit der FE kanpp wird:
750 normal; 850 bei kanpper Verfügbarkeit
Die andere wohl 650; wenn sie vergriffen ist 750.

Krank sowas, für Performance-Class-GPUs. Der Preisverfall wird gigantisch sein. Sowas kauft doch kein Enthusiast.

Wer weiß was sich hinter der 1070 verbirgt, der fehlen 38% an Leistung, irgendwas wieder beschnitten und wird als Highend, als GP104-200 (oder sogar nur 150) vermarktet, 4K+ adieu...

Also VR interesssiert mich überhaupt nicht und letztlich macht das Gestarre durch Lupen auf Microdisplays nur kurzsichtig (auf Dauer), ist ja bei den kleinen Handydisplays schon so.

VR ist mithin immer noch einen Nische, wer weiß wann der ganze Spuk beim Gaming wieder vorbei ist. Ich will einen 4K-8K Bildschirm am besten 36" mit Freesync ab 25 fps und hoher Pixeldichte, nicht eine Monitor-Brille am Kopf. Ich weiß echt nicht warum um das Zeugs so ein Hype gemacht wird. Ich brauche keine künstliche virtuelle Welt dieser Art, was soll der Unsinn. Die sollten lieber zusehen das Spiele auf dem Monitor vorwärts kommen und nicht in so einen Unsinn investieren und die ganzen Ressourcen verpulvern.

Ich halte von VR gar nichts. Irgendeine Spielerei die noch Jahre braucht. Es wird endlich mal Zeit in UHD+ zu investieren. Dafür ist die 1080 selbst mit 2,1GHz mit ihrem SI und den gerade mal 8GB VRAM zu schlapp. Traurig was Nvidia da abliefert. Und das für solche Preise. VR verteuert den gesamten Markt und AMD setzt auch auf diesen Unsinn. Das hält die ganze Entwicklung für mehr Immersion bei verbesster Bildquali nur auf.

Für zwei lumpige 900-1080p Monitore vergeude ich nicht soviel Geld. Das ist Gamekonsolenclass, da gehört dieser Tünüff hin aber nicht in einen Highend-Enthusiasten PC. Lustig wie sich hier schon wieder aufgeblasen wird. Die ganze Nvidia-Kiddie-Gen mitten drinne.

Mit Tripple TitanX auf 1,5Ghz fängt die Welt an und 8 realen Kernen+HT, was interessiert mich da die 1080 mit 256bit SI....lächerlich, was ein Kindergarten.:P

Plitzkrieg
2016-05-07, 17:18:46
Die Preisangabe stimmt NATÜRLICH nicht! Wir sind hier auf 3D Center! Hier wird alles mögliche gemacht, um Nvidia schlecht zu reden, damit der Liebling der Nation ... AMD ... die natürlich nicht an Gewinnen interessiert sind ... besser dastehen.

Leonidas ist gerade voll traurig, dass er nicht weiterhin schreiben kann, dass die 1080 nur GDDR5 haben wird.

ALLES muss schlechtgeredet werden! Im Vorfeld redet er von "Die 1080 wird 1000$ und mehr kosten" ... dann kommt der Preis mit 600$ und er fängt an rumzuflamen, dass die trotzdem viel zu teuer ist! Indem er einfach mal andauernd den falschen Preis ABSICHTLICH wählt.

Diese Seite sollte nicht 3D Center heißen, sondern AMD Center ...

QUERSCHLÄGER
2016-05-07, 17:22:14
Halt die Klappe. :freak:

Gast
2016-05-07, 17:34:50
Diese Seite sollte nicht 3D Center heißen, sondern AMD Center ...
Diese Seite heißt aber schon "Nvidia Center...!!!" Leo geht mit Nvidia zu oft "zartbeseidet" um.

Die Preise die Nvidia verlangt sind für "europäische Verhältnisse" klar zu hoch, oder brauchst du weder Zoll, noch Transport, noch MwSt. zahlen?

anddill
2016-05-07, 17:47:11
Halt die Klappe. :freak:

:nono:

Diese Seite heißt aber schon "Nvidia Center...!!!" Leo geht mit Nvidia zu oft "zartbeseidet" um.

Die Preise die Nvidia verlangt sind für "europäische Verhältnisse" klar zu hoch, oder brauchst du weder Zoll, noch Transport, noch MwSt. zahlen?

Beide Seiten meckern. Die Berichterstattung ist also offensichtlich halbwegs ausgewogen.

Gast
2016-05-07, 18:31:29
Potentiell gesehen kann das Performanceplus der GeForce GTX 1080 unter FullHD sogar größer ausfallen als unter UltraHD, da unter FullHD die gegenüber GeForce GTX 980 Ti & Titan X nicht höhere Speicherbandbreite eine unwichtigere Rolle spielen sollte.

Zum 1000 und ersten Mal.
Die benötigte Bandbreite/Pixel nimmt mit der Auflösung nicht zu sondern je nach Engine gering bis moderat ab.

Wenn eine Karte in einer Grafikengine in 4k von der Bandbreite limitiert wird, wird sie das auch unter 1080p sein. Man kann aus den Bandbreitenunterschieden 2er Karten nicht darauf schließen dass diese in verschiedenen Auflösungen näher beisamen und in anderen weiter auseinander liegen werden.

Das heißt natürlich nicht, dass es am Ende nicht so aussieht, dass die Karten unter 4k wirklich näher beisamen sind als in 1080p. Aber wenn das so ist wird es nicht an der Bandbreite liegen.

BTW:NVIDIA’s new SLI HB bridge doubles the available transfer bandwidth compared to the NVIDIA Maxwell™ architecture.

Sehen wir da etwa NVLINK?

Gast
2016-05-07, 18:36:16
Nicht zu vergessen die rund 30 Prozent extra Performance Plus dort wo man sie am meisten braucht: bei VR.


Wobei interessant wäre warum.
Die Beschriftung VR in Graph ist da leider ziemlich unspezifisch.
Da eine Grafikkarte auch in VR nichts anderes macht als Bilder zu berechnen, ist es mal eher unglaubwürdig, dass der Vorsprung dort generell wesentlich größer sein soll.
Wenn die Grafikkarte wirklich spezielle Funktionen zur Verfügung stellt, welche die Performance bei VR deutlich verbessern können, werden diese von den dahinterliegenden Engines auch erstmal benutzt werden müssen. Es ist also nicht davon auszugehen, dass alles was VR benützt entsprechend deutlich schneller wird.

ottoman
2016-05-07, 19:03:48
Also VR interesssiert mich überhaupt nicht und letztlich macht das Gestarre durch Lupen auf Microdisplays nur kurzsichtig (auf Dauer), ist ja bei den kleinen Handydisplays schon so.
Du hast VR nicht verstanden. Man fokussiert dort nicht auf das Display was sich 5cm vor dem Auge befindet. Handy hat damit wenig zu tun. Aber hauptsache erstmal rumschwallen :freak:

CD-LABS
2016-05-07, 19:04:48
Beide Seiten meckern. Die Berichterstattung ist also offensichtlich halbwegs ausgewogen.
Genau deshalb finde ich die Meckereien auch immer so unterhaltsam... :biggrin:
Was ich mal gerne erklärt bekommen würde: Wieso spricht Nvidia eigentlich nur von "DisplayPort 1.2 Certified, DisplayPort 1.3/1.4 Ready." und nicht von "DisplayPort 1.4 Certified.". Die Spezifikationen sind doch fertig, was könnte sie daran hindern auch direkt das Zertifikat für 1.4 zu erhalten?

Gast
2016-05-07, 19:09:00
BTW:NVIDIA’s new SLI HB bridge doubles the available transfer bandwidth compared to the NVIDIA Maxwell™ architecture.

Sehen wir da etwa NVLINK?
Nö, da hat HWLuxx (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39101-nvidia-praesentiert-die-geforce-gtx-1080-auf-basis-der-pascal-architektur.html) nachgefragt, es verdoppelt die Bandbreite, indem zwei SLI-Bridges verwendet werden:

Inzwischen ist das Rätsel um die doppelte SLI-Brücke geklärt. In der Tat erhöht NVIDIA darüber die Bandbreiter dieser Verbindung, um bei höheren Auflösungen und Bildwiederholungsraten noch ausreichend schnell darüber kommunizieren zu können. NVIDIA selbst nennt dies SLI HB, wobei das HB für High Bandwith steht. Die dazugehörgen SLI-Brücken werden von NVIDIA angeboten werden – abhängig vom eingesetzten Mainboard mit unterschiedlicher Länge.

Gast
2016-05-07, 19:41:23
Du hast VR nicht verstanden. Man fokussiert dort nicht auf das Display was sich 5cm vor dem Auge befindet. Handy hat damit wenig zu tun. Aber hauptsache erstmal rumschwallen :freak:
Du überlistest also deine Augen, du drehst die Biologie für dich vollkommen um...viel Spaß dabei. Die Microlinse bzw. das Entzerrungsglas ist ein paar mm vor deinem AUGE. Frag dich mal was mit Seeleuten, die auf der Brücke Dienst tun und die dabei auch ewig als Ausguck fungieren (also ins Fernglas auch Vergrößerungsglas mit Microlinsen starren) passiert? Es gibt keine Langzeitstudien das Thema betreffend und sie sind auch nicht erwünscht.

Wenn Nvidia mit der eigenen VR Brille Near die Leistung der 1080 gemessen hat, wird einiges klar, die löst nur in 720p auf (effektiv 146x78 bei erhöhter Bildausgabe pro Auge), klar das die suggerierte Leistung der Karte unter VR dann wie von Nvidia dargestellt, überschießt.

Und bitte ich verstehe VR genau, deine Unterstellung ist lächerlich. Ich hatte ein Rift (damals noch mit 720p) schon, da hast du gerade was gemacht? Die Latenzen liegen bei weiten nicht (auch heute nicht) unter 20ms, also quatsch bitte keinen Unsinn diesbezüglich. Durch die Kissenvorverzerrung per Microslinsensystem und die anschließende angepasste, erneut entzerrte Ausgabe pro Auge, fällt auch die Auflösung der Rift effektiv viel bei steigender Bildrate geringer aus. Das liegt an dem optischem Muss, ansonsten könntest du das Ding nicht mal 10min aufhaben. Der Blickwinkel (Immersion) ist zwar auf 90° erhöht, sowas lässt sich mit entsprechend angeordneten Displays und dem dazugehörigen Grafikpower auch erzeugen, ohne zusätzliche Optik oder Positionssensorik.

Unterstellt mir bitte keine (deine) Behauptungen oder ein Troll zu sein. Eines der größten Probleme bzw. etws das weiterhin nicht wirksam erreicht wird, ist die stete Bildwiederholfrequenz von 120hz (60 ist eindeutig auf Dauer zu wenig), weil es eine Stete schon lange nicht mehr gibt, sondern diese dynamisch angepasst wird. Das wirkt sich auch auf den Verbrauch bei VR aus. Aber auch das scheint dir entgangen zu sein!

Du kannst dich gerne bei der FH Wildau eintragen, dann kannst du gewissen Vorträgen lauschen!

Gast
2016-05-08, 01:13:53
Nö, da hat HWLuxx (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39101-nvidia-praesentiert-die-geforce-gtx-1080-auf-basis-der-pascal-architektur.html) nachgefragt, es verdoppelt die Bandbreite, indem zwei SLI-Bridges verwendet werden:


Interessant, meine 2 980GTX starten nichtmal wenn beide SLI-Connectoren verbunden werde ;)

ottoman
2016-05-08, 02:41:29
Danke für das Angebot, aber noch mal Studieren wollte ich eigentlich nicht :) Außerdem beschreibst du den Streitpunkt doch auch schon selbst. Durch ein Fernglas schauen ist eben etwas anderes, als auf ein Handy zu schauen.

Gast
2016-05-08, 09:52:38
die brillen sind noch nicht so weit, auch wenn amd und nvidia stark auf das feld setzen. die tester sagen alle, die rift ist gut, geben aber kene kaufempfehlung ab, einhetlich.

er meint wohl optische hilfsmittel, ohne die es nicht geht. wer trägt eine brille wenn er sie nicht braucht? künstliches licht ist ja auch nicht natürlich. ich kann mir schon vorstellen das sowas auf dauer medizinisch gesehen auswirkungen auf das auge hat, bin aber weder wissenschaftler noch arzt.

zocken macht ja auch krank und computer können süchtig und abhängig machen, augen sind sehr empfindlich. trocknen schnell aus und die sehfähigkeit lässt auf dauer auch nach besonders bei überreizung. ich weiß ehrlich gesagt nicht, ob sich da jemand auch gedanken um die gesundheit der menschen macht, geht doch wie überall nur um profit.

ich würde jedenfalls ganz klar warten, bis es eine vernüftige entspielgelung der linsen gibt, das stört gewaltig. die auflösung ist immer noch zu schwach, wegen fliegengittereffekten. da haben die tester auch unterschiedliche wahrnehmungen, wie alle menschen.

die ganze zeit so ein dickes ding am kopf stört auch, müsste viel kleiner und leichter sein. ich hatte nach 30min kopfschmerzen und das haltesystem drück am kopf, wenns zu lose ist verruscht es. kommt ja auch auf die kopfform an.

humanwissenlich gesehen ist die rift oder jede andere entwicklung eine nullnummer, das kommt davon wenn man die kosten im auge behalten muß um das dann auch verkaufen zu können. ich habe sie zurückgeschickt. nichts für mich.

ich kann mir schon vorstellen das es aus gesundheitlicher Sicht niemals eine empfehlung dafür gibt.

Gast
2016-05-08, 13:46:22
Habe ich etwas verpasst oder ist nVidia nur in einem Punkt auf einer Folie auf die Verbesserung von Async Compute eingegangen? Das bedeutet für mich, dass es bei marginalen Änderungen geblieben ist und in dem Punkt AMD weiter klar führt, denn sonst wäre dies doch ebenso groß abgefeiert worden wie Taktfrequenz oder Performance in bestimmten Benches gegenüber den Vorgängern.

Neue 1080FE Info - Gast
2016-05-08, 14:19:17
Mal zum Thema zurück und die 4K Prognose von Leo, alle Benchmarksvergleiche die Nvidia für die 1080 FE (und das scheint ja die stärkste Version zu sein) veröffentlicht hat, basieren auf einer Auflösung von 2560x1440 (1440p) (http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-GTX-1070-Ankuendigung-Preis-Release-1194648/). Schon lustig nicht wahr?

Ich glaube da ist es nichts mit, die 980ti wird klar geschlagen (genau deshalb hat man auch die 980 im Vergleich rausgemölt), denn dazu braucht man nicht mal 8GB Vram. Also ist die Karte für 4K auch nicht geeignet und Meilen weit weg, von einer OC- TitanX Varainte mit irhren lächerlichen 25xx SP. Für den Preis, nein danke!

Jensen dieser Lumpenverkäufer...;D. Der Preis wird immer mehr zu Zünglein an der Waage, in 1440p ist sie auf 60fps Full [Nvidia proprietäre] Details optimiert. Ich denke AC auf AMD Level kann die auch nicht, voll eine Nullnummer!

Das scheint wirklich nur zum VR zu taugen.

Godmode
2016-05-08, 17:01:08
BTW:NVIDIA’s new SLI HB bridge doubles the available transfer bandwidth compared to the NVIDIA Maxwell™ architecture.

Sehen wir da etwa NVLINK?

IIRC hatte die alte Brücke 1 GB/s. Wenn sie jetzt 2 GB/s hätten, ist das immer noch verdammt mies, wenn man mit dem PCIe Bus vergleicht. Eventuell ist der Transfer über die Bridge auf kürzere Latenzen optimiert. Nach jetzigem Kenntnisstand hat GP104 kein NVLINK, was ich schade finde. Andererseits auch verständlich, da NVLINK wohl viel Die-Fläche benötigt.

Plitzkrieg
2016-05-09, 13:49:37
Mal zum Thema zurück und die 4K Prognose von Leo, alle Benchmarksvergleiche die Nvidia für die 1080 FE (und das scheint ja die stärkste Version zu sein) veröffentlicht hat, basieren auf einer Auflösung von 2560x1440 (1440p) (http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-GTX-1070-Ankuendigung-Preis-Release-1194648/). Schon lustig nicht wahr?

Ich glaube da ist es nichts mit, die 980ti wird klar geschlagen (genau deshalb hat man auch die 980 im Vergleich rausgemölt), denn dazu braucht man nicht mal 8GB Vram. Also ist die Karte für 4K auch nicht geeignet und Meilen weit weg, von einer OC- TitanX Varainte mit irhren lächerlichen 25xx SP. Für den Preis, nein danke!

Jensen dieser Lumpenverkäufer...;D. Der Preis wird immer mehr zu Zünglein an der Waage, in 1440p ist sie auf 60fps Full [Nvidia proprietäre] Details optimiert. Ich denke AC auf AMD Level kann die auch nicht, voll eine Nullnummer!

Das scheint wirklich nur zum VR zu taugen.

Die Founders Edition ist eine ganz normale 1080 mit DHE und Vaporchambers. Keine handpicked Chips, nicht das Beste vom Besten, eine ganz normale 1080 mit einer Anderen (nicht unbedingt besseren) Kühllösung! Deine Prognosen sind also sehr hochwertig und sollten Beachtung finden :freak:

Gast
2016-05-09, 14:54:25
Computerbase (http://www.computerbase.de/2016-05/geforce-gtx-1080-founders-edition/) hat dazu gerade einen Artikel veröffentlicht.
Bis auf den Kühler unterscheide sich die Founders Edition nicht von den nachfolgenden günstigeren Modellen wie Gamers Nexus berichtet. Weder sollen speziell ausgesuchte Chips noch eine Übertaktung ab Werk vorliegen. Zudem sei der Kühler, abgesehen von der neuen martialischen Formgebung, „mehr oder weniger identisch“ mit den vorherigen Referenzdesigns.

Malabolge
2016-05-10, 15:02:15
Diese Seite sollte nicht 3D Center heißen, sondern AMD Center ...

Da hier "NV"-Kritische Gastpostings er gar nicht "erscheinen" , solltest du doch sehr "zufrieden" sein.:biggrin:
(Ja, Manchmal poste ich als Gast. Hat aber "arbeitsrechtliche (technische) Gründe)

Aber wieder sehr bezeichnend , das unsere "Neumitglieder" soviel Freiheiten bekommen. Vor allem wenn sie NV-Nahe sind:cool::cool:
Auch auffallend das genau zum "Launch" so viele "positive" Neubürger auftauchen.
Schande wer da böses denkt !:tongue::tongue:




Es lässt sich nicht leugnen , das das NV3D-Center in letzter Zeit sehr NV-lastig geworden ist. Ausserdem bemängle Ich sehr in jedem Artikel in dem AMD auch nur genannt wird , diese "kritischen Nebensätze":eek:

BSP:(aktuell)

Als Gegenargument darf man an dieser Stelle aber gut und gerne anbringen, das sich die (teilweise) hohen Performance-Gewinne von AMD unter Asynchronous Compute primär aus der Ineffizienz des eigenen DirectX-11-Treiber speisen – anders formuliert, AMD mit diesem Feature vornehmlich nur das aufholt, was gegenüber nVidia sowieso noch fehlte.



Vornehmlich ist hier noch gar nicht erklärt oder bewiesen worden, aber schon wieder (mal) wird der Eindruck erweckt das AMD nicht mal geradeaus scheissen kann(Sorry für die Ausdrucksweise).
Oder werdet Ihr dafür sogar bezahlt ?



PS: Jetzt bitte denn "bitte Meckern"-Button linksunten drücken

Gast
2016-05-10, 15:49:11
Vornehmlich ist hier noch gar nicht erklärt oder bewiesen worden, aber schon wieder (mal) wird der Eindruck erweckt das AMD nicht mal geradeaus scheissen kann(Sorry für die Ausdrucksweise).
Oder werdet Ihr dafür sogar bezahlt ?
Dass AMD in DX11 ein Treiberproblem hat ist nun wirklich 100x durchgekaut und zig Mal bewiesen worden. Warum darf es nicht erwähnt werden, dass AMD eben am Stärksten von ihrer DX11-Schwäche profitieren? Weil es gewissen Leuten (dir) nicht in den Kram passt?

Belege gibts übrigens genug. NVIDIA ist in der Breite der Early Access Spiele, also ohne Optimierung durch einen IHV, deutlich schneller als AMD, es gibt massig DX11-Spiele, in denen AMD mit schwacher CPU deutlich stärker einbricht als NVIDIA etc. pp.

derpinguin
2016-05-10, 20:36:24
Da hier "NV"-Kritische Gastpostings er gar nicht "erscheinen" , solltest du doch sehr "zufrieden" sein.:biggrin:
(Ja, Manchmal poste ich als Gast. Hat aber "arbeitsrechtliche (technische) Gründe)

Aber wieder sehr bezeichnend , das unsere "Neumitglieder" soviel Freiheiten bekommen. Vor allem wenn sie NV-Nahe sind:cool::cool:
Auch auffallend das genau zum "Launch" so viele "positive" Neubürger auftauchen.
Schande wer da böses denkt !:tongue::tongue:

Es lässt sich nicht leugnen , das das NV3D-Center in letzter Zeit sehr NV-lastig geworden ist. Ausserdem bemängle Ich sehr in jedem Artikel in dem AMD auch nur genannt wird , diese "kritischen Nebensätze":eek:

Deine Verschwörungstheorien in allen Ehren, aber was hätte ich/hätten wir Mods davon? Wir bekommen weder Geld noch sonst was für die Tätigkeit, einige Mods - unter anderem ich - haben AMD Hardware. Hast du auch irgendwas handfestes um deine Unterstellungen untermauern zu können, oder ist das mehr so "gefühlt"?

Godmode
2016-05-10, 20:42:29
Da hier "NV"-Kritische Gastpostings er gar nicht "erscheinen" , solltest du doch sehr "zufrieden" sein.:biggrin:
(Ja, Manchmal poste ich als Gast. Hat aber "arbeitsrechtliche (technische) Gründe)

Aber wieder sehr bezeichnend , das unsere "Neumitglieder" soviel Freiheiten bekommen. Vor allem wenn sie NV-Nahe sind:cool::cool:
Auch auffallend das genau zum "Launch" so viele "positive" Neubürger auftauchen.
Schande wer da böses denkt !:tongue::tongue:




Es lässt sich nicht leugnen , das das NV3D-Center in letzter Zeit sehr NV-lastig geworden ist. Ausserdem bemängle Ich sehr in jedem Artikel in dem AMD auch nur genannt wird , diese "kritischen Nebensätze":eek:

BSP:(aktuell)



Vornehmlich ist hier noch gar nicht erklärt oder bewiesen worden, aber schon wieder (mal) wird der Eindruck erweckt das AMD nicht mal geradeaus scheissen kann(Sorry für die Ausdrucksweise).
Oder werdet Ihr dafür sogar bezahlt ?



PS: Jetzt bitte denn "bitte Meckern"-Button linksunten drücken

Das selbe können wir uns regelmäßig von den Nvidia Fanboys anhören. Wie böse wir doch nicht sind und alles eine fette AMD Verschwörung ist. Ehrlich, hast du nichts besseres zu tun? Wenn dir die News zu biasd sind, warum ließt du sie dann überhaupt? Ein freischalten von Posts kann folgende Gründe haben:

- Flame
- Trolling
- Kein Inhalt
- Spam
- Offtopic
- keine Mods da, die freischalten.