Intel 6-Kern-Prozessor Gulftown Diskussion

Postmaster

Kommentare-Dealer
Intel hat anscheinend vor, im zweiten Quartal 2010 die ersten 6-Kern-Prozessoren auf den Markt zu bringen. Dieser soll nicht nur für Server, sondern auch für den normalen Markt bestimmt sein. Erste Engineering Samples haben den Weg nach Asien, in das Coolaler Forum geschafft. Neben Bildern, auf denen der neue Gulftown neben 2 Xeon Prozessoren zu bewundern ist, sind auch erste CPU-Z Screenshots und viel interessanter, ein Benchmark Vergleich zwischen dem Gulftown mit 2,4Ghz und einem Xeon m...

Intel_Gulftown_5.jpg


Weiterlesen: Intel 6-Kern-Prozessor Gulftown
 
Zuletzt bearbeitet von einem Moderator:
Gehört zwar hier nicht her ...
Aber wer fragt, bekommt natürlich eine Antwort.

Die Six-Cores-Opterons brauchen ein Sockel-F-Board.
Da es die derzeitig für den Desktop-Breich noch nicht gibt (warum sollte es auch?), sind sie mit über 2000,- EUR auch nicht wirklich preiswert.
 
940 (941) gegenüber 1207 Kontakte im Prozessorsockel.
Ich denke es durfte schwer möglich sein diesen Opterons einen Desktop-Sockel zu verpassen.

Hier gehts nun aber wieder mit Intels zu erwartenden Schlachtschiffen weiter.
 
Zuletzt bearbeitet:
Für mich stellt sich eher die Frage was bringt dieses Vorgaukeln von mehr Prozessoren wirklich? Ich meine es sind ja nur 6 in diesen Fall da und wenn 12 simuliert werden werden dann die 6 einfach nur besser ausgelastet oder wie muss man das sehen?
 
Wenn die entsprechende Software darauf zugeschnitten ist, diese virtuellen Threads perfekt zu nutzen, dann könnte man fast davon reden im Endeffekt 12 kerne zu haben. Nur nutzen die Software sowas eig nie aus, wenn doch dann nicht so gut 😉
 
Ich weiß die meisten Programme unterstützen Dualcore inzwischen aber Quadcore eher nur wenige. Aber wie soll man auf 12 kommen wenn physisch nur 6 da sind? Man kann die Rechenleistung der anderen ja nicht mal eben duch simulieren dazupacken...irgendwoher muss das ja auch kommen.
 
Soweit ich weiß, kann da einfach ein Kern 2 Threads Bearbeiten. (6*2=12) Das würde mehr oder weniger bedeuten das diese CPU von der Physik her ein Hexa-Core ist aber in der Theorie eben 12 Kerne hat. Wenn man aber sagt 12 Kerne, ist jeder einzelne Kern natürlich schwächer als ein einzelner "echter" Kern. damit wird einfach Multithreading verbesssert bzw. besser ermöglicht.

Ich hoffe meine antwort ist teilweise verständlich. 😕
 
Wenn die entsprechende Software darauf zugeschnitten ist, diese virtuellen Threads perfekt zu nutzen, dann könnte man fast davon reden im Endeffekt 12 kerne zu haben
Ihr wisst aber schon, das Hyperthreading, oder genauer SimultanMultiThreading nur dazu dient, die Rechenwerke besser auszulassten, das man dazu dann halt virtuelle Kerne erstellt ist nur ein Nebenpordukt.Das hat was mit der Pipeline Architektur, mit der aktuelle Porzessoren (seit dem P1...^^) arbeiten und deren Abarbeitungsschema zu tun.

Aber ich glaube das interessiert hier (leider) nur die wenigsten...


Beispielsweise sagt Intel beim P4, das man mit SMT maximal 20-30% mehr Power erhält, unter selbst gefälschten Bediengungen...
 
Zuletzt bearbeitet:
@ agena japp ich hab verstanden was du meinst, also denk ich mal 😀 du sagst ja vom Prinzip her genau das was ich mir gedacht habe und was bnomis1 ja auch sagt, das die Kerne mehr oder weniger dadurch nur besser ausgelastet werden.

Für mich ist der Mehrpreis der Core i 7 mit HT im Verhältnis zu den Core i 5 die das ja nicht haben nicht so ganz gerechtfertigt. Aber wer das maximum haben will der kauft sich das halt 🙂

Wenn die 6 Kernprozessoren auf den Markt kommen wird es hier und in allen anderen Computerforen wieder zu massenhaft der selben Frage kommen: Lohnen sich 6 Kerne 😀
So war es ja auch als die ersten Dual bzw. Quadcoreprozessoren auf den Markt kamen.
 
Wenn die 6 Kernprozessoren auf den Markt kommen wird es hier und in allen anderen Computerforen wieder zu massenhaft der selben Frage kommen: Lohnen sich 6 Kerne 🙂
So war es ja auch als die ersten Dual bzw. Quadcoreprozessoren auf den Markt kamen.

Mit dem Unterschied, das wir jetzt wissen, das man heute noch nicht mal 4 Kerne annäherend auslasten kann,🙂 was die Entscheidung etwas erleichtert.Das ändert natürlich nix daran, das die Pro Takt Leistung auch steigen wird, und so ein nicht ausgelasteter 6 Kerner verdammt schnell sein kann
 
Doch kann man.
Hochlestungsserver würden ohne entsprechende Gimmiks unter der Last zusammenbrechen.
Das wir, etwa weil mal wieder ein besonderes Softwarepaket den Gang in die Welt antritt, das immernoch schaffen sämtliche Serverkapazitäten in die Knie zu zwingen, ist eine andere Sache.
Nur in der Welt des Homecomputing und der Games hat sich die auf Abarbeitung kurzer overheadminimierender Thrads abzielende Programmierung noch nicht auf breiter Front durchsetzen können.
Das kommt wenn, dann sowieso nur für neue Software. Alte Software noch einmal zu "zerpflücken" um sie dann um Jahre verspätet multicoreoptimiert noch einmal neu auf den Markt zu werfen, lohnt einfach nicht.
 
Ich glaube alle wissen welches Softwarepaket du meinst^^ 😀

Ich hab aber mal glaube ich gelesen das Serious Sam nachträglich eine Multicoreunterstützung bekommen hat, ist nur die Frage ob sie das nicht von vornerein wollten und es aus Zeitgründen nur nachgeschoben haben.
Aber an sich ist klar das nur Programme die neu auf den Markt kommen in Sachen Multicoreunterstützung optimiert/programmiert werden.

Ich bin auf jeden Fall auf die neuen Prozessoren gespannt, vor allem was sie dann wirklich leisten 😉
 
Ja hatte vergessen das mit dem Home Bereich hinzuschreiben, aber ich glaube das ist der der Bereich der hier im Forum interessant ist...

Wegen den Spielen:
Auch der schon alte Ghost Recon Advanced Warfighter 2 zwingt meinen Dualcore mit Dualcore optimierung bei heftigen Physikexplosionen locker in die Knie, dann heißt es wieder Ruckel-Ruckel-Ruckel.Aber auch das neuere Crysis zieht ja nur einen geringen Nutzen aus einem Quadcore gegenüber einem Dualcore, dabei könnte man das doch wunderbar auf mindestens 3 Threads aufteilen:

Hauptengine(Spieler und so)
K.I.
Physik und die Map/Welt

da wäre bestimmt noch ne Menge Potenzial, aber wie du schon sagtest Horst, aktuelle Software zieht (noch) mehr Nutzen aus GHz als aus Kernen, obwohl es auf dem Grafikmarkt ja schon seit der Geforce 5(Shader 2) und vergleichbar in Richtung Multithreading geht
 
Aber unterstützt Advanced Warfighter 2 nicht Physix? Sprich das die Explosionen über die Grafikkarte laufen? Bei dem ersten Teil war es so. Ich weiß ja auch nicht ob du eine Grafikkarte hast die das unterstützt.

Was das angeht bin ich ja auch gespannt welche Richtung nun eingeschlagen wird. Die einen wollen ja alles in die CPU integrieren und die anderen wollen das die GPU mehr Aufgaben übernimmt wie z.B. umrechnen von Filmen was ja auch schon gemacht wird. Selbst die bereiche die nicht legal sind nutzen die GPU inzwischen, wie z.B. Fireshark oder wie das ding heißt womit man sich in andere Netzwerke hacken kann. Da frag ich mich ehrlichgesagt warum die GPU schneller ist als die CPU?!

An sich denke ich ist die Aufteilung zwischen CPU und GPU immer noch nicht optimal was auch zu Leitungsverlust führt.

Vielleicht sollten die Programmierer das Potenzial der CPU und GPU nicht nur in sachen Multicoreoptimierung besser nutzen, die sollten an sich besser programmieren sprich Hardwareschonender. Es gibt Programme die zeigen das das geht, das neue Need for Speed soll z.B. viel besser Programmiert sein als sein Vorgänger und somit auch auf älteren Rechnern laufen. So war es ja auch bei Crysis und Crysis Warhead. Naja ok das war immer noch Hardwarehungrig aber nicht so extrem wie Crysis^^
 
Verständlich: Wenn ich nen Core i7 auf 4 GHz und Corsair XMS3 DHX Ram hätte, dann würde ich mir auch mal wieder was neues zulegen 🙂.
Mit der Hardware kannste dich ja nirgendwo blicken lassen, wo Leute sind, die halbswegs Ahnung davon haben... 🙂

Ach ja wenn du nen "Recycler" für deine "alte" Hardware suchst, PN reicht 🙂🙂🙂
 

Online-Statistiken

Zurzeit aktive Mitglieder
2
Zurzeit aktive Gäste
54
Besucher gesamt
56

Beliebte Forum-Themen

Zurück
Oben Unten