Nvidia GT300: Erste Spezifikationen bekannt Diskussion

Habe auf expreview oder einer anderen news seite gelesen das die Yields bei nur 2% liegen würden was urkmansaussage mehr als bestärkt:

Einführung des 40nm prozess kostet erstmal ne stange geld, lohnen tut sich das erst in ein paar jahren.
Dann das interface : ist groß braucht platz und kostet damit noch mehr geld. Und bei den vielen transistoren nicht unwahrscheinlich das einer genau hier kaputt geht.

Wenn die das ding noch unter real wert verkaufen, gute nacht...

Wer macht mit: kleine spendenaktion 🙂
 
Die Pläne für dies Flaggschiff dürften schon ein paar Wochen in der Schublade geschlummert haben.
Sie umzusetzen fällt scheinbar sehr schwer.
Solange TSMC den Prozess nicht in eine gewinnträchtige Zone bekommt, können wir hier Vermutungen anstellen so viel wir wollen, können herumflamen, oder das besser sein lassen(!).
Wir werden von der Karte und darüber wie sich sich bei der breiten Masse der User so schlägt, erst dann was Handfestes erfahren, wenn sie mehr als nur in ausgesuchten einzelnen Testmustern verfügbar ist.

Bis jetzt ists sowieso wie Luftschlösser bauen, über diese GPU zu reden.
 
Und das die meisten Karten im Mainstream und Low End Segment verkauft werden, das stört Nvidia nicht, die vekaufen trozdem mehr, alles klar...

Weißt du wie sich Kunden ihr Produkt auswählen was sie kaufen? Die Kommentar was du in letzter Zeit immer wieder abgibst sagen mir, dass du keine Ahnung davon hast. Gibt zwei wichtige Dinge nachdem der 0815 Kunde sein Produkt aussucht, einmal ist es ob er die Marke kennt und wer aktuell das beste Produkt hat, wobei es vor allem auf ersteres ankommt und bei beiden ist Nvidia vorne, zumindest sieht es so aus des auch mit der Leistung wieder stimmen wird.

Also informiere du dich lieber mal was Sache ist, nebenbei die meisten Grafikkarten die verkauft werden sind onBoard.

Habe auf expreview oder einer anderen news seite gelesen das die Yields bei nur 2% liegen würden was urkmansaussage mehr als bestärkt:

Einführung des 40nm prozess kostet erstmal ne stange geld, lohnen tut sich das erst in ein paar jahren.
Dann das interface : ist groß braucht platz und kostet damit noch mehr geld. Und bei den vielen transistoren nicht unwahrscheinlich das einer genau hier kaputt geht.

Wenn die das ding noch unter real wert verkaufen, gute nacht...

Zum einen sind nach dem Tape Out die Yields meist sehr gering, zwar nicht so gering, aber die 2% sind auch nur Spekulationen, Nvidia selbst sagt sie sind in Ordnung, wobei mal dahingestellt sei inwiefern man denen glauben kann.

Die Einführung eines neuen Prozesses lohnt sich sehr sehr schnell. Wie ich aber sehe hast du von der Fertigung relativ wenig Ahnung, hier genauer über das zu diskutieren hätte also relativ wenig Sinn, wobei ich mich persönlich auch nicht gerade als Spezialist bezeichnen würde.

Aber wir werden noch bis zu der Einführung warten müssen bis wir wirklich wissen was der neue Chip leistet, laut CB kommt er Anfang Dezember, zumindest haben die das sehr stark angedeutet, die Infos was die haben stehen aber unter NDA, womit die eigentlich nichts darüber sagen dürfen.
 
ATi gabs schon, da warst du noch in einem anderen Aggregatzustand...

YMMD! :fresse:
Der kommt in die Signatur!

Naja, übertreibt es doch nicht gleich mit der 1000€ Marke 😉
Erstmal abwarten, vllt. spielt sich nVidia nur auf, wobei die sich das jetzt keinesfalls erlauben können, da meiner Meinung nach die GT200 Serie ein Flopp war....
 
Wieso war der GT200 ein Flop 😕

Das muss man mir jetz mal erklären...


Was die Bilder und den Kommentar dazu angeht: Die 9800GTX+/GTS250 hatte auch keine Verkleidung auf der Rückseite (PCB grösser als das Gehäuse) und die wurde auczh nciht wärmer als die GTX Reihe mit Verkleidung....
 
Es ging ja auch nur um GTX260 und GTX285, und die hatten diese Abdeckung meiner Meinung nach. Und das auf dem GT300 ist keine Verkleidung sondern meiner Ansicht nach eine Metallplatte, die die Speicherchips kühlt.
 
wow...die Bilder sind ja echt mal geil😀
Sone GraKa sieht glaub ich echt verdammt geil aus😀
(Und in Pdelvos Gehäuse besonders😉)

ICH WILL MEHR INFOS!!! Aber verdammt geil das Teil😀
 
An was macht ihr den fest das der GT300/GF100 AMD "wegbombt"?

Ich würde da eher verhalten rangehen als einfach davon auszugehen 😉

Zu den Bildern der Karte: Das ist ein Dummy (kann man auch nachlesen ->google hilft), sprich man hat irgend ein PCB zugeschnitten und den Rest draufgeklebt..
 
Aber welchen Sinn macht es einen Dummy zu zeigen, der völlig anders aussieht als die spätere Karte (und zudem die PCIe Stecker so dämlich zu platzieren).

Und ob er AMD wegbombt weiß niemand, eben so wenig wann er kommt. Doch ausgehend von den bisherigen Date, z.B. der Bandbreite, kann man davon ausgehen, dass die Leistung gegenüber dem GT200 stark gesteigert wurde.
 
Sinn? Hmm.. ich glaub sie hatten keine laufähige Karte, ganz einfach. Schon alleine die Backplate ist ne fehlkonstruktion da sie einen SLI connector verdeckt. Der 6pin ist nicht mal verlötet usw..

Für mich war das einfach nur ne "verünglückte" Presentation um irgendwas zu zeigen damit man AMD Kunden abquatschen kann. Das man aber nicht mal ne Fertige Karte zeigt, verstärkt die Gerüchte um die schlechten Yield raten.

Die Banbreite lässt mal überhaupt keine schlüsse auf die Performence zu.. bei der 5870 zb wurden Shader/Rops/Tmus verdoppelt zum vorgänger Model (ausser der Bandbreite), was beim GT300 nicht der Fall ist, zumindest was Rops/Tmus betrifft.
 
Ich denke das mit der Backplate ist eine Sache der Perspektive, so doof sind die nun auch wieder nicht.
Aber mit dem PCIe Connector hast du recht, an der Stelle sieht das PCB komisch aus.

Aber wieso hat man dann die Transistoranzahl mehr als verdoppelt? Klar, ein Teil geht auf den Cache, aber der Rest?
 
Eine Karte zu zeigen, ob nun echt oder nur ein Dummy, hat aus Marketing-Gründen sicher sinn. So kann man evtl. den ein oder anderen Endverbraucher davon abhalten jetzt eine ATI zu kaufen und ihnen zu zeigen, "wartet lieber auf nVidias neue 300er Graka". Nicht mer oder weniger steckt hinter einer solchen "Vorführung".

Was dann die neuen nVidias wirklich zu leisten im stande sind und was sie kosten werden, werden wir eh erst sehen, wenn es sie wirklich zu kaufen gibt und weis der Himmel, wann das sein wird.
Alles andere ist jetzt müßig und reine Spekulation.
 
Klar ergibt es Sinn einen Dummy zu zeigen, aber dann hätte ich ein Ideal Modell gezeigt und nicht eines wo die PCIe Stecker so dämlich liegen^^
 
Ich denke das mit der Backplate ist eine Sache der Perspektive, so doof sind die nun auch wieder nicht.
Aber mit dem PCIe Connector hast du recht, an der Stelle sieht das PCB komisch aus.

Ich finde das pic von der Backplate nicht mehr aber hier sieht man was bei rum kommt wenn man unter druck steht 😉

Lüftungsschlitze vom Kühler verdeckt, mit schrauben befestigt..


abgesägtes PCB PCIe Anschlüsse nicht verlötet..


NV selber hat nach gewissen meldungen zugegebne das die Karte ein Fake sei und nicht mal ne GPU drauf hat.

Aber wieso hat man dann die Transistoranzahl mehr als verdoppelt? Klar, ein Teil geht auf den Cache, aber der Rest?

Was meinst wo die ganzen neuen Features her kommen? GPGPU wurde extremst aufgepumpt was alles im Chip implementiert werden muss, DX11 usw..





Wie gesagt es wurde lange nicht alles verdoppelt, klar mann muss abwarten wie effizient die Architektur arbeitet aber von einer Über"Gamer"Karte ist bei weitem nicht auszugehen.
 
Vor allem eine Tesla Karte mit einem DVI Ausgang 😵
Gut die Pics hatte ich nicht gesehen, ist echt billig. Wusste auch nicht dass man davon ausgehen kann, dass DX11 speziell Transistoren "verbraucht", dachte das wird alles irgendwie in die Shader gesteckt... aber gut, wieder etwas schlauer 😉
 
Trotzdem bin ich der Meinung das Nvidea die ATI's wegbombt 😀
( Wehe das wird jetzt wieder zu einer Fan-boy "Diskussion")
 
Wusste auch nicht dass man davon ausgehen kann, dass DX11 speziell Transistoren "verbraucht", dachte das wird alles irgendwie in die Shader gesteckt... aber gut, wieder etwas schlauer 😉

Bei AMD is es zumindest so, darum gehe ich davon aus das es bei NV auch so ist.. Es könnte aber auch gut möglich sein, das man das Software mässig durch die "CUDACores" laufen lässt. Wie effizient das sein wird steht in den Sternen.. darüber is aber auch noch zu wenig bekannt.
 
Ich gehe nach wie vor davon aus, dass sich AMD/ATi und nVidia von der Leistung wieder mal nichts geben werden.
Es wird wieder ein Kopf an Kopf rennen sein, nicht mehr und nicht weniger.

Ausserdem eghe ich davon aus, ob die gezeigte karte nun ein Fake ist oder nicht, dass die finale Version ähnlich aussehen wird.

Es ist trotzdem nur Spekulation...

Ich bin dennoch sehr gespannt.
 

Online-Statistiken

Zurzeit aktive Mitglieder
1
Zurzeit aktive Gäste
42
Besucher gesamt
43

Beliebte Forum-Themen

Zurück
Oben Unten