Krieg der Kerne geht zu Ende - AMD wagt Blick in die Zukunft Diskussion

Postmaster

Kommentare-Dealer
Donald Newell, Chief Technology Officer (CTO) bei AMD, hat heute einen kleinen, aber dennoch spannenden Ausblick in die Zukunft gewagt. Viele Kerne sind seiner Meinung nach nicht der Weg der Zukunft zu mehr Leistung, ebenso wie das Taktrennen, wdas Intel mit dem Ende der NetBurst Architektur einst zu Grabe trug.


Spezialisierung sei das, worauf es ankomme, betont Newell. So seien viele Kerne nicht mehr gut zu verwalten, denn schon heute gehe die Spanne zwischen weiteren Kernen und Leistungsgewinn immer weiter auseinander. So habe man bisher...
 
Ist schon klar, dass das von AMD kommt. Die müssen schließlich ihre kommenden Produkte gut reden, gerade die für sie wichtigen Fusion-Modelle.
Spezialisierte Einheiten werden sicher auch noch in größerer Funktionsvielfalt kommen.
Allerdings dürfte sich die Zahl der Kerne noch etwas weiter erhöhen. Das Hauptproblem ist nach wie vor die häufig wenig optimierte Software für viele Threads.
 
Also was bisher zu hören war ist doch voll iO.
Jeder kann sich dann das kaufen was er wirklich benötigen wird.
Die Grafikkarte oder ein CPU in einzelnen wird es auch weiter geben.
Doch um ehrlich zu sein,>>>>> heutzutage will man Strom sparen aber auch Leistung erhalten.. und da ist nun mal AMD auf den besseren Weg als andere Firmen.:-D
 
Möchte mal jemand zum Thema posten ...(?)

Hier gehts um Aussichten für eine ferne Zukunft.
Nicht um die nächste oder übernächste Prozessorgeneration.

Hat schon mal jemand daran gedacht, daß Strukturshrinks unter 22 nm eine technisch kaum machbare Herausforderung darstellen.
Ich will garnicht wissen, welche TDP da ein 20-Kerner haben wird.
Sofern man dem nicht gewaltig(st) den Takt und die Vcore (in heute eher unbekannt kleine Höhen) senkt, dürfte der nicht kühlbar sein.
 
Ich sehe auch so langsam das Ende der jetzigen CPUs gekommen.
Zum einen bringt eine Weitere Anzahl an Kernen auch weniger Leistungszuwachs, bis man an einem Punkt kommt, wo noch mehr Kerne sogar weniger Leistung bedeuten würde.
Auch der Takt lässt sich nicht weiter anheben. TDP lässt grüßen und der Verbrauch steigt auch viel zu weit an.
Ebenso kann die Fertigung nicht mehr wirklich verkleinert werden und ich schließe mich da an, dass bei 22nm oder evtl. noch etwas weniger, schluß sein wird.
Ergo muß man sich was völlig neues einfallen lassen.
Wie das aussieht, ist natürlich schwiergig zu sagen.
In erster Linie werden wir wohl sicher zu erst mit System "beglückt" werden, die auf eine jeweilig Aufgabe optimiert und spezialisiert sind.
So kann ich mir z.B reine Gamer-CPUs gut vorstellen, die dann max.2-4 Kerne haben, aber sehr hoch takten und eine demendsprechende Kühlung brauchen.
Für Film und Bildbearbeiter, niedrig taktende "Vielkerner" die ihre Leistung aus der großen Anzahl an Kernen ziehen.
Für Bürorechner Strom sparende 1-2 Kerner mit niedrigen Takt aber z.B. 4 Threads pro Kern um mehrer Aufgaben auf einmal abarbeiten zu können.
Dseweiteren wäre auch ein "Inteligenter" Arbeitsspeicher denkbar, der aktiv Daten vorab berechnet, so das die CPU dann die Daten schnell verarbeiten kann.
Auch die Grafikkarten könnte für solche Aufgaben "zweckendfremdet" werden, was ja mit Nvidias Cuda schon eingeschränkt gemacht wird.
Ein Tendez dazu kann man ja schon finden.
Erst spähter, wenn diese Maßnamen auch ausgeschöpft sind, kann ich mir vorstellen, dass wir was völlig neues bekommen.
z.B. Bio-Chips mit einer begrenzten Lebensdauer.
Ich sehe uns schon eine wöchendliche Dosis Nährlösung in eine künstliche Ader des Rechners spritzen und wer in den Urlaub will, muß seinen Rechner ins Rechnerheim bringen, damit er die Zeit überlebt😀
 
Ich sehe auch so langsam das Ende der jetzigen CPUs gekommen.
Zum einen bringt eine Weitere Anzahl an Kernen auch weniger Leistungszuwachs, bis man an einem Punkt kommt, wo noch mehr Kerne sogar weniger Leistung bedeuten würde.
Auch der Takt lässt sich nicht weiter anheben. TDP lässt grüßen und der Verbrauch steigt auch viel zu weit an.
Ebenso kann die Fertigung nicht mehr wirklich verkleinert werden und ich schließe mich da an, dass bei 22nm oder evtl. noch etwas weniger, schluß sein wird.
Ergo muß man sich was völlig neues einfallen lassen.
Wie das aussieht, ist natürlich schwiergig zu sagen.
In erster Linie werden wir wohl sicher zu erst mit System "beglückt" werden, die auf eine jeweilig Aufgabe optimiert und spezialisiert sind.
So kann ich mir z.B reine Gamer-CPUs gut vorstellen, die dann max.2-4 Kerne haben, aber sehr hoch takten und eine demendsprechende Kühlung brauchen.
Für Film und Bildbearbeiter, niedrig taktende "Vielkerner" die ihre Leistung aus der großen Anzahl an Kernen ziehen.
Für Bürorechner Strom sparende 1-2 Kerner mit niedrigen Takt aber z.B. 4 Threads pro Kern um mehrer Aufgaben auf einmal abarbeiten zu können.
Dseweiteren wäre auch ein "Inteligenter" Arbeitsspeicher denkbar, der aktiv Daten vorab berechnet, so das die CPU dann die Daten schnell verarbeiten kann.
Auch die Grafikkarten könnte für solche Aufgaben "zweckendfremdet" werden, was ja mit Nvidias Cuda schon eingeschränkt gemacht wird.
Ein Tendez dazu kann man ja schon finden.
Erst spähter, wenn diese Maßnamen auch ausgeschöpft sind, kann ich mir vorstellen, dass wir was völlig neues bekommen.
z.B. Bio-Chips mit einer begrenzten Lebensdauer.
Ich sehe uns schon eine wöchendliche Dosis Nährlösung in eine künstliche Ader des Rechners spritzen und wer in den Urlaub will, muß seinen Rechner ins Rechnerheim bringen, damit er die Zeit überlebt😀

da gibt deine Glaskugel ja einiges her, hast die Deluxe Edition oder wie ?^^ Mal sehen ob wir das noch erleben werden(bin 15) 😀.
 
Es gibt ja auch andere Möglichkeiten, viele Kerne zu erhalten. Notfalls auch mit zwei oder mehr CPU Sockeln wie bei den Servern.
Prozessoren mit acht und zwölf Kernen gibt es bereits.
Wenn sich Dinge wie Raytracing durchsetzen, wird es aber vermutlich ganz andere Recheneinheiten geben.
Angeblich soll man ja mit Silizium auch mit Strukturen kleiner als 22nm noch arbeiten könne, aber der Entwicklungsaufwand wird dann sehr groß.
Wird dann auch interessant, ob Intel auch dann noch am Tick-Tock festhalten kann.
 
Bei mehr als acht Kernen, bei mehr als zwölf sowieso, dazu noch beim schon optisch kaum noch zu beherrschenden 22 nm-Prozess, dürfte zudem die voll verwertbare Ausbeute in der Produktion so gering ausfallen, daß jeder Kunde, der ein funktionsfähiges Modell erhält, der Preis eines Wafers dafür zu zahlen hat.
Man wird die Yield-Rate nicht mehr in Prozent, sondern in Promille beziffern.
Ob sich da noch Kunden finden lassen, die diesen Irrsinn mitmachen?
Imho zumindest nicht viele ...
 
da gibt deine Glaskugel ja einiges her, hast die Deluxe Edition oder wie ?^^ Mal sehen ob wir das noch erleben werden(bin 15) 😀.

Naja, hat mit ner "Glaskugel" wenig zu tun.
Das andere eigentlich nie dafür vorgesehende Komponennten einen Teil der AUfgabe einer CPU übernemen könnten, wäre nur ein Logischer schluß, was ja zum Teil auch schon gemacht wid, z.B. Nvidias Cuda oder auf der CPU implantierte Grafikeinheit, was zwar umgekert ist, weil hier die CPU die Aufgabe einer GPU mit übernimmt, aber geht es dabei ja um "Artfremde" AUfgaben.
An Biochips wird schon seit längerem experemtiert, inwieweit sich so etwas mal richtig umsetzen kann, steht natürlich in den Sternen, denkbar wäre es aber auf jeden Fall.
Fakt ist halt nur, dass die bisherige Technik so langsam an ihre Grenzen stößt und, will man dann auch was vortschritlicheres was mehr Leistung bieten kann, bleibt nur eine neue Technologie, wie immer die auch aussehen mag.
 
Ich denke auch das weder der Einsatz von mehr Kernen noch eine höhere Taktung noch eine weitere Verkleinerung den Weg in die Zukunft darstellen.

Sicherlich wird es noch ein paar Prozessorgenerationen geben, die nach dem bekannten physikalischen Prinzip arbeiten, aber irgendwann stößt man eben an die Grenzen des physikalisch machbaren.
(Schwingquarze haben eben auch eine maximale Frequenz und im Nanobereich dürfte von der verkleinerung Schluß sein)

Auch denke ich nicht das Biochips sich durchsetzen werden.

Letztes Jahr habe ich einen interessanten Bericht gelesen (Ich glaub in der PM oder so). Da ging es um Energiezustands-Prozessoren. Also ein Prozessor der physikalisch materiell nicht wirklich existiert, sondern durch Feldtechnik aufgebaut wird. Hier sind theoretisch Geschwindigkeiten möglich, die um mehrere Potenzen über den heutigen Prozessoren liegen.

Aber das ist nun wirklich Zukunftsmusik...
 
Hallo

Denke mal, das Problem ist, das man tatsächlich mit der Taktung nicht mehr höher kommt. Vor ein paar Jahren hat man sich nen Pentium 500 eingebaut, und ein oder max 2 Jahre später gab´s dann den 1GHz.
Mittlerweile kommt doch kaum einer über 3,2 GHz, und das schon seit Jahren. Die nächste Möglichkeit war dann, die Anzahl der Prozessoren zu erhöhen. Der Sprung von 1 auf 2 Kerne bringt noch richtig was, von 2 auf 4 schon nicht mehr sooo viel, und irgenwo ist da dann auch schluss. Was nützen einem noch 8 oder 12 Kerne?

Von den "Optimierungen" her baut doch jeder Hersteller was anderes, von 3DNow über HyperTransport oder SSE und MMX.
Problem ist doch, das die Hersteller trotz das die technisch festhängen, neue Prozessoren rausbringen müssen, um weiter fleißig zu verkaufen. Und von daher Optimierungen "erfinden". Ob das letztendlich so viel bringt bleibt dahingestellt. Messbar evtl. schon, deutlich spürbar dann schon nicht mehr.

Denke, das ganze fing an, als man anhand des Namens schon nicht mehr auf die Taktung schließen konnte. Ich sag nur "X4-965" oder i5-650". Ohne in ner Liste nachzusehen, weiß man doch garnicht, was man da kauft.

Was die Zukunft also bringt? Erstmal die gleichen Prozzies mit neuen Optimierungen, vielleicht viel später mal was richtig neues.
 
naja das Problem beim Takt ist nicht, dass man nicht weiter kommt, sondern der Orthonormalo sich keine Wakü einbauen kann. Damit das Ding auf 4 oder mehr GHz läuft, weil son Spaß bekanntlich ja nicht bilig ist.

Etweder müssen sie noch weniger nm machen, was nicht mehr lang geht oder die Lukü Branche mit neuen Ideen revolutionieren, denn ne Wakü für jeder man ist eher unwahrscheinlich, da sowas abzunehmen immer recht Zeitaufwendig ist und auch schwer im Vergleich zu einer Lukü.
 
Die nächste Möglichkeit war dann, die Anzahl der Prozessoren zu erhöhen. Der Sprung von 1 auf 2 Kerne bringt noch richtig was, von 2 auf 4 schon nicht mehr sooo viel, und irgenwo ist da dann auch schluss. Was nützen einem noch 8 oder 12 Kerne?

Von den "Optimierungen" her baut doch jeder Hersteller was anderes, von 3DNow über HyperTransport oder SSE und MMX.
Problem ist doch, das die Hersteller trotz das die technisch festhängen, neue Prozessoren rausbringen müssen, um weiter fleißig zu verkaufen. Und von daher Optimierungen "erfinden". Ob das letztendlich so viel bringt bleibt dahingestellt. Messbar evtl. schon, deutlich spürbar dann schon nicht mehr.
Und warum bringen mehr Kerne im Enduser-Bereich nicht viel ? Weil die Software nicht entsprechend angepasst ist. Im Server-Bereich und auch vermehrt im Workstation-Bereich hat man bereits durch viele Kerne Vorteile.
Sachen wie Raytracing würden auch massiv von Parallelisierung profitieren.

Intel, Samsung und Toschiba planen übrigens bereits eine Zusammenarbeit, um 10nm möglich zu machen. Man darf dabei gespannt sein.
22nm wird man aber bei Prozessoren sehr wahrscheinlich noch sehen.
 
Ich warte eher auf die next Krieg Level Software. Als man noch um jedes Bit und Byte kämpfen musste, konnten die Entwickler wesentlich mehr aus der Hardware rausholen. Habe erst kürzlich einen Report darüber gesehen, das aktuelle Software mindestens fünf mal schneller sein könnte, wenn die nur ordentlich programmiert wäre. Gibt einige Musterbeispiele dafür, ich glaube das haut schon ganz gut hin. Seit dem gebe ich mir extra Mühe, meine Java und Android Programme so effizient wie möglich zu halten.
 

Online-Statistiken

Zurzeit aktive Mitglieder
3
Zurzeit aktive Gäste
34
Besucher gesamt
37

Beliebte Forum-Themen

Zurück
Oben Unten