Vor-/Nachteile & Gründe für APUs?

KonZe

Banned
Hallo Community,

vor allem jetzt, da Sandy Bridge erschienen ist, drängt sich mir die Frage, was die Vorteile einer APU im Vergleich zu CPU + IGP auf dem Board sind und aus welchen Gründen die CPU-Hersteller nun diesen Weg gehen?
Denn ich als Laie sehe darin ausschließlich Nachteile:

Pro:
+ 3D-Anwendungen nur für "Minderheiten wichtig" (aber wieso konnte man nicht dennoch die IGP auf dem Board lassen...?)​

Contra:
- keine "Auswahl" der IGP
- weniger "Platz" für die CPU
- mehr Abwärme die allein durch den CPU-Kühler abgeführt werden muss
- man zahlt IMMER für eine IGP, auch wenn man keine benötigt

explizit auf Sandy Bridge
+ Active Sync

- Active Sync könnte auch mit IGP auf dem Board laufen(?)
- (bisherige) Chipsätze erlauben entweder Übertakten ODER die IGP
- "K-Modelle" haben eine stärkere IGP, obwohl sie besonders für "OverClocker" sind, die größtenteils "Gamer" sind und somit auch eine dedizierte Grafikkarte verwenden​


Ich werde die Liste erweitern, wenn mir jemand weitere Argumente nennt oder meine entfernen, falls sie schier nicht stimmen. 🙂

MfG KonZe
 
Zuletzt bearbeitet:
Ihr redet immer von den ganzen Nutzern, die keine Gamer sind und bei denen der Kostengesichtspunkt im Vordergrund steht.

Ich würde mal behaupten, dass so jemand überhaupt keinen neuen Rechner braucht. Ein alter Rechner mit schneller Festplatte sollte auch für 90% dieser Nutzer reichen. Also kann sich Intel die bekloppte onchip-GPU von mir aus in den ... schieben.

Wo soll denn da die große Kostenersparnis sein? Auf der Seite der Kunden doch wohl nicht. Die Kostenersparnis hilft in dem Fall nur der Gewinnmaximierung. Die AMD Boards mit IGP sind günstiger als die Intel Boards ohne IGP.
 
Außerhalb Europas und speziell Deutschlands werden aber größtenteils integrierte Grafikeinheiten verkauft. Die meisten (Neu-)Kunden haben dadurch natürlich einen Vorteil, wenn man es so sehen will.
Natürlich werden die Unternehmen AMD und Intel die gesparten Kosten nicht wohltätig an den Kunden weiter reichen.

Bleibt die Frage, was der normale User so braucht. Da HD-Inhalte immer weitere verbreitet werden und auch der normale User sich mit diesen Beschäftigt, ist eine bessere integrierte Grafikeinheit der richtige Weg, denke ich.
Für die User, die mit dem PC hauptsächlich arbeitet (nicht an aufwändigen CAD/Video/... Programmen) reicht sicher auch eine CPU der vorherigen Generation.
 
Wer wirklich viel Grafikleistung braucht, wird auch in Zukunft zu einer diskreten Lösung greifen. Ansonsten hat eine Verschmelzung von CPU und GPU nur Vorteile.

- geringere Produktionskosten (ein Die statt zwei)
- geringere Abwärme (ein Die statt zwei)
- besseres und effizienteres Power-Management
- besserer GPGPU Support (Stichwort kohärenter Cache)
- kompaktere Systeme (von Ultraportables über Tablets bis hin zu Smartphones)
- leistungsfähigere HPC Systeme
- ...

Die angeblichen Nachteile aus dem Startpost kann ich nicht wirklich nachvollziehen.
Es wird natürlich auch eine gewisse Auswahl an iGPUs geben. Je nach Modell zB mit mehr oder weniger Shadern oder Takt. Mal davon abgesehen ist die Auswahl an IGPs auf Boards auch nicht gerade gross.
Dass weniger Platz für die CPU vorhanden ist, ist belanglos. Das wird durch grössere Sockel, die grössere Prozessor-Packages aufnehmen können, wieder ausgeglichen. Wenn man sich zudem mal anschaut, wie klein zB ein Bobcat ist, scheint Grösse nicht wirklich ein Problem zu sein. Designs sind sehr gut skalierbar.
Abwärme ist wie gesagt auch kein Problem. Insgesamt verringert sich die Abwärme. Und solange APUs gängige TDPs von 125 W nicht überschreiten, werden auch aktuelle Kühllösungen ausreichen.
APUs sind hauptsächlich für OEMs gedacht. Und diese werden auch die iGPU nutzen. Gerade bei AMD wird man ausreichend Performance bekommen, so dass man auf eine zusätzliche diskrete Lösung meist verzichten kann. Darüber hinaus wird es auch weiterhin bezahlbare CPUs ohne iGPU geben, siehe Zambezi. Man muss also nicht zwangsläufig auf eine APU zurückgreifen.
 
Zuletzt bearbeitet:
das ist doch eh alles geld macherei von Intel

diese Schablonen haben sie mit Sicherheit in ihrer schublade. Sie warten nur bis der "Müll"(die jetztigen CPUs) verkauft sind und dann ihre sche*sse gold wird! Und dann verkaufen sie ihre richtigen CPUs für teuer geld und dann wird jeder denken, der jetzt schon ihren Müll gekauft hat, das er doch lieber diese htte kaufen sollen da die besser ist und dann sagt sich doch der ein oder andere ich will den Müll nicht behalten und kauft dann zweimal eine CPU!


Wenn die Software noch nicht so weit ist wie die Hardware wiso schliessen sich dann nicht ein paar Software Firmen mit Intel oder AMD zusammen und Produzieren dann ihre Software so das Intel oder AMD die gesamten "neuen" Features der CPUs nutzen kann?
Das wäre für den Endverbraucher sehr gut!
Wiso brauchen die eig solange bis sie mal die neuen features nutzen können wie z.b. SMT??
das gibt es doch jetzt schon seit ca. 3 Jahren (glaube ich) aber über 50% der neuen Programme, Games.... können es bis heute noch nicht nutzen!
 
@maechi
Die durchschnittliche Endwicklungszeit von Programmen aller Art, sind für gewöhnlich auch um einiges länger als die für Hardware.
Bis so ein Programm den Markt ereicht streichen schon gute 4 Jahre ins Land, was bedeutet, kommt heute ein Programm auf den Markt wurde bereits 2007 oder gar früher, mit der Endwicklung (Programmierung) angefangen.
Logisch dabei, dass die Programmierer dabei die damals aktuelle Hardware berücksichtigen, bzw. die unterstützenden Features.
So ist es auch leicht zu erklären, dass z.B. SMT bei Intel oft keine Unterstützung erfährt.
Sehr gut zu sehen ist das bei Quadcore optiemierten Anwendungen und Games, wo man jetzt erst sehen kann, dass mehr oder weniger alle neu erscheinende Software dieses auch unterstützen.
Wer also Hardwareseitig immer top aktuell ist, hat diesbezüglich oft das Nachsehen, weil die Software die Möglichkeiten meiner Hardware nicht auszureitzen vermag.
 
Zumal eine multithreaded Programmierung nicht immer sinnvoll oder effizient umzusetzen ist. Klar könnte man vieles besser machen, wenn man die Software per Hand optimieren würde und unnötiges weglassen würde, aber das lohnt einfach nicht weil die Hardware schnell genug ist.

@Urkman
HTT =! HT, nur so am Rande

Was ich sagen wollte: Intels HTT gibts schon seit dem P4, wirklich interessant oder leistungsstark ist die Technik beim Endkunden bis heute nicht.



Und das Nehalem in den Spielen so langsam ist, gerade in großen Auflösungen liegt an den zu kleinen L2 Caches, die dann zu schnell limitieren.

Was ich vor allem sehr schade finde, ist die Tatsache, das Intel die HD3000 GPUs nur bei den CPUs aktiviert, die niemals mit dieser benutzt werden. Stattdessen könnte man mit der fähigen Einheit gerade bei Laptops etwas reißen, aber das hat Intel wohl nicht nötig.

Hätte Intel sich den Platz auf dem Die gespart wären die Chips billiger und bräuchten weniger Strom, da auch mit Powergating noch Stromverluste auftreten. Meiner Meinung nach auch der Hauptansatz der APU, also ein hochintegriertes System mit guter Effizienz was billig zu produzieren ist.
 
Zuletzt bearbeitet:
@urkman
achso aber wiso brauchen die denn da so lange?
ich hab mal bei einer Programmierfirma ein Praktikum gemacht weil ich auch etwas in der Richtung machen will!
Die hatten dort ein paar "Vorlagen" wie z.b. das Aussehen des Programms. Und der hat mir auch gesagt das es sehr aufwendig ist aber sie haben bis jetzt maximal 1 Jahr gebraucht für ein Programm
oder ist der Chipsatz extrem schwierig zu Programmieren?
 
Du kannst nunmal erst anfangen (d)einen Programmcode für eine neue Hardware zu optimieren wenn die Hardware da ist (selbst eine Spezifikation des Herstellers hilft dir nicht, weil du mit einer theoretischen Spezifikation nicht testen kannst). Wenn jetzt schon eine Weile an einem Code gearbeitet wurde und dann neue Hardware veröffentlicht wird, wird man in der Regel nicht alles umwerfen und neu anfangen sondern man berücksichtigt das dann beim nächsten Projekt.

Je näher an der Maschinenebene man programmiert desto unangenehmer wird es...und wenns ganz doof kommt hat man direkt nach einem neuen Hardwarefeature noch keine Compiler greifbar die das unterstützen...
 

Online-Statistiken

Zurzeit aktive Mitglieder
2
Zurzeit aktive Gäste
40
Besucher gesamt
42

Beliebte Forum-Themen

Zurück
Oben Unten