AMD A10-7850K: "Kaveri"-APU bei Spielen rund 10 Prozent schneller als der A10-6800K
Eigentlich kommt das neue APU-Flaggschiff, der AMD A10-7850K, erst nächsten Dienstag auf den Markt, doch viele Webseiten sind schon jetzt im Besitz des neuen Prozessors, um pünktlich ein Review veröffentlichen zu können. Besonders früh war die Internetseite PugetSystems, die bereits vor einigen Tagen einen kompletten Test der "Kaveri"-APU online gestellt hatte. AMD hat die NDA-Verletzung allerdings schnell bemerkt, sodass das Review innerhalb weniger Minuten wieder offline genommen wurde. Glücklicherweise konnte WCCFTech die Ergebnisse kopieren und stellt sie Anwendern nun wieder zur Verfügung.
AMD A10-7850K-Prozessor (Bild © PugetSystems)
Die technischen Daten der neuen Desktop-APU-Speerspitze sind bereits seit mehreren Wochen bekannt, jetzt sind endlich auch erste Benchmarks des AMD A10-7850K-Prozessors an die Öffentlichkeit gelangt. Wie bereits zu vermuten war, ist das neue Modelle schneller als sein Vorgänger, zumindest bei der GPU-Leistung. In puncto Prozessor-Geschwindigkeit ist der A10-6800K, aufgrund seines höheren Taktes, aber minimal flotter unterwegs. Ebenfalls mit im Vergleich ist auch ein Intel Core i5-4440, dessen vier Kerne mit je 3,1 GHz laufen.
Die Webseite PugetSystems hat die neue APU unter anderem in verschiedenen Spielen (Alien vs. Predator, Batman: Arkham City, Just Cause 2, Hitman: Absolution und Street Fighter IV Arcade Edition) sowie CPU- (GeekBench 3) und System-Benchmarks (PCMark 8 und CineBench R15) getestet, sodass Nutzer einen guten Gesamteindruck darüber bekommen können, was der Prozessor leisten kann. Das Ergebnis ist jedoch nicht so eindeutig, wie es sich AMD vielleicht gewünscht hätte. Wird die integrierte Radeon R7-GPU gefordert, kann sich der A10-7850K von den beiden anderen Testkandiaten absetzen; den A10-6800K hält man mit minimal 2,6 bis maximal 7,9 FPS auf Abstand, die Intel HD4600 sieht hingegen kein Land. Das Bild ändert sich allerdings schlagartig, sobald der CPU-Part in Anspruch genommen wird; dann kann die ältere AMD-Generation den "Kaveri"-Neuling in die Schranken weisen. Der Intel-Prozessor entfaltet hier sein volles Potential und lässt seine beiden Kontrahenten ganz schön alt aussehen.
Hier die Benchmarks in ganzer Pracht:
TIPP DES TAGES
Diskussionen und Fragen
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
Strom sparen und/oder HTPC.
Es ist doch besser, wenn man im HTPC nur den Prozessor verbauen muss und damit gleich eine "gute" Grafikkarte hat.
Zusätzlich gibt es auch Techniken ( bisher kenne ich es zumindest von mobilen Grafikkarten bei nVidia so ), dass bequem zwischen iGPU und dedizierter Grafikkarte gewechselt werden kann, je nach Leistungsanforderung.
Sinnlos ist es bei weitem nicht. Nur leider hat diese Stromspartechnik wohl den Desktopmarkt noch nicht ganz erobert.
Zusätzlich gibt es auch Techniken ( bisher kenne ich es zumindest von mobilen Grafikkarten bei nVidia so ), dass bequem zwischen iGPU und dedizierter Grafikkarte gewechselt werden kann, je nach Leistungsanforderung.Heißt bei nVidia Optimus und bei AMD Enduro. 🙂
Sinnlos ist es bei weitem nicht. Nur leider hat diese Stromspartechnik wohl den Desktopmarkt noch nicht ganz erobert.
Finde ich auch etwas schade, aber da haben wir wohl das Problem, dass der Bildschirm weiterhin an der Grafikkarte angeschlossen bleibt...
Die HD's von Intel reichen fuer den HTPC auch locker. Finde ebenfalls die APU uninteressant von AMD.
Bisher ging es ja auch nur um Full HD. Bedenke mal, wenn es weiter geht mit 4k, ...
4k ist nur der Anfang. LG hat schon einen Fernseher mit 8k vorgestellt. Bisher scheint es zwar recht irrelevant, da es sowieso nicht die nötigen Medien dazu gibt ( außer evtl. Spiele ), die überhaupt auf 4k laufen, aber warum bis dahin warten?
Da sorgt man doch lieber vor, als dass man dann später nachziehen muss.
Heißt bei nVidia Optimus und bei AMD Enduro. 🙂
Danke, hatte die Namen nicht mehr im Kopf. Dass AMD so etwas auch hat, habe ich mir ebenfalls schon gedacht. Hatte nur nie drüber gelesen. 😀
Finde ich auch etwas schade, aber da haben wir wohl das Problem, dass der Bildschirm weiterhin an der Grafikkarte angeschlossen bleibt...
Daran hatte ich beim Verfassen gar nicht gedacht. Das würde ja heißen, dass dann eine Pipeline o. ä. hergestellt werden muss.
Kann das nicht evtl. durch einen Controller auf der Grafikkarte bewältigt werden? Dann kann zumindest der leistungshungrige Grafikprozessor abgeschalten werden.
Ich weiß aber nicht, inwiefern sowas technisch möglich ist. Aber die Hersteller werden sich da (hoffentlich) was überlegen.
Ich weiß aber nicht, inwiefern sowas technisch möglich ist. Aber die Hersteller werden sich da (hoffentlich) was überlegen.Ich habe da auch keinen Schimmer. 🙂
Man müsste im Endeffekt nur das Bildsignal durchschleifen... Ob das aber so einfach funktionieren kann weiß ich leider nicht.
Da kann ich mir in nächster Zeit aber kaum eine Lösung für vorstellen. Für einen offenen Standard müssten Intel, AMD und nVidia sich mal zusammen setzen und das sehe ich nicht kommen.
Ich finde aber die Leistungsaufnahme im Idle mit nur einem Bildschirm noch recht human. Das größte Potential sehe ich bei mehreren Monitoren, da verbraten besonders die großen Karten von AMD enorm viel Strom.
Mit so einer Technik könnten die beiden AMD gut zurückwerfen.
AMD könnte das ganze jedoch mit ihren eigenen Prozessoren und Grafikkarten genauso machen.
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
@Simlog:
Strom sparen und/oder HTPC.
Es ist doch besser, wenn man im HTPC nur den Prozessor verbauen muss und damit gleich eine "gute" Grafikkarte hat.
Der eigene Vorgänger hängt ihn ab, sobald es rechenintensiv wird? Spielen kann ich damit trz. nicht wirklich, da würde ich eher die nachfolgenden Ideen für sinnvoller halten, IGP für den 2D-Betrieb und die dedizierte GPU für 3D-Betrieb...Wer kauft sich auch eine APU zum spielen?
Die HD's von Intel reichen fuer den HTPC auch locker. Finde ebenfalls die APU uninteressant von AMD.
Kann dir nur recht geben opheltes, dafür reichen sogar die Intel HD IGPs aus...Problem nur, der DDR3 Ram ist im Vergleich zu GDDR5 recht lahm...Könnte mit DDR4 interessanter werden, zumindest sehe ich mein Problem mit der Performance der IGP deshalb.
Finde ich auch etwas schade, aber da haben wir wohl das Problem, dass der Bildschirm weiterhin an der Grafikkarte angeschlossen bleibt...
Kannst ihn ja immer umstecken und per Bios die IGP aktivieren ^^.
Man müsste im Endeffekt nur das Bildsignal durchschleifen... Ob das aber so einfach funktionieren kann weiß ich leider nicht.
Da kann ich mir in nächster Zeit aber kaum eine Lösung für vorstellen. Für einen offenen Standard müssten Intel, AMD und nVidia sich mal zusammen setzen und das sehe ich nicht kommen.
Selbst ohne Standard wären, wenn das überhaupt so einfach möglich ist, "nur" zwei verschiedenen Prinzipien da (einmal eben von Nvidia und einmal von AMD). Aber einfach durchschleifen ist da glaub nicht nur angesagt, wenn das so einfach wäre, glaube ich nicht, dass wir darüber diskutieren müssten, wieso es das nicht gibt.
Nach Angaben des herstellers kriegt man ja eine richtig hohe performance, wenn man zusätzlich eine R7 260X rein knallt. Die beiden GPU's arbeiten dan doch im CrossFire zusammen oder?
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
Und du lässt dann die IGP mit der 260x im Crossfire laufen? Aha. Das wird wohl nicht oder wenn dann als Hybrid-CF funktionieren, damit entweder eine läuft, aber das sprechen wir ja eben an. Alles andere ist murks, das haut nicht hin, das sind nicht identische Karten, evtl. ist der Chip ähnlich, das wars aber auch.
Und...Selbst wenn du zwei "richtige" 260er einbaust, ist deine Performance immer noch nicht auf Augenhöhe mit einer High-End Karte. Du kannst vielleicht in 3DMark eine 280 schlagen, aber in vermutlich kaum einem Spiel.
Kannst ihn ja immer umstecken und per Bios die IGP aktivieren ^^.Ich hoffe doch sehr, dass das Sarkasmus ist. Mein Sarkasmus-Sensor ist derzeit leider in der RMA. 🙁
Selbst ohne Standard wären, wenn das überhaupt so einfach möglich ist, "nur" zwei verschiedenen Prinzipien da (einmal eben von Nvidia und einmal von AMD). Aber einfach durchschleifen ist da glaub nicht nur angesagt, wenn das so einfach wäre, glaube ich nicht, dass wir darüber diskutieren müssten, wieso es das nicht gibt.
Sorry, da hatte ich meine AMD-Fanboy-Brille auf und wollte nicht wahr haben, dass es "fiese" Unternehmen gibt, die solch nützliche Technologien proprietär entwickeln. Genau das ist schließlich der Sinn eines offenen Standards, er soll von jedem benutzt werden können - egal ob nVidia, AMD oder Intel. Wenn AMD ihre eigene Suppe kocht und es nur mit AMD Grafikkarte + AMD APU macht, dann bringt es ähnlich wenig - eigentlich sogar deutlich weniger - wie eine Kooperation von Intel und nVidia.
Das "einfache Durchschleifen" scheint ja zu gehen. Sieht man ja auch an den Notebook-Technologien. Diese funktionieren aber so, dass der Bildschirm an der IGP hängt und die GPU ihre Bilder in den Framebuffer der IGP schreibt. Hier ein dazu, falls sich jemand etwas mehr informieren möchte.
Ich hoffe doch sehr, dass das Sarkasmus ist. Mein Sarkasmus-Sensor ist derzeit leider in der RMA. 🙁
Sollte ein Witz sein ^^, aber RMA dauert auch einfach immer lange :/.
Sorry, da hatte ich meine AMD-Fanboy-Brille auf und wollte nicht wahr haben, dass es "fiese" Unternehmen gibt, die solch nützliche Technologien proprietär entwickeln. Genau das ist schließlich der Sinn eines offenen Standards, er soll von jedem benutzt werden können - egal ob nVidia, AMD oder Intel. Wenn AMD ihre eigene Suppe kocht und es nur mit AMD Grafikkarte + AMD APU macht, dann bringt es ähnlich wenig - eigentlich sogar deutlich weniger - wie eine Kooperation von Intel und nVidia.
Bin mir nicht sicher, ob man sich mit nem offenen Standard durchsetzen kann. Ich könnte mir aber vorstellen, dass sich die Mainboardhersteller nach Nvidia und/oder AMD richten sollen mit ihren Boards. Denke da sind die Fronten zu verhärtet und auch auf anderes fixier. Die Leistung ist doch das wichtigste und wer eine GTX 780ti oder Titan besitzt interessiert das doch eh kaum, zumal nicht mal alle CPUs eine IGP besitzen.
Das "einfache Durchschleifen" scheint ja zu gehen. Sieht man ja auch an den Notebook-Technologien. Diese funktionieren aber so, dass der Bildschirm an der IGP hängt und die GPU ihre Bilder in den Framebuffer der IGP schreibt. Hier ein dazu, falls sich jemand etwas mehr informieren möchte.
Denke das geht da so gut, weil beide Pixelbeschleuniger an einem Anschluss hängen, Intel muss doch AMD und Nvidia kaufen und GPU mit Board verkaufen ^^, aber da bin ich mir dann auch nicht ganz sicher, ob das wirklich so dramatisch ist.
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
@Simlog, hmm, okay. Dan hab ich wieder einen schwachsinnigen Testbericht gelesen :l
Sent from my HUAWEI P6-U06 using PCMasters.de mobile app
Das klappt nie so wirklich mit den IGPs und den dedizierten GPUs...Gibts auch bei AM3 Boards....Oder CF zwischen einer schnellen und langsamen Karte, das klappt aber auch nicht wirklich, würde mich sehr wundern und wäre mir auch wirklich neu.
Zusätzlich gibt es auch Techniken ( bisher kenne ich es zumindest von mobilen Grafikkarten bei nVidia so ), dass bequem zwischen iGPU und dedizierter Grafikkarte gewechselt werden kann, je nach Leistungsanforderung.
Les mal die Beiträge zuvor durch...Das wurde schon breit diskutiert, konnte sich aber keiner so ganz erklären, wieso das nur im mobilen Bereich funktioniert...