Witzig - kann evtl. dran liegen, dass wir doch sehr viele Leute aus dem Microsoft Ökosystem hier haben. Die Frage ist ob sich die Playstation Spieler nur einfach mehr deklarieren online oder ob das wirklich soviel mehr sind als bei der XBox.
Druckbare Version
Witzig - kann evtl. dran liegen, dass wir doch sehr viele Leute aus dem Microsoft Ökosystem hier haben. Die Frage ist ob sich die Playstation Spieler nur einfach mehr deklarieren online oder ob das wirklich soviel mehr sind als bei der XBox.
Denke es wird zu 80% daran liegen, dass der Urkern dieser Seite eben Microsoft ist ^^ Bei Amazon oder Gamestop sind die Verkaufszahlen der Konsolen immer noch mit deutlichem Vorsprung der PS4 zu sehen.
Ich habe extra schauen müssen, ob die Umfrageergebnisse von Alking manipuliert worden sind, oder nicht :p
Interessant - laut dem Call of Duty: Ghosts Test von Polygon läuft es auf der PS4 zwar im Gegensatz zur XBox One auf 1080p (XBox 720p) aber die höhere Wertung kriegt es auf der One, da es dort keine Einbrüche der Framerate gibt. Siehe: http://www.polygon.com/2013/11/5/505...-ghosts-review
Die interessante Frage ist da irgendwie: wer trifft da die Entscheidung auf einer Konsole das Gameplay der Optik zu opfern und es auf einer anderen Konsole anders rum zu priorisieren?
Activision hat eh in meinen Augen Mist gebaut. Die haben die 720p der One genommen und auf 1080p hochskaliert. Die Texturen auf der PS4 wirken daher leicht unschärfer. Was ich eine absolute Frechheit finde... Mit ein wenig Anpassung wäre da echt ne Menge gegangen :(
Vllt hat Sony da ja angeklopft und gesagt: macht mal 1080p? Aber das werden wir wohl nie erfahren^^
Mit der kostenlosen PocketPC.ch App von meinem GT-I8750 aus geschrieben.
Activision hatte wohl einfach nur kein Bock... ^^ Kostet ja auch Geld und die Leute kaufen CoD ja so oder so.. Ist ja "Next Gen" :D
Aber BF4 fand ich auch schärfer (mein Eindruck von einem Video-Vergleich und Fotos) auf der Xbox und das ist auf der PS4 auch in 1080p und auf der Box in 720p oder?
Mit der kostenlosen PocketPC.ch App von meinem GT-I8750 aus geschrieben.
Ist ebenfalls nur hochskaliert worden. Daran erkennt man eben dass schwächste Glied. Nur traurig, dass die bei all dem Geld durch die Franchises nicht einfach mal etwas zurücklegen und sich die paar Tage Zeit nehmen die Texturen anzupassen... Schließlich kann auf dem PC auch die Auflösungen wählen... Das ist fast schon lächerlich... ^^
Send from a device you should know using Tapatalk
Aber das hätte die Xbox bestimmt auch geschafft zumindest bei cod^^
Mit der kostenlosen PocketPC.ch App von meinem GT-I8750 aus geschrieben.
Naja bei 40-50 % weniger Grafikleistung? ^^ Allein beim Datendurchsatz liegt einiges zwischen den Konsolen. Aber ist mir im Endeffekt auch Wurscht. Ich finds nur hart, dass die Entwickler nichts aus den möglichkeiten machen. Grade bei den Starttiteln. Aber wie gesagt... Kostet ja Geld das Spiel auf eine feste Auflösung zu bannen. Dann lieber das schwächste glied der Kette bedienen, sind ja ähnliche SoCs. Maaaaan.
Ich hoffe nur das sich aus meinem Freundeskreis einer die PS4 mit Killzone holt, bis jetzt holen sich nur welche die One.
Die One ist momentan ganz schön präsent in der Werbung, gerade auch Forza gesehen.
Mit der kostenlosen PocketPC.ch App von meinem Surface aus geschrieben.
Joah denke mal ist die MS Offensive ^^ Die Konsole steht ja auch in den Startlöchern :) Sony steht wenn in der Champions League auf den Banden ^^
Ich kann mir eigentlich nicht vorstellen dass sie einfach hergehen, das Spiel für die XBox One optimieren sodass es stabile Framerates schafft, dann bei der PS4 einstellen 1080p - sich denken: wird schon passen, hat eh 40% mehr Leistung - wird sich schon ausgehen!!!einseinself und das dann verschicken.
Da glaub ich noch eher dran dass irgendwo im Management sich wer gedacht hat, die Auflösung müsste unbedingt sein.
Wenn ich mir die Infos bisher so ansehe, dann würde ich tatsächlich sagen, dass die PS4 wohl ihre CUs gar nicht komplett ausgelastet bekommt mit dem bisherigen Code und der Bottleneck potentiell woanders schlummert. Sie profitiert aber insgesamt stark davon dass man sich die Daten halt einfach aus dem RAM ziehen kann und die Optimierungsarbeit für den eSRAM der XBox nicht nötig ist. Da bin ich gespannt wie die Entwickler das in den Griff kriegen, bzw. wieviel da nicht ohnehin durch die Entwicklungsarbeit der Engine-Entwickler passiert. Also ganz so einfach seh ich den Leistungsunterschied nicht - da spielt doch einiges mit. Schade dass wir die beiden nicht benchmarken können. :(
Gibts eigentlich irgendwelche konkreten Aussagen wieviele Resourcen die PS4 für ihr OS und die Hintergrunddienste reserviert? Ich hoffe mal stark dass sie da auch eine fixe Partitionierung haben wie bei der XBox, sonst hängen die Schwankungen evtl. damit zusammen, dass im Hintergrund grad was passiert und das wäre dann noch eine Ähnlichkeit zum PC die wir so eigentlich nicht wollen.
Ich kann mir das seeehr gut Vorstellen. Hat Rockstar ähnlich mit GTA 4 gemacht, als sie die Kacke auf den PC portiert haben und da am Anfang gar nichts lief. Das Spiel funktionierte hinten und vorne nicht, es wurde unfertig auf den markt gebracht. Jetzt kann man natürlich sagen, dass CoD und BF4 ja eigentlich recht gut auf der PS4 laufen... Aber wie man sieht hat man sich seeeehr viel Mühe gegeben die entsprechenden anpassungen vorzunehmen... Ich kenne die Branche mittlerweile seit 10 Jahren auch intern relativ gut. Das Problem, vor allem bei EA ist der fehlende "Wille" irgendwas anzupassen. Zudem rennt BF4 auf der PS4 auch "nur" in 900p ...
FIFA für PS Vita bekommt seit 3 Jahren nur noch Kader-Updates, die Musik der neuen Teile und dafür zahlst du dann 50 €. Jedes Jahr. Keine neue Engine, kein neues Gameplay, nur Kader-Updates... Achja und natürlich neue Trikots :P Daran erkennt man gut die Moral der Entwickler.
Am Code muss man eh nicht Ll zu viel ändern. Die Systeme haben eigemtlich einen identischen SoC nur mit unterschiedlicher Leistung. Die PS4 hat den stärkeren Grafikchip und durchgehend 8 GB GDDR5 Arbeitsspeicher, welcher sonst nur auf Grafikkarten verwendet wird. Die PS4 setzt dabei auf AMDs hUMA-Technik. CPU und GPU nutzen dabei gemeinsam den Adressspeicher,w as die Leistung deutlich erhöht: Erklärung, auch wenn AMD zurückrudert, weil sie ihren Kunden keinem einen Vorteil einräumen dürfen, ist die Technik der XBox schon streckenweise hart überlegen. Das 3D-Rendering steigt dur h diese Technik auf AMD-Systemen deutlich an. Allein die 1.8 Terraflops Leistung, angebunden an den GDDR5 RAM. Da kannste mit 32 MB Cachen wie du willst. Zudem fließen bei der XBox One zur zusätzlich schwächeren Grafik noch weitere 10 Prozent der Grafikleistung für das Betriebssystem ab, um es Kinect und/oder Apps zur verfügung zu stellen die im Hintergrund jederzeit ausgeführt werden können und parallel zum Game laufen. Das hat die PS4 nicht. Der Unterschied wird also dadurch noch einmal deutlicher.
Beim RAM ist es so, dass die Playstation dynamisch von 2-3,5 GB für das OS reserviert. Der Rest ist fürs System. Allerdings sind die Angaben der Medien hier teilweise arg unterschiedlich ^^
Die Unterschiede zwischen den beiden Chips sind im Detail größer als man meinen würde. Es kommen dieselben Cores bei der CPU und der GPU zum Einsatz, das war es dann aber auch schon. Der Einfluss von Caches ist zeitweise enorm. Ich gehe da jetzt einfach mal von meinen Vorlesungen zur CPU-Microarchitektur aus. Also unterschätzen darf man das nicht - gerade weil ja oft die Lokalität von Programmcode ausgenutzt werden kann (sonst hätten wir ja auch keine Lvl1 und Lvl2 Caches bei CPUs). Das wird die XBox nicht nach vorne heben aber der Abstand ist definitiv nicht die 40% Unterschied in der CU-Performance. Auch weil ja da durchaus auch noch andere Einheiten in der GPU eine Rolle spielen, die sich teils auch unterscheiden.
Mir kommen allerdings 2 - 3.5 GB fürs System bei der PS4 arg viel vor. Soviel reserviert da nichtmal die XBox und davon ausgehend dass gemäß etlicher Aussagen die PS4 bis kurz vor der Vorstellung noch für 4 GB geplant gewesen wäre... Da würde es mich wundern wäre das System jetzt 2 GB groß und würde dynamisch dann auch noch mehr anfordern.
Zur Sache mit den 900p bei BF4 - evtl. wäre das der bessere Weg für CoD gewesen. Auflösung halt nicht auf die 1080 festnageln und dafür ohne Einbrüche der Framerate.
Du musst bedenken... Die XBox One kann nativ nur ZWEI 1080p 64-Bit Rendertargets speichern (wenn wir von unkomprimierten Daten ausgehen) im eSRAM. Die PS4 hat den GDDR5 Speicher dafür simultan zur Verfügung. Allein die Größenordnung ist schon krank, und wenn man bedenkt, dass die Entwickler bei der XBO darauf achten müssen, die extremen Geschwindigkeitsunterschiede zwischen eSRAM und dem DDR3 Speicher auszugleichen ist das kein Pappenstiel mehr.
Kleines Beispiel: Drei native Rendertargets in 1080p kommen auf gut 24 MB, wenn man von 32 Bit Farbtiefe ausgeht. Wäre also für die XBox One noch so grade eben handelbar im eSRAM. Jetzt der Killervergleich: Killzone! Alle Rendertargets die im GDDR5 hinterlegt werden kommen auf gut 800 MB! Und das ist natives 1080p. Die CPU und GPU teilen sich den RAM also werden auch entsprechend die Wege kürzer und effizienter. Der Adressbereich ist hier fest. Während die XBox One nur einen Bruchteil cacht und zudem zwischen DDR3 und eSRAM warten muss.
Stell dir vor das ganze wird dann auch noch im Multisampling-Verfahren gerendert. Denn ein Sampling von 2xAA verdoppelt mal eben den Speicherplatz der Rendertargets. Dann ist die XBox One am Limit, bzw darüber hinaus.
Ich finde die Unterschiede sind in der Grafikleistung teils enorm.
Es gab Tests von Intel bevor sie ihre eDRAM Lösung für die neuen Haswell-Chips integriert haben. Demnach reicht für aktuelle PC-Gaming-Workloads ein Puffer von 32 MB aus, da wurde halt aus Gründen der Zukunftssicherheit dann gleich mal das 4-fache reingepackt (gut, da kostet auch die CPU von Intel fast schon so viel wie die ganze Konsole bei Sony).
Die Sache ist ja dass du eben nicht ständig zufällig in irgendwelche Render Targets renderst sondern eben einen Haufen in einem machst, dann in einem anderen und dann eben zwei kombinierst. Dann geht es mit anderen weiter. D.h. du arbeitest eine ganze Weile an einem davon bevor du wirklich einen Cache Miss hast. Dann kannst du im Normalfall eines rauswerfen in den RAM und dir das benötigte holen (dieses Ein-/Auslagern wird von eigenen Einheiten erledigt - muss also nicht zwingend zu einem Stalling der GPU-Pipeline führen - wird es aber wohl oft - laut Aussagen von Microsoft kommen sie bei den Launch-Titeln aber doch auf rund 140 - 150 GBit/s Auslastung von den 218 GBit/s die theoretisch möglich wären - Vergleichszahlen zur tatsächlichen Auslastung des GDDR5 sind mir bisher nicht begegnet).
Es ist also nicht so, dass ich halt 32 MB im eSRAM habe und der Rest halt im RAM liegt und dann halt immer nur von dort aus genutzt wird (auch wenn das möglich wäre). Wird der Speicher tatsächlich zu knapp für das ständig benötigte habe ich halt ein ständiges ein-/auslagern - wie eben das Seitenflattern das man von zu kleinem Arbeitsspeicher beim PC kennt.
Wenn ich das jetzt auf das Beispiel von Killzone umlege kommen wir auf 33 Rendertargets. Dabei wird aber wohl einerseits nicht jedes einzelne für jeden Frame gezeichnet (da fehlt wohl einfach die Leistung) und zweitens wird wohl nicht reihum in jedes genau ein Pixel geschrieben und dann einer ins nächste, usw. (wofür dann wirklich alle ständig verfügbar sein müssten).
Wobei die 24 MB bei Speicherung von 32 bit Pixeln zwar hinkommen aber viele Rendertargets ohnehin andere Pixelformate nutzen (sodass der tatsächliche Platzbedarf geringer ist).
Wie gesagt, die Theorie ist da nicht so einfach wie viele theoretische Zahlenspiele das aussehen lassen und das ist genau der Grund wieso mich tatsächliche Benchmarks interessieren würden. Mit einem halbwegs intelligenten Speichermanagement dürfte der Unterschied zwischen DDR3 und GDDR5 zwar wie gesagt nicht magisch verschwinden ist aber deutlich kleiner als er dargestellt wird (es ist aber halt unbestritten mehr Aufwand).
KENAN! RUHE! :D
@CoD: Also ich muss da Stevie recht geben. Es wird wohl kaum so gewesen sein, dass man einfach die One Fassung auf die PS geportet hat und dort schlichtweg die 1080p eingestellt hat. Da bleiben wir bitte kurz sachlich, das ist murks.
Hier gibt es einen interessanten Artikel zur Xbox, der auch aufzeigt, dass die Konsole alles andere als auf 720p beschränkt ist. Vielmehr bedarf es hier eben mehr Optimierungsarbeit, da die Rohleistung nicht so stark ist wie auf der PS4. http://www.golem.de/news/xbox-one-di...11-102646.html
Ich kann mir aber gut einen Marketinggedanken vorstellen, was die Auflösung bei der PS4 angeht. Man war nie die CoD Konsole und wollte vielleicht mit dem "Nur bei uns in 1080p" die Fans anlocken. Das kann schon gut sein, aber Auflösung zulasten der Framerate? Da ist mir letztere wesentlich wichtiger.
Aber das ist doch der springende Punkt? Wenn die Konsolen SO ähnlichen im Chipdesign sind, sind die Anpassungen eher lächerlich. Die XBox One gilt als deutlich schwieriger in der Programmierung. Man hat einfach CoD genommen, auf die XBox One angepasst und auf die PS4 umgeportet. Warum muss Microsoft denn am Ende Activision den Mund verbieten, als ein Mitarbeiter von denen über die Leistung der Konsolen sprechen wollte? Ich denke es ist eben genau DAS passiert. Grade jetzt lässt sich das meiste Geld damit sparen und das ist genau das, was die Entwickler im Moment überall machen. Das Beispiel mit FIFA ist nur eines von wenigen in der Branche. Was dem Kunden da am Ende wichtiger ist ist doch grade dann egal, oder nicht? Da steht CoD drauf, also verkauft es sich von selbst. Die Leute werden schon "WOOOOW!!!" schreien auf der PS4, obwohl eigentlich Bockmist gebaut wurde ;) Der Vorteil? Wenig Aufwand, weniger kosten, mehr Einnahmen. Das CoD Franchise ist eh ausgelutscht. Das gleiche gilt für FIFA oder BF4. Es wird eben nicht mehr anders vorgegangen. Es wird sich auch immer am schwächeren Glied in der Nahrungskette orientiert, aber das ist nicht erst seit der neuen Konsolen so ^^
Ich habe auch nie behauptet, dass die XBox One auf 720p beschränkt ist, sondern das ihre Rechenleistung im Grafikbereich deutlich unter der PS4 liegt und ich gehe von den Daten aus, die wir bisher haben. Auch wenn ich sagen muss, dass ein Benchmark beider Systeme mir ebenfalls gefallen würde, nur um zu gucken wie groß der Abstand tatsächlich ist... Bisher schreien alle Entwickler: "Die PS4 ist deutlich stärker." aber oft werden diese Interviews dann nach kurzer Zeit zensiert, oder die entsprechenden Probanden rudern nach Druck von allen Seiten wieder zurück.
1. Die XBO hat kein hUMA. hUMA erhöht die 3D-Renderleistung um ein vielfaches.
2. GDDR5 ist sowohl Grafik als auch Systemspeicher der PS4 in einem und erhöht damit die Leistung deutlich (Stichwort: Immer noch hUMA)
3. 10% der deutlich schwächeren Rohleistung der Grafikkarte der XBO werden permanent für das System abgezwackt. Das heißt? Es stehen von der schwächeren Karte nur in etwa 90% zur Verfügung.
Was kommt dabei wohl am Ende rum? Das alles kompensiert kein 32 MB großer Cache auf Dauer. Vor allem wenns deutlich komplexer wird. Man unterschätzt hier auch die hUMA-Technologie von AMD gewaltig. Wenn man nun dann doch total auf den Cache schwört, sollte man im gleichen Atemzug diese Technik auch bei der PS4 erwähnen, denn diese ist bei der XBO nicht vorhanden ^^
Du hast sicher mit dem meisten recht mein Lieber. Was interessiert den Gamer? Das Ergebnis.
CoD Ghosts läuft auf der Xbox flüssiger als auf der PS4. Activision bzw. IW war in erster Linie immer ein flüssiges 60FPS Game wichtig, nichts anderes. Und nun kommt es auf der PS4 Version zu FrameRateeinbrüchen. So ganz abwegig ist es nicht, dass Sony hier auf 1080p zulasten der FPS bestanden hat, um sich eben abzuheben gegenüber der Xbox One Fassung, dem eigentlichen zu Hause der CoD Fans.
Die logische Konsequenz wäre doch eigentlich die Auflösung so zu reduzieren, damit es auch auf der PS4 flüssig läuft. Das hat man nicht getan.
Man müsste das Spiel einfach nur an das System anpassen... Und nicht einfach nur die Auflösung hoch zu drehen. Der Aufwand der Anpassung ist extrem gering! Dank der nahezu identischen SoCs. Man muss nur einige Speicheroptimierungen vornehmen und die Texturen entsprechend mitnehmen. Der Code ist ja an sich identisch. Aber das hat Activision nicht getan. Sony hat extra Guerilla gesagt "Ihr baut aus Killzone ein Grafikmonster!", haben sie ja auch getan und selbst das nutzt nicht die vollen Möglichkeiten aus. Jetzt kommt ein 720p CoD daher, wird aus Geldgründen nur skaliert und gut ist.
Wenn eine Software schlecht portiert wird (Beispiel GTA), dann hilft auch kaum der identische SoC, auch wenn der Aufwand nur gering ist. Ein bis zwei Schrauben müssen schon gedreht werden und die wurden nicht gedreht. Dann hätten die immerhin 1080p auf 30 FPS "locken" können und alle wären zufrieden gewesen. Aber nein, wir nehmen CoD 720p und hauen nen skalierer drüber, wird sich schon keiner beschweren, ist ja 1080p :D
Ich finde das ehrlich gesagt dreist und zeigt einmal mehr, dass die Entwickler nicht auf Kundenebene arbeiten, um das Spielerlebnis auch zu transportieren, sondern wenn es darum geht ein Bestseller-Franchise auszureizen nur noch das nötigste zu machen: Verkauft sich ja eh.
Ubisoft kann das leider mittlerweile auch. Beispiel: Assassins Creed III auf der Wii U ist ein tolles Beispiel dafür. Die Anpassungen waren teils heftig miserabel. Aber es ist ja Assassins Creed. Verkauft sich schon ;)
Bei hUMA geht es primär darum dass du nicht dedizierte Speicherbereiche hast für die GPU und die CPU und das erst mühsam umkopieren musst. Während jetzt zwar nicht direkt das Stichwort im Text steht besteht diese Möglichkeit auf der XBox One wohl auch, wenn ich nach diesem Zitat gehe:
Quelle: http://www.eurogamer.net/articles/di...-one-interviewZitat:
Our memory manager on game title side is completely rewritten. We did that to ensure that our virtual addressing for the CPU and GPU are actually the same when you're on that side. Keeping the virtual addresses the same for both CPU and GPU allows the GPU and CPU to share pointers. For example, a shared virtual address space along with coherent memory along with eliminating demand paging means the GPU can directly traverse CPU data structures such as linked lists.
On the system side we're running in a complete generic Windows memory manager but on the game side we don't have to worry about back-compat or any of these nasty issues. It's very easy for us to rewrite the memory manager and so we've got coherent memory, the same virtual addressing between the two, we have synchronisation mechanisms to coordinate between the CPU and GPU that we can run on there.
Das klingt für mich ziemlich genau nach der Beschreibung von hUMA: http://www.tomshardware.com/news/AMD...APU,22324.html
PS: Scheinbar ist das eh nicht nur mir aufgefallen: http://www.neoseeker.com/news/23716-...-ps4-xbox-one/
Was ich mich bei CoD einfach frage ist: wieso stellen sie es auf 1080p wenns dann nicht flüssig läuft? Wenn sie nur den Aufwand scheuen das anzupassen könnte sie halt 900p einstellen und es würde flüssig laufen und der Aufwand dafür hält sich arg in Grenzen.
Umkopieren? Beim hUMA gehts hauptsächlich darum vor allem riesige Texturen am Stück zu handeln und nicht wie üblich, oder der XBO der Fall ist, in kleinere auseinander zu brechen und wieder zusammen zu fügen, was Leistung frisst und langsamer ist. hUMA kann die Texturen komplett verarbeiten, ohne das ein Umbruch stattfindet. Der Leistungsschub kann dann ENORM werden, sofern es richtig eingesetzt wird. Wenn du die riesigen Texturen am Stück verwenden und ausnutzen kannst, macht das jedenfalls eine Menge mehr aus, als wenn du sie erst in viele kleine aufteilen musst und am Ende wieder zusammensetzt.
Ich gebe Alking allerdings an der Stelle grünes Licht: Warum stellen die es auf 1080p wenn es nicht zu 100% flüssig ist? Weil es ja an den meisten Stellen flüssig ist, aber halt nicht überall und aus Marketing-Gründen! CoD auf einer Konsole in 1080p. Das verkauft sich doch eh. Einfach nur die Auflösung hochgedreht, ohne irgendwelche Anpassungen vorzunehmen. Das dient eben allein der Geldmacherei bei möglichst geringem Aufwand. Man will ja auch auf ALLEN Plattformen gleichzeitig präsent sein und möglichst schnell, viel abkassieren. ^^
Insgesamt bin ich auf die Spiele gespannt, die Ende 2014 auf den Markt kommen. Hier haben die Entwickler mehr Anpassungszeit und erst im Laufe des Jahres 2015 werden wir Spiele sehen, deren Engines wirklich gut optimiert sind auf die neue Hardware.
Und wie gesagt, bei all dem technischen Geschwafel, den Gamer interessiert das Ergebnis. Der hat keinen Vergleich zu Hause, das heißt auch hochskalierte 1080p werden ihn optisch zufriedenstellen, wohingegen Ruckler und Framerateeinbrüche eher spürbar sind.
Hätte ich bei Ghosts beispielsweise die Wahl, so würde ich zur Xbox Fassung greifen, da sie flüssig läuft. Daher auch die konsequent bessere Wertung bei polygon.com.
Ehrlich gesagt sehe ich von der Beschreibung von heterogenous Uniform Memory Access soweit ich die bisher irgendwo gefunden habe genau keinerlei wie auch immer gearteten Zusammehnag zu Texturgrößen. Da muss ich tatsächlich lästig sein und dich fragen wo die Info herkommt.
Ich beziehe mich da unter anderem auch hierauf: http://www.extremetech.com/gaming/16...ust-eventually
Kann es sein dass du da bei den Features etwas durcheinander gebracht hast und was anderes meinst?
Wenn die Spiele ordentlich auf die Hardware abgestimmt sind, dann Ruckeln die auch in 1080p nicht ^^ Selbst die vermeintlich schwächere XBO kann 1080p Ruckelfrei in 60 FPS auch mit einem CoD handlen. Das Spiel musste aber zum Launch raus und viele Entwickler haben sich beschwert, dass die Entwickler-Kits der XBO und PS4 so spät kamen.
Ergo: Wurde auf der XBO entwickelt und auf der PS4 nicht mehr angepasst, sondern nur das nötigste getan. Auf beiden Konsolen wäre mehr drin gewesen. CoD würde in wahnsinniger Optik in 1080p auf der PS4 ruckelfrei durchlaufen. Das gleiche gilt für die XBO (mit einigen Abstrichen).
Aber nein... Money make the Rules :D
Natürlich hat hUMA noch mehr Vorteile. Es bezieht sich ja nicht nur auf die Texturgröße, allerdings kann hUMA exakt SO verwendet werden um die Texturgröße zu belassen, da die GPU nicht mehr auf einen Speicherbereich limitiert ist, sondern den GESAMTEN Speicherbereich des Systems mitverwenden darf.
Phil Rogers hat es selbst gesagt: "Spieleentwickler wollten seit einigen Jahren extrem große Texturen nutzen, mussten sich bis dato aber einer ganze Reihe von Tricks bedienen, Teile großer Texturen in kleinere Texturen zu verpacken. Denn heute muss eine Textur zunächst in einem separaten Bereich des physischen Speichers liegen, bevor die GPU sie verarbeiten darf. Mit hUMA werden Anwendungen viel effizienter mit Texturen umgehen können."
Und DAS ist nur ein Vorteil von hUMA. Der aber grade bei der PS4 in Kombination mit GDDR5 extreme Leistungssprünge in der Grafikperformance bringen kann. Eben ein Vorteil wenn alles über "eine gleichschnelle Bahn" läuft ^^
Ja, wie gesagt - du hast dieselbe Möglichkeit bei der XBox One, zumindest was das Gaming OS betrifft (evtl. auch ein Grund für diese Zweiteilung der Systeme). Selbst wenn ich jetzt die 168 GBit/s des GDDR5 ausnutze um eine Textur aus dem Speicher zu holen und in ein Render-Target zu schreiben (im GDDR5), dann kann ich ja quasi genauso mit der langsameren Verbindung die Textur aus dem Speicher holen und mit der schnellen Verbindung in das Render-Target im eSRAM schreiben. Dann hab ich bei der PS4 einen Read und einen Write die sich die Bandbreite von 168GBit/s teilen und bei der XBox One einen Read mit 68GBit/s und einen Write mit 200 GBit/s, wobei beide Operationen sich das eben nicht teilen müssen.
Phil Rogers hat schon recht, dass hUMA da gerade bzgl. Flexibilität was bringt aber wie sich kurz nach diesen Stories gezeigt hat, ist das eben nichts was nur die PS4 hätte. Sony nennts halt hUMA wie AMD das tut, bei Microsoft läufts unter HSA. Gleichschnelle Bahn stimmt aber scheints auch nicht ganz, denn nur die GPU hat die volle Geschwindigkeit des GDDR5 zur Verfügung. Zugriffe der CPU laufen über einen langsameren Kanal.
Dennoch muss die XBO die Texturgrößen unterteilen oder nicht? Der cache kann nicht annähernd die Rendertargets abarbeiten, trotz der Performance, wie 4 GB GDDR5. Oder ist HSA eben absolut identisch mit hUMA? Und wenn ja, warum sollte ein DDR3 System, wo die Riesentexturen im Speicher liegen und wegen der Größe nicht in den Cache passen, dann in etwas genauso schnell sein? Das ist doch physikalisch nicht möglich ^^
Mit den Worten gleicher Bahn meinte ich eher, das alles aus einem Napf frisst, in dem Fall dem GDDR5 Speicher. hUMA nutzt die Vorteile beider Welten des deutlich schnelleren RAMs aus. Es macht in meinen Augen daher deutlich mehr aus hUMA auf GDDR5 einzusetzen auf dem dann alles sitzt, anstatt die Aufgaben zu trennen und dann auch noch eine hUMA ähnliche Technik auf den deutlich schwächeren DDR3 Speicher zu setzen.
Der Cache holt eine Menge raus, keine Frage. Aber sofern die Optimierungen stimmen sollte die PS4 in eine andere Region vorstoßen. Allerdings stört da einen das Wort "Sollte" extrem. Schade das wir das nicht benchen können :D
hUMA/HSA bedeutet technisch einfach mal nur, dass ich einen Speicherbereich gemeinsam für CPU und GPU habe. D.h. ich muss nicht zuerst Dinge die die CPU bearbeitet hat nochmal in einen anderen Speicherbereich schreiben, damit dann die GPU drauf zugreifen kann. Dasselbe gilt umgekehrt. Und normalerweise hab ich genau bei dieser Kopiererei dann noch eine Engstelle (PCIe oder ähnliches). Das fällt mir hier weg. Ich habe Speicher und der hat verschiedene Adressen. Wer (GPU/CPU) dann worauf zugreift und wieviel davon nutzt ist egal.
Das bringt am meisten bei Dingen die beide bearbeiten, weil das Kopieren wegfällt. Ein anderer Vorteil ist die Flexibilität. Wenn ich einen Grafikkracher baue und da 6 GB an Texturen brauche dann geht das. Muss halt der Rest mit 2 GB auskommen. Hab ich Unmengen an Charakteren und einfachere Grafik ist es evtl. umgekehrt (obwohl dann wohl mit GPGPU wohl trotzdem die GPU damit arbeiten muss).
Die Optimierung auf hUMA bringt bzgl. Performance hauptsächlich deshalb etwas, weil man eben bewusst keine Speicherkopien mehr macht sondern einfach der GPU sagt: da liegen deine Daten. Keine kopierten Daten, keine Umrechnung von Speicheradressen, einfach: bei 0x88884bef liegen deine Daten, ich hab sie dort hingelegt. Ohne Optimierung wird nämlich wohl trotzdem der Code zum Kopieren ausgeführt (das verschwendet dann zudem noch Speicherplatz).
Soweit ich die Analysen gesehen habe bringt das Ganze hauptsächlich Vorteile bei GPGPU Aufgaben, weniger bei normalen Texturen (die könnte sich die Grafikkarte ja einfach direkt in den Grafikspeicher legen - wenn dieser groß genug ist und der wäre dann ja wohl auch GDDR5). Insofern wundert mich nach wie vor was denn der Vorteil von hUMA für reguläre Texturen sein sollte - da find ich einfach keine Erklärung.
Was ich nicht glaube ist aber dass aufgrund der Tatsache, dass die CPU bzgl. Bandbreite beim Speicherzugriff ohnehin eingeschränkt ist hUMA auf GDDR5 mehr bringt als dasselbe unter anderem Namen (HSA) auf DDR3. Soweit zur Sache mit hUMA/HSA.
Wo die PS4 natürlich nach wie vor vorne ist (unabhängig von hUMA) ist beim Laden von Texturen für die Verarbeitung durch die GPU. Die Frage ist einfach wo mehr Zeit liegen bleibt - bei den Texturen oder bei der Verarbeitung der Shader-Programme und heutzutage üblicherweise letzteres. Und genau dabei hilft der Cache das auszugleichen (deshalb ist auch wenn der eSRAM für sich schneller ist als der GDDR5 unterm Strich die PS4 im Vorteil - aber nicht in dem Ausmaß wie es der Unterschied der reinen Speicherbandbreite erscheinen lässt).
Mein Argument zu den Shader-Einheiten hängt eher mit der Auslastung zusammen. Ist genug Arbeit da um die alle Vollgas zu beschäftigen. Perfekt ausbalanciert ist das nie. Deshalb sieht man auch auf Desktop-Karten mit 50% mehr theoretischer Leistung oft dann halt was wie einen Zuwachs um die 40% in der Praxis.
Also was ich nicht sagen will ist, dass die XBox mit dem eSRAM die Lücke komplett zumacht (egal wieviel Aufwand man reinsteckt). Aber so groß wie man's hinstellt wird die Lücke in der Praxis dann auch nicht sein (Optimierung vorrausgesetzt, welche ich zumindest den Engine-Entwicklern zutraue (Unreal Engine, CryEngine) - wenns schon die Game-Devs mit In-House-Engine nicht machen).
Wir brauchen einfach Developer Kits und benchmarken uns das aus mit unseren Programmierkünsten ;)
Genau... lass uns mal einen Konsolenbenchmark schreiben hahahaha :D
Keine von beiden, als Nintendo-Fan ist es bei ner WiiU geblieben. LineUp ist zwar was dürftig aber es sind einige vielversprechende Titel angekündigt worden. Ich persönlich find es auch ein bisschen doof das sie in dieser Gen immer übergangen wird, dabei gehört sie auch zu den Next-Gens.
Naja hat sich nur leider nicht durchgesetzt und Nintendo jetzt zum Ende des Jahres in üble Verlegenheiten gebracht ^^ Sony hat Beispielsweise in 12 Stunden mehr PS4 Einheiten abgesetzt, als Nintendo Wii U Konsolen in den ersten 3 Wochen. Finde die Wii U ist ziemlich aus dem Rennen ^^ XBox One wird ähnlich starke Verkäufe haben wie die PS4 ^^
Der Abstand bzgl. der Leistungsfähigkeit ist einfach zu groß. Nintendo ist mit der WiiU zwar leistungsmässig vor der Konkurrenz bei ihrem Launch aber das ist bei einer Konsole die 6 - 7 Jahre später erschienen ist kein großes Kunststück. Mit den Fähigkeiten von PS4 und XBox One kann sie einfach nicht mithalten.
Nintendo hat aber ihre Nische mit familienfreundlichen Inhalten und die Spiele machen ja unbestritten Spaß. Aber letzten Endes wird sich wohl für viel mehr Leute die Frage stellen: XBox One oder PS4 als die Frage PS4 oder Wii U. Aber Nintendo hat sich ja schon mit der Wii in eine andere Richtung bewegt. Damals erfolgreich, aktuell weniger.
Xbox vorbestellt. Warum? Weil XBox :)
---------- Hinzugefügt um 03:26 ---------- Vorheriger Beitrag war um 03:10 ----------
Ja das ist doch aber genau die Idee. Was Texturen betrifft hat jede GPU einen SRAM Texture Cache, so dass die benötigte Bandbreite für Texturen relativ klein ist die Lokalität aber sehr hoch. Die Größenordnung höhere Bandbreite wird im Frame/Z/Stencil Buffer fällig speziell bei Read-Modify-Write oder Test-and-Set Operation wie bei Alpha, Stencil oder Z-Operationen. Und genau an der Stelle sitzt der eSRAM des XBOx One. Erst wenn der komplette Frame fertig gerendert ist, wird wieder mit geringer Bandbreite ins DRAM geschrieben. Die Bandbreiten Belastung des DRAM ist deshalb bei der XBox One Prinzip-bedingt signifikant kleiner als bei der PS4.Zitat:
Selbst wenn ich jetzt die 168 GBit/s des GDDR5 ausnutze um eine Textur aus dem Speicher zu holen und in ein Render-Target zu schreiben (im GDDR5), dann kann ich ja quasi genauso mit der langsameren Verbindung die Textur aus dem Speicher holen und mit der schnellen Verbindung in das Render-Target im eSRAM schreiben. Dann hab ich bei der PS4 einen Read und einen Write die sich die Bandbreite von 168GBit/s teilen und bei der XBox One einen Read mit 68GBit/s und einen Write mit 200 GBit/s, wobei beide Operationen sich das eben nicht teilen müssen.
Hinzukommt, dass bei Floating-Point Render Targets die benötigte Framebuffer-Bandbreite nochmals ansteigt, was im Falle der XBox One komplett durch den eSRAM abgefangen wird, da das Tone-Mapping vor bzw. währden des Commit-Vorgangs in den DRAM passiert (zumindest war es bei der Xbox360 so)
Allerdings ist der eSRAM zur Auslagerun zu klein, da man, egal wie mans dreht keine reinen 1080p (oftmals auch mit Kompression) kaum bis absolut gar nicht in den eSRAM geschrieben werden können. Er ist einfach zu klein. Da hilft einem auch die Bandbreite nicht mehr. Es gab bzw gibt es bis heute eben die Techniken Texturen vorm Rendering-Prozess zu brechen bzw zu splitten und diese dann wieder bei der Ausgabe in der Operation zusammenzufügen. Das funktioniert allerdings bei der XBox One nur durch horrende optimierung. Entweder nutzt man den eSRAM und hat eben die Bandbreite mit den 32 MB Cache oder man versucht mit der HSA Technik den DDR3 RAM zu nutzen, was allerdings zu Performance Defiziten gegenüber der PS4 führen würde, auch wenn wiederum dann Texturen mit ähnlichen Eigenschaften berechnet werden könnten. Das heißt du musst generell von kleineren Texturen bei der One ausgehen, wenn intensiv auf den Cache zurückgegriffen wird, der mit 32 MB einfach unterdimensioniert ist.
Wie schon in den Riesentexten davor: Die XBox One schafft im RAM Bereich eine ähnliche Performance sofern die Entwickler sich die Mühe machen die komplizierte Optimierung im Fall des eSRAM vorzunehmen. Allerdings nähert sich die Xbox One nur an und wird die Gesamtleistung der PS4 weder übertrumpfen noch erreichen. Rein theoretisch ist das selbst mit dem eSRAM beim "herumrechnen" auf dem Blatt Papier schlicht und ergreifend nicht möglich ^^
Na ja, die Optimierungsarbeit wird letzten Endes hauptsächlich von den Engine-Entwicklern gemacht werden. Wie Ryse und Forza zeigen ist da ja durchaus einiges möglich. Muss man halt abwarten wie groß der Unterschied für die Spieler dann wirklich sein wird.
Den eSRAM zu nutzen macht hauptsächlich für Dinge Sinn, die in mehreren Passes benutzt werden. Aber letzten Endes ist jetzt wo die beiden Konsolen heraußen sind die Zeit der theoretischen Betrachtungen eh vorbei. Jetzt kommt dann die Zeit sich anzusehen ob man wirklich als Spieler irgendwo mit Defiziten zu kämpfen hat.
Ich frage mich vor allem in wie weit die Konsolen-Entwickler bereit sind zu optimieren. Die XBox hat ja rein theoritisch ein höheres Steigerungspotenzial als die PS4, sofern die Entwickler gewollt sind den eSRAM konsequennt zu optimieren. Die PS4 ist da ja deutlich leichter zu programmieren, da es keinen Zwischen-Cache in der Form eines eSRAM gibt. Die Launchtitel der XBox könnten deutlich mehr, die PS4 ist mit Killzone schon auf einem guten Weg die meisten Bereiche zu nutzen.
Mich würde der reine Leistungsunterschied interessieren, wenn beide Konsolen auf dem Optimum laufen, auch wenn die Xbox One streckenweise nur 50% der GPU Power zur Verfügung hat.
Sorry, ich glaube du verstehst da was nicht. In den eSRAM kommen hauptsächlich Render Targets, welche eine grosse Bandbreite und möglichst kleine Latency brauchen. Texturen haben da normalerweise nichts zu suchen, es sei denn sie sind selber Render Target. Für Texturen gibt es einen (deutlich kleineren) SRAM Texture-Cache.Zitat:
Allerdings ist der eSRAM zur Auslagerun zu klein, da man, egal wie mans dreht keine reinen 1080p (oftmals auch mit Kompression) kaum bis absolut gar nicht in den eSRAM geschrieben werden können. Er ist einfach zu klein. Da hilft einem auch die Bandbreite nicht mehr. Es gab bzw gibt es bis heute eben die Techniken Texturen vorm Rendering-Prozess zu brechen bzw zu splitten und diese dann wieder bei der Ausgabe in der Operation zusammenzufügen. Das funktioniert allerdings bei der XBox One nur durch horrende optimierung.
Ansonsten gilt hier das gleiche wie für die Xbox360, erstmal einen Fast-Z only pass für Hierachical-Z Buffer als auch um die Commands im Command Buffer zu taggen und den zu rendernden Tiles zuzuordnen. Ist ein Tile fertig gerendert wird die Multisamples für FSAA kombiniert und ins DRAM geschrieben, während das Nächste Tile schon angefangen werden kann.
Das ist überdies alles in verschiedenen technischen Veröffentlichungen von ATI und Microsoft dokumentiert. Auf der Xbox360 brauchte man für 720p 4xFSAA 3 Tiles (Bei den bekannten 10MByte eDRAM). Dann sollten ja auch 32MByte (das dreifache) für nur die doppelte Menge Pixel locker reichen.*
Auf diese Weise kann man die Bandbreite von 270GByte/s optimal nutzen. Wohlgemerkt mal so eben 100GByte/s mehr als bei PS4. Problem ist eher, dass die meisten Engines auf dem PC solche Verfahren nicht einsetzen (müssen). Man muss hier die Engine für die XBox One "optimieren".
Und noch was Generelles. Der eSRAM ist _KEIN_ Cache. Caches sind transparent für den Programmierer, im eSRAM hingegen muss man Objekte explizit allozieren.
Doch auf dem Papier 100GByte/s Bandbreiten Vorteil. Überdies einer der Gründe warum auf Bayonetta auf der PS3 so schlecht lief. Die Engine benutzt sehr viel Alpha Blending, was enorme Bandbreite frisst.Zitat:
Rein theoretisch ist das selbst mit dem eSRAM beim "herumrechnen" auf dem Blatt Papier schlicht und ergreifend nicht möglich
*Auch auf der 360 hat in der ersten Generation kaum jemand Tiling benutzt. Stattdessen wurde lieber die Auflösung runtergeschraubt, weil das der einfachere Weg ist. Gleichzeitig konnte man im Internet in pseudo-technischen Veröffentlichungen nachlesen, dass 10MByte viel zu klein für 720p sei. :wall:
Wie kommst du rechnerisch auf 50%?Zitat:
auch wenn die Xbox One streckenweise nur 50% der GPU Power zur Verfügung hat.