Ergebnis 141 bis 160 von 171
-
- 13.11.2013, 09:12
- #141
Du hast sicher mit dem meisten recht mein Lieber. Was interessiert den Gamer? Das Ergebnis.
CoD Ghosts läuft auf der Xbox flüssiger als auf der PS4. Activision bzw. IW war in erster Linie immer ein flüssiges 60FPS Game wichtig, nichts anderes. Und nun kommt es auf der PS4 Version zu FrameRateeinbrüchen. So ganz abwegig ist es nicht, dass Sony hier auf 1080p zulasten der FPS bestanden hat, um sich eben abzuheben gegenüber der Xbox One Fassung, dem eigentlichen zu Hause der CoD Fans.
Die logische Konsequenz wäre doch eigentlich die Auflösung so zu reduzieren, damit es auch auf der PS4 flüssig läuft. Das hat man nicht getan.
-
- 13.11.2013, 09:19
- #142
Man müsste das Spiel einfach nur an das System anpassen... Und nicht einfach nur die Auflösung hoch zu drehen. Der Aufwand der Anpassung ist extrem gering! Dank der nahezu identischen SoCs. Man muss nur einige Speicheroptimierungen vornehmen und die Texturen entsprechend mitnehmen. Der Code ist ja an sich identisch. Aber das hat Activision nicht getan. Sony hat extra Guerilla gesagt "Ihr baut aus Killzone ein Grafikmonster!", haben sie ja auch getan und selbst das nutzt nicht die vollen Möglichkeiten aus. Jetzt kommt ein 720p CoD daher, wird aus Geldgründen nur skaliert und gut ist.
Wenn eine Software schlecht portiert wird (Beispiel GTA), dann hilft auch kaum der identische SoC, auch wenn der Aufwand nur gering ist. Ein bis zwei Schrauben müssen schon gedreht werden und die wurden nicht gedreht. Dann hätten die immerhin 1080p auf 30 FPS "locken" können und alle wären zufrieden gewesen. Aber nein, wir nehmen CoD 720p und hauen nen skalierer drüber, wird sich schon keiner beschweren, ist ja 1080p
Ich finde das ehrlich gesagt dreist und zeigt einmal mehr, dass die Entwickler nicht auf Kundenebene arbeiten, um das Spielerlebnis auch zu transportieren, sondern wenn es darum geht ein Bestseller-Franchise auszureizen nur noch das nötigste zu machen: Verkauft sich ja eh.
Ubisoft kann das leider mittlerweile auch. Beispiel: Assassins Creed III auf der Wii U ist ein tolles Beispiel dafür. Die Anpassungen waren teils heftig miserabel. Aber es ist ja Assassins Creed. Verkauft sich schon
-
Gehöre zum Inventar
- 13.11.2013, 09:27
- #143
Bei hUMA geht es primär darum dass du nicht dedizierte Speicherbereiche hast für die GPU und die CPU und das erst mühsam umkopieren musst. Während jetzt zwar nicht direkt das Stichwort im Text steht besteht diese Möglichkeit auf der XBox One wohl auch, wenn ich nach diesem Zitat gehe:
Our memory manager on game title side is completely rewritten. We did that to ensure that our virtual addressing for the CPU and GPU are actually the same when you're on that side. Keeping the virtual addresses the same for both CPU and GPU allows the GPU and CPU to share pointers. For example, a shared virtual address space along with coherent memory along with eliminating demand paging means the GPU can directly traverse CPU data structures such as linked lists.
On the system side we're running in a complete generic Windows memory manager but on the game side we don't have to worry about back-compat or any of these nasty issues. It's very easy for us to rewrite the memory manager and so we've got coherent memory, the same virtual addressing between the two, we have synchronisation mechanisms to coordinate between the CPU and GPU that we can run on there.
Das klingt für mich ziemlich genau nach der Beschreibung von hUMA: http://www.tomshardware.com/news/AMD...APU,22324.html
PS: Scheinbar ist das eh nicht nur mir aufgefallen: http://www.neoseeker.com/news/23716-...-ps4-xbox-one/
Was ich mich bei CoD einfach frage ist: wieso stellen sie es auf 1080p wenns dann nicht flüssig läuft? Wenn sie nur den Aufwand scheuen das anzupassen könnte sie halt 900p einstellen und es würde flüssig laufen und der Aufwand dafür hält sich arg in Grenzen.
-
- 13.11.2013, 09:39
- #144
Umkopieren? Beim hUMA gehts hauptsächlich darum vor allem riesige Texturen am Stück zu handeln und nicht wie üblich, oder der XBO der Fall ist, in kleinere auseinander zu brechen und wieder zusammen zu fügen, was Leistung frisst und langsamer ist. hUMA kann die Texturen komplett verarbeiten, ohne das ein Umbruch stattfindet. Der Leistungsschub kann dann ENORM werden, sofern es richtig eingesetzt wird. Wenn du die riesigen Texturen am Stück verwenden und ausnutzen kannst, macht das jedenfalls eine Menge mehr aus, als wenn du sie erst in viele kleine aufteilen musst und am Ende wieder zusammensetzt.
Ich gebe Alking allerdings an der Stelle grünes Licht: Warum stellen die es auf 1080p wenn es nicht zu 100% flüssig ist? Weil es ja an den meisten Stellen flüssig ist, aber halt nicht überall und aus Marketing-Gründen! CoD auf einer Konsole in 1080p. Das verkauft sich doch eh. Einfach nur die Auflösung hochgedreht, ohne irgendwelche Anpassungen vorzunehmen. Das dient eben allein der Geldmacherei bei möglichst geringem Aufwand. Man will ja auch auf ALLEN Plattformen gleichzeitig präsent sein und möglichst schnell, viel abkassieren. ^^
-
- 13.11.2013, 09:44
- #145
Insgesamt bin ich auf die Spiele gespannt, die Ende 2014 auf den Markt kommen. Hier haben die Entwickler mehr Anpassungszeit und erst im Laufe des Jahres 2015 werden wir Spiele sehen, deren Engines wirklich gut optimiert sind auf die neue Hardware.
Und wie gesagt, bei all dem technischen Geschwafel, den Gamer interessiert das Ergebnis. Der hat keinen Vergleich zu Hause, das heißt auch hochskalierte 1080p werden ihn optisch zufriedenstellen, wohingegen Ruckler und Framerateeinbrüche eher spürbar sind.
Hätte ich bei Ghosts beispielsweise die Wahl, so würde ich zur Xbox Fassung greifen, da sie flüssig läuft. Daher auch die konsequent bessere Wertung bei polygon.com.
-
Gehöre zum Inventar
- 13.11.2013, 09:46
- #146
Ehrlich gesagt sehe ich von der Beschreibung von heterogenous Uniform Memory Access soweit ich die bisher irgendwo gefunden habe genau keinerlei wie auch immer gearteten Zusammehnag zu Texturgrößen. Da muss ich tatsächlich lästig sein und dich fragen wo die Info herkommt.
Ich beziehe mich da unter anderem auch hierauf: http://www.extremetech.com/gaming/16...ust-eventually
Kann es sein dass du da bei den Features etwas durcheinander gebracht hast und was anderes meinst?
-
- 13.11.2013, 09:48
- #147
Wenn die Spiele ordentlich auf die Hardware abgestimmt sind, dann Ruckeln die auch in 1080p nicht ^^ Selbst die vermeintlich schwächere XBO kann 1080p Ruckelfrei in 60 FPS auch mit einem CoD handlen. Das Spiel musste aber zum Launch raus und viele Entwickler haben sich beschwert, dass die Entwickler-Kits der XBO und PS4 so spät kamen.
Ergo: Wurde auf der XBO entwickelt und auf der PS4 nicht mehr angepasst, sondern nur das nötigste getan. Auf beiden Konsolen wäre mehr drin gewesen. CoD würde in wahnsinniger Optik in 1080p auf der PS4 ruckelfrei durchlaufen. Das gleiche gilt für die XBO (mit einigen Abstrichen).
Aber nein... Money make the Rules
-
- 13.11.2013, 09:57
- #148
Natürlich hat hUMA noch mehr Vorteile. Es bezieht sich ja nicht nur auf die Texturgröße, allerdings kann hUMA exakt SO verwendet werden um die Texturgröße zu belassen, da die GPU nicht mehr auf einen Speicherbereich limitiert ist, sondern den GESAMTEN Speicherbereich des Systems mitverwenden darf.
Phil Rogers hat es selbst gesagt: "Spieleentwickler wollten seit einigen Jahren extrem große Texturen nutzen, mussten sich bis dato aber einer ganze Reihe von Tricks bedienen, Teile großer Texturen in kleinere Texturen zu verpacken. Denn heute muss eine Textur zunächst in einem separaten Bereich des physischen Speichers liegen, bevor die GPU sie verarbeiten darf. Mit hUMA werden Anwendungen viel effizienter mit Texturen umgehen können."
Und DAS ist nur ein Vorteil von hUMA. Der aber grade bei der PS4 in Kombination mit GDDR5 extreme Leistungssprünge in der Grafikperformance bringen kann. Eben ein Vorteil wenn alles über "eine gleichschnelle Bahn" läuft ^^
-
Gehöre zum Inventar
- 13.11.2013, 10:25
- #149
Ja, wie gesagt - du hast dieselbe Möglichkeit bei der XBox One, zumindest was das Gaming OS betrifft (evtl. auch ein Grund für diese Zweiteilung der Systeme). Selbst wenn ich jetzt die 168 GBit/s des GDDR5 ausnutze um eine Textur aus dem Speicher zu holen und in ein Render-Target zu schreiben (im GDDR5), dann kann ich ja quasi genauso mit der langsameren Verbindung die Textur aus dem Speicher holen und mit der schnellen Verbindung in das Render-Target im eSRAM schreiben. Dann hab ich bei der PS4 einen Read und einen Write die sich die Bandbreite von 168GBit/s teilen und bei der XBox One einen Read mit 68GBit/s und einen Write mit 200 GBit/s, wobei beide Operationen sich das eben nicht teilen müssen.
Phil Rogers hat schon recht, dass hUMA da gerade bzgl. Flexibilität was bringt aber wie sich kurz nach diesen Stories gezeigt hat, ist das eben nichts was nur die PS4 hätte. Sony nennts halt hUMA wie AMD das tut, bei Microsoft läufts unter HSA. Gleichschnelle Bahn stimmt aber scheints auch nicht ganz, denn nur die GPU hat die volle Geschwindigkeit des GDDR5 zur Verfügung. Zugriffe der CPU laufen über einen langsameren Kanal.
-
- 13.11.2013, 11:31
- #150
Dennoch muss die XBO die Texturgrößen unterteilen oder nicht? Der cache kann nicht annähernd die Rendertargets abarbeiten, trotz der Performance, wie 4 GB GDDR5. Oder ist HSA eben absolut identisch mit hUMA? Und wenn ja, warum sollte ein DDR3 System, wo die Riesentexturen im Speicher liegen und wegen der Größe nicht in den Cache passen, dann in etwas genauso schnell sein? Das ist doch physikalisch nicht möglich ^^
Mit den Worten gleicher Bahn meinte ich eher, das alles aus einem Napf frisst, in dem Fall dem GDDR5 Speicher. hUMA nutzt die Vorteile beider Welten des deutlich schnelleren RAMs aus. Es macht in meinen Augen daher deutlich mehr aus hUMA auf GDDR5 einzusetzen auf dem dann alles sitzt, anstatt die Aufgaben zu trennen und dann auch noch eine hUMA ähnliche Technik auf den deutlich schwächeren DDR3 Speicher zu setzen.
Der Cache holt eine Menge raus, keine Frage. Aber sofern die Optimierungen stimmen sollte die PS4 in eine andere Region vorstoßen. Allerdings stört da einen das Wort "Sollte" extrem. Schade das wir das nicht benchen können
-
Gehöre zum Inventar
- 13.11.2013, 12:33
- #151
hUMA/HSA bedeutet technisch einfach mal nur, dass ich einen Speicherbereich gemeinsam für CPU und GPU habe. D.h. ich muss nicht zuerst Dinge die die CPU bearbeitet hat nochmal in einen anderen Speicherbereich schreiben, damit dann die GPU drauf zugreifen kann. Dasselbe gilt umgekehrt. Und normalerweise hab ich genau bei dieser Kopiererei dann noch eine Engstelle (PCIe oder ähnliches). Das fällt mir hier weg. Ich habe Speicher und der hat verschiedene Adressen. Wer (GPU/CPU) dann worauf zugreift und wieviel davon nutzt ist egal.
Das bringt am meisten bei Dingen die beide bearbeiten, weil das Kopieren wegfällt. Ein anderer Vorteil ist die Flexibilität. Wenn ich einen Grafikkracher baue und da 6 GB an Texturen brauche dann geht das. Muss halt der Rest mit 2 GB auskommen. Hab ich Unmengen an Charakteren und einfachere Grafik ist es evtl. umgekehrt (obwohl dann wohl mit GPGPU wohl trotzdem die GPU damit arbeiten muss).
Die Optimierung auf hUMA bringt bzgl. Performance hauptsächlich deshalb etwas, weil man eben bewusst keine Speicherkopien mehr macht sondern einfach der GPU sagt: da liegen deine Daten. Keine kopierten Daten, keine Umrechnung von Speicheradressen, einfach: bei 0x88884bef liegen deine Daten, ich hab sie dort hingelegt. Ohne Optimierung wird nämlich wohl trotzdem der Code zum Kopieren ausgeführt (das verschwendet dann zudem noch Speicherplatz).
Soweit ich die Analysen gesehen habe bringt das Ganze hauptsächlich Vorteile bei GPGPU Aufgaben, weniger bei normalen Texturen (die könnte sich die Grafikkarte ja einfach direkt in den Grafikspeicher legen - wenn dieser groß genug ist und der wäre dann ja wohl auch GDDR5). Insofern wundert mich nach wie vor was denn der Vorteil von hUMA für reguläre Texturen sein sollte - da find ich einfach keine Erklärung.
Was ich nicht glaube ist aber dass aufgrund der Tatsache, dass die CPU bzgl. Bandbreite beim Speicherzugriff ohnehin eingeschränkt ist hUMA auf GDDR5 mehr bringt als dasselbe unter anderem Namen (HSA) auf DDR3. Soweit zur Sache mit hUMA/HSA.
Wo die PS4 natürlich nach wie vor vorne ist (unabhängig von hUMA) ist beim Laden von Texturen für die Verarbeitung durch die GPU. Die Frage ist einfach wo mehr Zeit liegen bleibt - bei den Texturen oder bei der Verarbeitung der Shader-Programme und heutzutage üblicherweise letzteres. Und genau dabei hilft der Cache das auszugleichen (deshalb ist auch wenn der eSRAM für sich schneller ist als der GDDR5 unterm Strich die PS4 im Vorteil - aber nicht in dem Ausmaß wie es der Unterschied der reinen Speicherbandbreite erscheinen lässt).
Mein Argument zu den Shader-Einheiten hängt eher mit der Auslastung zusammen. Ist genug Arbeit da um die alle Vollgas zu beschäftigen. Perfekt ausbalanciert ist das nie. Deshalb sieht man auch auf Desktop-Karten mit 50% mehr theoretischer Leistung oft dann halt was wie einen Zuwachs um die 40% in der Praxis.
Also was ich nicht sagen will ist, dass die XBox mit dem eSRAM die Lücke komplett zumacht (egal wieviel Aufwand man reinsteckt). Aber so groß wie man's hinstellt wird die Lücke in der Praxis dann auch nicht sein (Optimierung vorrausgesetzt, welche ich zumindest den Engine-Entwicklern zutraue (Unreal Engine, CryEngine) - wenns schon die Game-Devs mit In-House-Engine nicht machen).
Wir brauchen einfach Developer Kits und benchmarken uns das aus mit unseren Programmierkünsten
-
- 13.11.2013, 12:45
- #152
Genau... lass uns mal einen Konsolenbenchmark schreiben hahahaha
-
Bin neu hier
- 19.11.2013, 15:47
- #153
Keine von beiden, als Nintendo-Fan ist es bei ner WiiU geblieben. LineUp ist zwar was dürftig aber es sind einige vielversprechende Titel angekündigt worden. Ich persönlich find es auch ein bisschen doof das sie in dieser Gen immer übergangen wird, dabei gehört sie auch zu den Next-Gens.
-
- 19.11.2013, 16:12
- #154
Naja hat sich nur leider nicht durchgesetzt und Nintendo jetzt zum Ende des Jahres in üble Verlegenheiten gebracht ^^ Sony hat Beispielsweise in 12 Stunden mehr PS4 Einheiten abgesetzt, als Nintendo Wii U Konsolen in den ersten 3 Wochen. Finde die Wii U ist ziemlich aus dem Rennen ^^ XBox One wird ähnlich starke Verkäufe haben wie die PS4 ^^
-
Gehöre zum Inventar
- 20.11.2013, 09:07
- #155
Der Abstand bzgl. der Leistungsfähigkeit ist einfach zu groß. Nintendo ist mit der WiiU zwar leistungsmässig vor der Konkurrenz bei ihrem Launch aber das ist bei einer Konsole die 6 - 7 Jahre später erschienen ist kein großes Kunststück. Mit den Fähigkeiten von PS4 und XBox One kann sie einfach nicht mithalten.
Nintendo hat aber ihre Nische mit familienfreundlichen Inhalten und die Spiele machen ja unbestritten Spaß. Aber letzten Endes wird sich wohl für viel mehr Leute die Frage stellen: XBox One oder PS4 als die Frage PS4 oder Wii U. Aber Nintendo hat sich ja schon mit der Wii in eine andere Richtung bewegt. Damals erfolgreich, aktuell weniger.
-
Bin hier zuhause
- 21.11.2013, 02:26
- #156
Xbox vorbestellt. Warum? Weil XBox
---------- Hinzugefügt um 03:26 ---------- Vorheriger Beitrag war um 03:10 ----------
Selbst wenn ich jetzt die 168 GBit/s des GDDR5 ausnutze um eine Textur aus dem Speicher zu holen und in ein Render-Target zu schreiben (im GDDR5), dann kann ich ja quasi genauso mit der langsameren Verbindung die Textur aus dem Speicher holen und mit der schnellen Verbindung in das Render-Target im eSRAM schreiben. Dann hab ich bei der PS4 einen Read und einen Write die sich die Bandbreite von 168GBit/s teilen und bei der XBox One einen Read mit 68GBit/s und einen Write mit 200 GBit/s, wobei beide Operationen sich das eben nicht teilen müssen.
Hinzukommt, dass bei Floating-Point Render Targets die benötigte Framebuffer-Bandbreite nochmals ansteigt, was im Falle der XBox One komplett durch den eSRAM abgefangen wird, da das Tone-Mapping vor bzw. währden des Commit-Vorgangs in den DRAM passiert (zumindest war es bei der Xbox360 so)
-
- 25.11.2013, 12:25
- #157
Allerdings ist der eSRAM zur Auslagerun zu klein, da man, egal wie mans dreht keine reinen 1080p (oftmals auch mit Kompression) kaum bis absolut gar nicht in den eSRAM geschrieben werden können. Er ist einfach zu klein. Da hilft einem auch die Bandbreite nicht mehr. Es gab bzw gibt es bis heute eben die Techniken Texturen vorm Rendering-Prozess zu brechen bzw zu splitten und diese dann wieder bei der Ausgabe in der Operation zusammenzufügen. Das funktioniert allerdings bei der XBox One nur durch horrende optimierung. Entweder nutzt man den eSRAM und hat eben die Bandbreite mit den 32 MB Cache oder man versucht mit der HSA Technik den DDR3 RAM zu nutzen, was allerdings zu Performance Defiziten gegenüber der PS4 führen würde, auch wenn wiederum dann Texturen mit ähnlichen Eigenschaften berechnet werden könnten. Das heißt du musst generell von kleineren Texturen bei der One ausgehen, wenn intensiv auf den Cache zurückgegriffen wird, der mit 32 MB einfach unterdimensioniert ist.
Wie schon in den Riesentexten davor: Die XBox One schafft im RAM Bereich eine ähnliche Performance sofern die Entwickler sich die Mühe machen die komplizierte Optimierung im Fall des eSRAM vorzunehmen. Allerdings nähert sich die Xbox One nur an und wird die Gesamtleistung der PS4 weder übertrumpfen noch erreichen. Rein theoretisch ist das selbst mit dem eSRAM beim "herumrechnen" auf dem Blatt Papier schlicht und ergreifend nicht möglich ^^
-
Gehöre zum Inventar
- 25.11.2013, 12:39
- #158
Na ja, die Optimierungsarbeit wird letzten Endes hauptsächlich von den Engine-Entwicklern gemacht werden. Wie Ryse und Forza zeigen ist da ja durchaus einiges möglich. Muss man halt abwarten wie groß der Unterschied für die Spieler dann wirklich sein wird.
Den eSRAM zu nutzen macht hauptsächlich für Dinge Sinn, die in mehreren Passes benutzt werden. Aber letzten Endes ist jetzt wo die beiden Konsolen heraußen sind die Zeit der theoretischen Betrachtungen eh vorbei. Jetzt kommt dann die Zeit sich anzusehen ob man wirklich als Spieler irgendwo mit Defiziten zu kämpfen hat.
-
- 25.11.2013, 12:45
- #159
Ich frage mich vor allem in wie weit die Konsolen-Entwickler bereit sind zu optimieren. Die XBox hat ja rein theoritisch ein höheres Steigerungspotenzial als die PS4, sofern die Entwickler gewollt sind den eSRAM konsequennt zu optimieren. Die PS4 ist da ja deutlich leichter zu programmieren, da es keinen Zwischen-Cache in der Form eines eSRAM gibt. Die Launchtitel der XBox könnten deutlich mehr, die PS4 ist mit Killzone schon auf einem guten Weg die meisten Bereiche zu nutzen.
Mich würde der reine Leistungsunterschied interessieren, wenn beide Konsolen auf dem Optimum laufen, auch wenn die Xbox One streckenweise nur 50% der GPU Power zur Verfügung hat.
-
Bin hier zuhause
- 29.11.2013, 18:12
- #160
Allerdings ist der eSRAM zur Auslagerun zu klein, da man, egal wie mans dreht keine reinen 1080p (oftmals auch mit Kompression) kaum bis absolut gar nicht in den eSRAM geschrieben werden können. Er ist einfach zu klein. Da hilft einem auch die Bandbreite nicht mehr. Es gab bzw gibt es bis heute eben die Techniken Texturen vorm Rendering-Prozess zu brechen bzw zu splitten und diese dann wieder bei der Ausgabe in der Operation zusammenzufügen. Das funktioniert allerdings bei der XBox One nur durch horrende optimierung.
Ansonsten gilt hier das gleiche wie für die Xbox360, erstmal einen Fast-Z only pass für Hierachical-Z Buffer als auch um die Commands im Command Buffer zu taggen und den zu rendernden Tiles zuzuordnen. Ist ein Tile fertig gerendert wird die Multisamples für FSAA kombiniert und ins DRAM geschrieben, während das Nächste Tile schon angefangen werden kann.
Das ist überdies alles in verschiedenen technischen Veröffentlichungen von ATI und Microsoft dokumentiert. Auf der Xbox360 brauchte man für 720p 4xFSAA 3 Tiles (Bei den bekannten 10MByte eDRAM). Dann sollten ja auch 32MByte (das dreifache) für nur die doppelte Menge Pixel locker reichen.*
Auf diese Weise kann man die Bandbreite von 270GByte/s optimal nutzen. Wohlgemerkt mal so eben 100GByte/s mehr als bei PS4. Problem ist eher, dass die meisten Engines auf dem PC solche Verfahren nicht einsetzen (müssen). Man muss hier die Engine für die XBox One "optimieren".
Und noch was Generelles. Der eSRAM ist _KEIN_ Cache. Caches sind transparent für den Programmierer, im eSRAM hingegen muss man Objekte explizit allozieren.
Rein theoretisch ist das selbst mit dem eSRAM beim "herumrechnen" auf dem Blatt Papier schlicht und ergreifend nicht möglich
*Auch auf der 360 hat in der ersten Generation kaum jemand Tiling benutzt. Stattdessen wurde lieber die Auflösung runtergeschraubt, weil das der einfachere Weg ist. Gleichzeitig konnte man im Internet in pseudo-technischen Veröffentlichungen nachlesen, dass 10MByte viel zu klein für 720p sei.
auch wenn die Xbox One streckenweise nur 50% der GPU Power zur Verfügung hat.
Ähnliche Themen
-
Welches Spiel kauft ihr euch als nächstes?
Von timsah im Forum Spielkonsolen allgemeinAntworten: 1225Letzter Beitrag: 16.10.2022, 16:38 -
Kauft ihr euch eine Display-Schutzfolie?
Von Unregistriert im Forum Samsung Galaxy SAntworten: 165Letzter Beitrag: 28.02.2011, 08:08 -
Wo kauft Ihr euch euer HTC Desire?
Von King Kong im Forum HTC Desire Kauf / ProviderAntworten: 47Letzter Beitrag: 09.04.2010, 13:21
Pixel 10 Serie mit Problemen:...