Startseite > Artikel, Videospiele > Gerüchteküche – Wann brauchen wir eine neue Konsolengeneration?

Gerüchteküche – Wann brauchen wir eine neue Konsolengeneration?


CryTek will mehr RAM, DICE ist bereit für die die X720 bzw. PS4. Und EPIC präsentiert famose DX11-Engine-Updates, die sich mit der jetzigen Gen nicht mehr nutzen lassen. Wenn es nach diesen High-Tech-Firmen ginge, sollte es so schnell wie möglich zum Generationswechsel kommen und nicht erst 2014/2015! Doch ist dieses Gehetze wirklich sinnvoll?

Man sollte bei dieser Diskussion immerhin im Auge behalten, dass CryENGINE, Frostbite Engine und die kommende Unreal Engine 4 von neuer Hardware abhängig sind und sich neue Features nur dann gut lizenzieren lassen, wenn die Hardwarebasis dafür einen Bedarf hat. Und laut Sony und Microsoft ist das erst einmal nicht der Fall…

Der richtige Zeitpunkt

Doch wann soll eine neue Generation kommen? Geht man von den erfolgreichen Zyklen vergangener Generationen aus, dann eigentlich alle sechs Jahre:

  • NES: 1983 – 1990
  • Mega Drive: 1988 – 1994
  • SNES: 1990 – 1996
  • PlayStation: 1994 – 2000
  • PlayStation 2: 2000 – 2006

Wir haben jetzt 2011. Die X360 ist seit Ende 2005 auf dem Markt, die PS3 seit Ende 2006 bzw. 2007 (Europa). Demnach wäre eine neue Xbox 2011 angebracht, eine neue PlayStation 2012. Doch wäre das sinnvoll?

Meiner Meinung nach nicht. Die Konsolen kommen jetzt erst in die Regionen des Massenmarktes, d.h. in Preisregionen von unter 200 Euro. Move und Kinect kosten derzeit noch extra dazu. D.h., dass die Konsolen immer noch teuer sind.

Wer will also ernsthaft eine Konsole Ende 2012 kaufen wollen, die womöglich mindestens 700 Euro kosten wird (sonst müsste man sie noch stärker subventionieren), kaum Spiele bietet (bzw. bieten kann, weil die Entwickler mit den jetzigen Projekten ausgelastet sind) und technisch nur ein „Update“ ist? Denn was kann man 2012 erwarten?

  • 1080p
  •  3D
  • bessere Grafik
  • eine „bessere Online-Anbindung“

Die Mehrwerte?

Mehr nicht? Auch die neuen Engines bieten da nicht mehr Punkte, einzig vielleicht die Physik-Berechnung profitieren von neuen Routinen, die  realistischere Szenarien ermöglichen. Bei der KI und Echtzeitlichteffekten ist man auch jetzt noch nicht in der Lage, wirklich fundamentale Fortschritte zu erlangen.

Wäre der technische Unterschied jetzt schon groß genug für einen Generationswechsel?

Das ist zum Teil jetzt schon möglich, doch welcher Mehrwert wirdwirklich  geboten, der es allen Beteiligten (Kunden, Hersteller, Entwickler) erlaubt, Produkte von Beginn an stark zu verbreiten, ohne dass das Vertrauen in das Produkt verfliegt (Vgl. 3DO, Ataris Jaguar, Nintendos Virtual Boy, SEGAs 32X/Mega CD oder Philips‘ CD-i)?

Da ist bis jetzt kein massenwirksamer Anreiz da und die Technikfreaks würden wohl jedes Jahr eine neue Konsole bzw. ein „Update“ holen, wenn dies möglich ist. 😉 Man muss also Reizpunkte bieten, die mehr sind, als Techdemos im 3D-Mark-Stil. Es müssen Spiele und Konzepte her, die wirklich neue Erfahrungen bieten können. Und die Kapazitäten für High-End-DX11-Projekte sind derzeit selbst auf dem PC noch nicht in dem Maße verbreitet, als würde man damit Verkaufslawinen anregen.

Für die Hersteller/Entwickler ist ein Konsolen-Sprung erst einmal ein reines Verlustgeschäft. Sie müssen investieren und sich vor allen Dingen für eine Plattform entscheiden, die auch noch 2018 tragfähig wäre. Doch wer weiß, ob Blu-Ray 2018 noch Sinn ergibt? Oder welche Spielkonzepte mit an Bord müssen, um langfristig gesehen wirklich zu punkten? Reicht ein reines DX11-Hardware-High-End-Update, um ein 100 Mio-verkaufte-Konsolen-Projekt zu planen?

Dies steht in keinem Verhältnis des Aufwandes, wer andere Zahlen hat, kann diese natürlich gern in den Kommentaren posten. Mich erinnert die Diskussion hier etwas an die Zeit zwischen 1992 und 1994. Da wurde auch jede Woche angekündigt, man brauche 32/64-Bit, CD-ROM und 3D-Grafik und demnächst noch „Virtual Reality„.

Der Markt und das Potenzial

Wir wissen aus letzterem, was daraus geworden ist: Eine massenuntaugliche Technik, die Millionen an Entwicklungsgeldern verschlungen hat und keinen Mehrwert schaffen konnte. SEGA wusste zudem überhaupt nicht wohin es gehen sollte und hat dann einfach mal Technikfreak-Updates herausgebracht (MegaCD, 32X), anstatt sich auf eine tragfähige Hardware zu konzentrieren.

Im Gegensatz zu damals ist der Markt aber nicht im Umbruch (!). Es kommt nicht zu einem enthusiastischen Wechsel von 2D zu 3D und Cartridge zu CD. Die Trends derzeit heißen Casual-Gaming, da sind Sony und Microsoft nun an Bord und „3D„.

Letzteres ist aber immer noch nicht wirklich tragfähig, so lange 3D-Brillen getragen werden müssen. Nintendo ist da mal wieder einen Schritt weiter und bietet beim 3DS gleich ein Display ohne Komfort-Einschränkung. Und ob „3D“ wirklich ein Verkaufshit wird, läßt sich sowieso nicht beantworten.

Wenn man 2012 eine neue Gen will, dann kann diese nur aus Kompromissen bestehen, nicht aber aus wirklich fortschrittlichen Techniken. Die ungeklärten Fragen bezüglich Abwärtskompatibilität, Preis-Leistungsverhältnis und Akzeptanz mal ausgenommen.

Ergo: Die Hersteller werden ihre jetzige Basis so weit es geht auskosten. Es ist wirtschaftlich gesehen das Gesundeste, was man machen kann, denn wann gab es mal weltweit 3 Hersteller, die mehr 50 Mio (!) Konsolen auf dem Markt hatten und dieses Potenzial nun ausreizen können?

Das Mega Drive kam auf 30 Mio, das SNES 50 Mio. Jetzt haben wir mit PS3 und X360 50 bzw. 53 Mio und die sind noch nicht einmal im Massenmarkt unter 200-Euro angekommen! Das Zünglein an der Waage könnte mal wieder Nintendo spielen.

Derzeit kräht zwar kein Hahn mehr nach der Wii, aber diese kommt immerhin auf 87 Mio verkaufte Exemplare! Und könnte mit einem leistungsfähigerem Nachfolger Ende 2011 und kompletter Abwärtskompatibilität vorausgesetzt weiterhin die Führung ausbauen, ohne ganz von vorn mit einer komplett neuen Hardware anzufangen.

Dieses Versuchsfeld schickt Nintendo zu Sony und Microsoft rüber – es sei denn, man bietet auf der diesjährigen E³ ein so revolutionäres Feature an, dass die Konkurrenz nachziehen muss. Aber das ist unwahrscheinlich, denn nach dem Ende des Gamecubes stand Nintendo im stationären Bereich auf sehr wackeligen Füßen.

Man musste quasi neue Spielerkreise erschließen, damit der Markt durch drei Anbieter erschlossen werden kann. Das hat man geschafft. Aber wen sollte man noch ansprechen, den man derzeit noch nicht anspricht? Also wage ich zu bezweifeln, dass Nintendo mit einem „Wii-Nachfolger“ wirklich neue Wege geht. Bei der Marktmacht wäre es sowieso geschickter, die jetzigen Käufer wieder mehr an die Konsole zu binden, das sollte eine höhere Priorität haben.

Das Fazit

2014, 2015! Da seh ich wirklich neuen Bedarf, denn auch die PC-Technik hat sich zwischen 2006 und 2011 nicht in dem Maße verändert, wie zwischen 2000 und 2005 (Vgl. Grafikkarten-Rangliste, DirectX-Releases). Ansonsten bleibt es einfach bei einer Sehnsucht, die kaum eine wirtschaftliche Notwendigkeit hat und sonst eher einem 3DO-Fiasko ähneln würde, also „High-End, koste es, was es wolle!“.

Bis dahin dürfen wir uns eigentlich freuen, ausgereifte Spielkonzepte zu erhalten, mit DLC versorgt zu werden (was nicht nur positiv ist) und eine Konsolengeneration auszukosten, wie es eigentlich nur zu Mega Drive und SNES-Zeiten (19881995) der Fall war.

Da musste man ja einigen Versuchungen widerstehen (CD-i, Jaguar, 3DO,…), die derzeit nicht mal am Horizont zu sehen sind. Vielleicht war auch nur die letzte Gen mit Xbox (PAL 2002 bis 2005) und Gamecube (PAL: 2002 bis 2006) zu kurz und mit der PS2 technisch zu schwach, um länger als 6 Jahre zu bestehen. Und ein weiteres Ergonomie-Fiasko am Beispiel der Xbox 360 (RROD, lautes Laufwerk bzw. Lüfter, unnützes HD-DVD-AddOn) ist zukünftig kaum einem Unternehmen noch dem Kunden zuzumuten. Die 1,15 Milliarden-Garantiekosten haben gezeigt hat, dass eine überhastete Strategie viel Geldverspielen kann.

Update 3. April 2012:

WiiU steht in den Startlöchern

Mittlerweile ist ein Jahr vergangen und getan hat sich nicht viel. Das Grundproblem ist geblieben. Aber die Details zur WiiU sind interessant genug, um mal näher beleuchtet zu werden.

Derzeit erwarte ich anhand der Grundlagen:

– Derivat des 710 Express mit 4 bzw. 6 Kernen und 3,X GHz
– AMD/ATI R700…

Geht man bei der Wii U von der R(V)770 als Basis aus, stehen einem DX10.1 (nein, kein DX11!) und das Shader Model 4.1 zur Verfügung (Vergleich: X360, PS3: R520 mit DX9.0 und SM 3.0, ebenso bei der PS3). Rein technisch gesehen, wäre dies eine GPU, die gerade einmal 2 Jahre neuer ist.

Multiplattformspiele könnten so angepaßt werden, dass man das Spieldesign nicht verändert, aber die überschüssige Leistung in 1080p + DX10 Effekte + eventuell Anti-Aliasing investiert (was ja teilweise, je nach Engine, auch schon getan wird). Vielleicht sogar nativ bei jedem Spiel 1080p, wenn dies nicht exorbitant mehr Leistung verschlingt. Dazu wären sicherlich ein paar Entwickler bereit.

Ob man nun bei 1080p-Spielen (nativ) unbedingt 4xAA braucht, wage ich zu bezweifeln: Jeder Entwickler wird die überschüssige Leistung sicherlich mehr in Effekte und Design übernehmen, statt wie auf dem PC mal 4xAA dazuzuschalten. Die Frage stellt sich generell: Was tun mit überschüssiger Leistung?

Dies hängt davon ab, wieviel eine Hardware kosten soll und wo die Leistung investiert wird. Bei Multiplattform ist klar: Da ist es einfacher, die Entwicklung einfach zu übernehmen und  Das Problem stellt sich nun mal bei PCs nicht, denn dort geht jede überschüssige Leistung in AA/AF/Auflösung oder sonstige „Verschönerungen“. Das kann man aber von einer Konsole mit 2x256MB RAM bzw. 512MB und GPUs aus den Jahren 2005/2006 nicht mehr erwarten (R520 bzw. 7900er GeForce.

Bei Exklusivspielen muss dies nicht so sein und wenn sich ein Entwickler dazu entschließt, die überschüssige Leistung lieber in größere Areale, Weitsicht, Objekte, etc. zu investieren, muss entweder an der Auflösung, den Effekten oder AA geschraubt werden. AA steht da meiner Meinung nach als erstes auf der Streichliste. Danach die Auflösung. Danach wohl die Effekte. Das kann man sicherlich anders sehen, gebe ich zu und es kommt halt auch drauf an, bei welcher Engine welcher Wert mehr Leistung bringt und wie die Hardware z.B. mit AA umgeht.

1080p + AA bei X360 und PS3 ist jetzt schon unglaublich hardwarefressend (wer mehr wissen will, schaut mal hier rein). Und manche Entwickler machen es einfach so: 576p entwickeln mit allen Effekten, dafür 60 FPS bekommen, auf 1080p hochskalieren und AA reinpressen (z.B. das gräßliche Quincunx, welches das Bild auch noch unscharf wirken läßt).

Der (technische) Haken

Die WiiU wird mit Sicherheit keine Konsole, die sich technisch von X360/PS3 weit absetzen kann! Warum? Weil die Konsole…

  1. bezahlbar sein soll
  2. sichtbare Mehrleistung teuer ist!

Wir sind mittlerweile an dem Punkt angekommen, wo man prozentual gesehen sehr viel mehr Leistung bereitstellen muss, um für die Masse sichtbare Unterschiede (und das ist nur subjektiv ermittelbar, gebe ich zu) zu bieten. Aus dem Grund sind noch keine Nachfolger für PS3 und X360 angekündigt. Reichte früher noch mehr oder weniger eine neue Grafikkartengeneration (z.B. GeForce 256 –> GeForce 3: kaum 2 Jahre!) für wirkliche entscheidende Unterschiede mehrere Jahre nötig.

Das Problem: Die oben genannte Einschätzung gilt nur im Idealfall! Wenn Nintendo Nintendo ist, dann werden sie versuchen, die neue Konsole so billig wie möglich zu produzieren. Dabei kann es auch gut sein, dass man die GPU passiv kühlt und munter beschneidet. D.h. man hätte dann tolle Effekte – aber nicht die Leistung, um diese auch wirklich darzustellen. Von 1080p müsste man sich dann sofort verabschieden und ob man dann noch X360/PS3-Niveau erreicht, ist auch nicht klar.

Denn viel hängt wohl vom „Controller“ ab, der irgendwie mitfinanziert werden muss. Ich kann damit noch wenig anfangen, das Konzept, portable Spielerlebnisse anzubieten, halte ich aber grundsätzlich für nicht verkehrt. Allerdings ist es derzeit wohl nicht einfach, zu erkennen, wohin der Weg geht: Das war bei PS3/X360 noch anders: Online-Gaming, HD und generell „größer, weiter, höher“. Das hatte erst einmal gereicht.

Ob das allein in der nächsten Gen ausreicht, wage ich mal zu bezweifeln, zumindest, wenn man wirklich erfolgreich sein will und sich ggf. von der Konkurrenz ergendwie absetzen will. Wir schauen mal in einem Jahr weiter, was sich dann getan hat. 🙂

Update 21. Juni 2012: John Carmack schlägt in die gleiche Kerbe:

Wenn du ein aktuelles Spiel wie Halo nimmst, das mit 30 Hertz bei 720p läuft – wenn du das auf 1080p mit 60 Bildern pro Sekunde mit dynamischen Frame-Buffers laufen lässt, dann hast du plötzlich schon die ganze Rechenkraft der nächsten Generation aufgebraucht. Es wird das sein, was wir bereits haben, aber halt viel besser. Du kannst alles neugestalten mit einem Fokus auf DirectX 11, aber wird nicht unser Weltbild verändern. – [Quelle]

Ganz meine Meinung!

Update 12. September 2012:

Wii U Specs

Die angeblichen finalen Spezifikationen der Wii U wurden nun gepostet (Quelle: VGleaks.com).

CPU: “Espresso” CPU on the Wii U has three enhanced Broadway cores
GPU: “GPU7” AMD Radeon™-based High Definition GPU. Unique API = GX2, which supports Shader Model 4.0 (DirectX 10.1 and OpenGL 3.3 equivalent functionality)
Memory: Mem1 = 32MB Mem2 = 1GB (that applications can use)
Storage: Internal 8 GB with support for SD Cards (SD Cards up to 2GB/ SDHC Cards up to 32GB) and External USB Connected Hard Drives
Networking: 802.11 b/g/n Wifi
Video Output: Supports 1080p, 1080i, 720p, 480p and 480i
Video Cables Supported:
Compatible cables include HDMI, Wii D-Terminal, Wii Component Video, Wii RGB, Wii S-Video Stereo AV and Wii AV.
USB: Four USB 2.0 Ports

Soso. Egal, wie die Wii U am Ende aussehen wird (ich tippe auf Triple-Core und Radeon 7X00), es ist eigentlich so, wie erwartet: Etwas schneller als X360/PS4, mehr auch nicht. Waurm auch?

Multiplattform-Spiele werden eventuell davon profitieren, dass Spiele auf der Wii U etwas höher aufgelöst werden oder mehr Frames oder Effekte bieten. Das wars dann aber auch schon und mehr will Nintendo nicht. Interessanter wird es erst, wenn PS4/X720 rauskommen und dann hat Nintendo immer noch Zeit, weil der Preis am Anfang generell hoch sein wird. Desweiteren: Kommen keine neuen Spielkonzepte, wird der Massenmarkt nur schwerlich in die Gänge kommen.

Die kommenden Spielerlebnisse: Innovation? Virtual Reality?

Man sollten icht vergessen: Google und Apple schlafen nicht und das wichtigste bei Unterhaltungsmedien ist ein Gut, dass nicht beliebig vervielfältigt werden kann: Zeit! Google und Apple mögen vielleicht keine konkurrierenden Stand-Alone-Plattformen anbieten, aber die Leute können eben nur einen begrenzten Zeitraum für ihr Hobby verwenden und da spielt es mittlerweile weniger die Rolle, ob alles technisch so ausgereizt wird, wie in den letzten Jahren. Die Zeit will man in der Regel qualitativ hochwertig verbringen. Mit besonderen Spielerlebnissen, die man so nicht kennt, die aber vielleicht auch das eine oder andere Genre weiterbringen, modifizieren, verschmelzen lassen. Es muss nicht alles unglaublich innovativ sein, aber es wird wohl nicht mehr nur mit einfachen Hardwareupgrades weiterlaufen.

Das zieht vielleicht noch auf dem PC-Markt, aber schon dieser ächzt und stöhnt, wenn nur der 1000ste Shooter mit Krach-Bumm-Wumms-Trailern auf sich aufmerksam machen will und viele Leute einfach nur noch entnervt auf den [X]-Button klicken (GameOne hat das in den Folgen zur E3 auf den Punkt gebracht: Alles sieht und spielt sich irgendwie gleich). Alles schon gesehen, alles reißerisch verpackt, alles zahn- und seelenlos. Franchise-Recycling, elendig gleiche Spielkonzepte, Stories ohne Sinn und Verstand. Noch ein Kriegsshooter, noch eine Alien-Invasion, nur ein „unglaublicher“ Multiplayer-Modus. Ich weiß nicht, ob sowas weiter massenhaft zieht und ob ganz neue Startfranchises dazu beitragen können, dass unser Hobby trotzdem so weitergeht, wie bisher. Ich stelle das eher mal in Frage.

Hier geht Nintendo einen Schritt weiter, um dem Massenmarkt neue Anreize zu geben. Die Basis-Innovation ist das Tablet. Ob und wie es genutzt wird, das wird sich zeigen, denn mit der Wii hat man ja vorangig auf neue Kundengruppen gezielt. Nun will man den „Core-Gamer-Markt“ wieder ins Visier nehmen und sich damit ganz klar in Konkurrenz zu Microsoft und Sony stellen. Mal sehen, ob dies gelingen wird. Der letzte Versuch mit dem Gamecube ging eher in die Hose, wobei ich die Konsole bis heute mag. 😉

Für John Carmack ist jedenfalls klar:

Das id-Programmiergenie hält nicht viel von der kommenden Hardware-Generation und setzt auf VR-Systeme mit 3D-Brillen und Bewegungserkennung. (Quelle: Gamestar)

VR war schon öfters mal ein Flop, aber irgendwie können die Leute nicht davon lassen. Der Markt wird entscheiden, wie wir in 5 – 10 Jahren dann spielen werden. Großartige Veränderungen im Sinne von VR erwarte ich aber nicht, dazu sind wir zu sehr Gewohnheitstiere. Aber Tablets, zusätzliche Eingabegeräte, die Vernetzung von mobilen mit stationären Geräten, das kann ich mir alles sehr gut vorstellen.

Die Zukunft: Streaming, Cloud-Dienste, Free to play

Hatte ich früher mein NES, meinen Gameboy und vielleicht noch einen Homecomputer (und die meisten hatten eher eine einzige Plattform), wo alle paar Monate mal ein Spiel rauskam, dass mich interessiert hat, kommen nun wöchentlich „Kracher“ raus (so zumindest der Werbeeindruck) und das auch unzähligen erfolgreichen Plattformen: Browser-Games, Handy-Games, Tablet-Games, PS3, X360, 3DS, Vita, demnächst vllt Wii U. Der ganze Indie-Markt, XBL, PSN, VC, Steam, GOG,… Heute kann man überall auf zig Geräten zocken. Aber eine Sache bleibt: Wir haben nicht die Zeit, alles so intensiv zu spielen, wie früher…

Free to play wird sich über kurz oder lang durchsetzen, denn dies kommt den Spielgewohnheiten am ehesten entgegen. Schließlich wird es nun ganze Generationen an älteren Spielern geben, die damals noch intensiv gespielt haben, aber heute durch die Masse erschlagen werden und sich nicht mehr in dem Maße auf dem Markt auskennen. Da ist es naheliegend, schnelle Spieleinstiege zu schaffen, egal auf welcher Plattform.

Hinzu kommen dann noch die Streaming-Dienste, die auf egal welchem Geräte möglich sein könnten: SmartTVs, einfach alles über die Cloud auf ein Tablet senden (Wii U oder Vita zeigen dies ja schon in Ansätzen), egal wo man ist. Das bedeutet auch, dass der generelle Wert einer festen Plattform sinken wird. Die Hersteller werden weiterhin um den Platz unter dem TV kämpfen, aber man will die Spielinhalte auch woanders spielen. Da ist es aber nicht mehr so wichtig, ob alles in 1080p un 60 FPS läuft, wenn der Stream in 480p und 30 FPS auf einem 10″ Tablet abgerufen wird.

Advertisements
Kategorien:Artikel, Videospiele
  1. Flat Eric
    16. Januar 2013 um 16:33
  2. Flat Eric
    10. Oktober 2012 um 22:20

    „Spiele werden immer mehr zu “Wegwerfprodukten”! Habe lange über den Satz nachgedacht und da ist was wahres dran. Werde dazu mal was zusammenschreiben, was mir in den Sinn kommt, denn du sprichst da wirklich wichtige Punkte an…

  3. 15. August 2012 um 09:04

    Das stimmt. Ich denke ja, dass die „ganz große Masse“, die Nintendo im zweiten Drittel des letzten Jahrzehnts mit der Wii und dem DS (Lite) angesprochen hat, heute nur noch für Tablets und Smartphones zu begeistern und mit den dafür erhältlichen Minispielchen für Lau bedient ist. Da wird für Microsoft, Sony und Nintendo nicht mehr viel abzugraben sein.

    Es gibt aber noch die Call of Duty spielende „Semi-Casual“-Masse. (Sorry, dass ich dafür keine bessere Definition habe 😀 )
    Diese wird, zumindest von Sony, wohl ohnehin vorerst nicht angesprochen.
    Betrachte ich die PS Vita und denke an einige Aussagen seitens Sony bezüglich der Leistungsfähigkeit der PS4, wird zu ziemlich hoher Sicherheit in erster Linie wieder der leidenschaftliche Core-Gamer angesprochen, der bereit ist, hohe Summen für sein liebstes Hobby auszugeben.

    Cloud-Gaming könnte mMn ein Thema für einen Teil der eben genannten „Semi-Casual“-Masse sein. Wer wirklich keine hohen Ansprüche ans Gaming hat und möglichst günstig immer die neuesten Titel Zocken will, kommt hier auf seine Kosten.

    Ich habe selber einmal Cloud-Gaming (mit 32 mbit Leitung) ausprobiert und konnte mich damit allerdings nicht anfreunden. Es bestehen Probleme, die wohl niemals behoben werden können.
    Andere Probleme, die mit der Zeit behoben werden könnten, zähle ich nun bewusst nicht auf.
    1. Input Lag: Das Spiel ist zwar spielbar, aber es ist stets ein deutlicher Input Lag zu spüren. Dieses Problem könnte wohl ausschließlich eine FTTH-Anbindung auf ein erträgliches Minimum reduzieren. Betrachtet man den weltweiten Ausbaustatus der Internetanbindungen, ist dieser Gedanke für die Masse absolut utopisch.
    2. Bildkompression: Unkomprimierte Bilder, wie wir sie von unseren lokalen Gaming-Maschinen gewohnt sind, erzeugen ein viel zu hohes Datenaufkommen für das WAN. Darum wird das Bild nun mal komprimiert, wodurch es „patzig“ oder „unscharf“ aussieht.
    3. Verbindungsabbrüche: Sofern die Server nicht eigenständig die Verbindung unterbrechen, recht es schon aus, wenn sich einer meiner Mitbewohner etwas von einem halbwegs potenten Server downloadet oder von mir aus seine Serverliste in Counter Strike aktualisiert. Je nach Nutzungsverhalten des Internets anderer Mitbewohner geht selbst die schnellste Internetanbindung in die Knie. Beim Zocken möchte ich nicht von derartigen Einflüssen abhängig sein.

    Wie bereits gesagt, kommt hier wohl nur ein Teil der Semi-Casual Gamer auf seine Kosten, der für verhältnismäßig wenig Geld immer die neuesten Games zocken möchte.

    Noch eine ganz persönliche Meinung bzgl. Cloud-Gaming: Spiele werden immer mehr zu „Wegwerfprodukten“. Das liegt einerseits an den Spielen selbst (Eines spielt sich wie das andere), andererseits an der Art und Weise, wie sie vermarktet werden. (jährlicher Release z. B.) Cloud-Gaming perfektioniert diesen Umstand, indem man sich Spiele nur noch „mietet“ und alte Titel nach wenigen Jahren nicht mehr verfügbar sind.
    Heute spiele ich ein neues Spiel, morgen ist es für mich uninteressant und übermorgen habe ich es längst vergessen.
    Diese Entwicklung finde ich absolut bedauerlich.

    Es gibt Spiele, die sind fast 30 Jahre alt und wir sprechen heute noch darüber. In meiner Laufzeit als Gamer ist mir aufgefallen, dass Videospiele eine Art „Snapshot“ eines Lebensabschnitts machen. Packe ich beispielsweise Wario Land aus, denke ich an meine Kindergartenzeit und alle Gefühle aus dieser Zeit sind wieder da. Bei Yoshi’s Island denke ich an den Beginn einer seit 15 Jahren bestehenden Freundschaft usw. Je nach Spiel kann ich quasi entscheiden, in welchen Abschnitt meines Lebens ich „reisen“ möchte. Die Spiele müssen also so gut gewesen sein, dass sie eine derart einprägsame Rolle in meinem Leben gespielt haben.
    Abgesehen davon sind auch viele alte Titel, die man noch nie gespielt hat, noch heute absolut spielenswert. Erst gestern spielte ich Metroid für NES durch und hatte damit mehr Freude, als mir CoD je gemacht hat, obwohl ich es keinen „Nostalgie-Bonus“ hat.
    Unter anderem aus solchen Gründen ist der Retro-Markt nicht zu unrecht sehr groß (aber stark unterschätzt).

    Aber wie wird es in Zukunft aussehen? Wird man 2025 ein Spiel wie CoD wegen seiner spielerischen Qualitäten oder doch nur wegen seiner Verkaufszahlen in Erinnerung haben? Wird man sich überhaupt noch daran erinnern?
    Mir gefällt die Entwicklung der Videospieleindustrie einfach nicht.
    Darum lasse ich tunlichst die Finger von Cloud-Gaming, F2P und den „angesagtesten“, meist beworbenen Spielen.
    Nachdem mich mein Hobby seit ca. 2008 nur noch langweilte (da ich mir jeden Mist kaufte, der „angesagt“ war), machte ich mir Anfang dieses Jahres darüber Gedanken, warum mich in der Vergangenheit mein Hobby so begeisterte und was ich eigentlich von einem Spiel erwarte, das mir Spaß machen soll.
    Ergebnis: Neue Titel wähle ich sehr viel sorgfältiger aus, ich spiele wieder vermehrt Spiele aus vergangenen Zeiten und habe wieder größte Freude an meinem Hobby.

    So, nun habe ich wieder viel mehr geschrieben, als ich ursprünglich wollte. Aber bei diesem Thema gibt es für mich einfach keinen Halt.. 😀

  4. Flat Eric
    9. August 2012 um 16:38

    Danke für deinen Kommentar. 🙂 Die Frage des Zeitpunkts bleibt eben entscheidend: Wann ist die Masse bereit, sich für ein neues Produkt zu begeistern?

    Da mein Artikel mittlerweile gut ein Jahr alt ist, stellt sich bei mir auch die Frage, ob Cloud-Gaming nicht eventuell ein größerer Reizpunkt werden könnte. 🙂

  5. 7. August 2012 um 11:20

    Sehr interessant und sehr schön geschrieben, in vielem stimme ich zu. Aber:

    1. Der Crysis Screenshot zu Beginn vergleicht die PC-Version aus dem Jahre 2007 mit der Konsolenversion aus dem Jahre 2011.
    Schon zur Releasezeit der aktuellen Konsolengeneration sahen also PC-Spiele so gut aus, dass sie für Konsolen bis heute technisch unerreichbar sind.

    2. Es ist richtig, dass sich in Sachen Grafiktechnologie, sprich DirectX / OpenGL in den letzten Jahren nicht so viel getan hat, wie bspw. noch 2000-2004.
    Doch selbst Technologien wie Parallax Occlusion Mapping, die bereits mit DX9.0c möglich sind, finden nur in den allerwenigsten Titeln erkennbare Verwendung, da so gut wie alle Titel primär für die dafür viel zu leistungsschwachen Konsolen entwickelt werden.
    Kurz: Wir schreiben das Jahr 2012 und können die Spiele, die ungemoddet das 8 Jahre alte Shader Model 3.0 tatsächlich ausreizen, an einer Hand abzählen.

    3. Was mit einem heutigen High-End Rechner und einem Xbox 360-, bzw. PS3-Nachfolger möglich wäre, zeigen unter anderem Grafik- und Physikdemos von nVidia wie „New Dawn“ oder „Rocket Sled“ (auch schon wieder 2 Jahre alt), Benchmarks wie der 3D Mark 2011 oder die Luminous Engine von Square Enix (<- Spieleengine!).
    Wer diese Bilder schon einmal gesehen hat, wird mit mir einig sein: Das ist definitiv Next-Gen würdig und stellt die aktuelle Konsolengeneration tief in den Schatten.

    4. Zu Carmack's Kommentar: "Es wird das sein, was wir bereits haben, aber halt viel besser".
    War es beim Sprung von der 6. auf die 7. Konsolengeneration nicht genau das selbe?
    Was, außer besserer Grafik, höherer Bild- und Texturauflösung, besserer Geometrie etc. pp. kann die Xbox 360 besser als die Xbox?
    Was erwartet Carmack eigentlich? Lohnt sich eine neue Generation erst dann, wenn Raytracing in Echtzeit berechenbar ist oder genug Speicher vorhanden, um eine Welt komplett aus Voxel darzustellen, sprich "unser Weltbild verändert" wird?

    Mein Fazit: Als Gamer bin ich mittlerweile von Spielen gelangweilt, die aussehen und sich spielen wie 5x in der Mikrowelle wieder aufgewärmt.
    Eine Textur ist verwaschener als die andere, ein Objekt detailärmer als das andere, eine KI dümmer als die andere, eine Physikengine weniger existent als die andere und die sichtbaren Effekte versetzen mich mehr ins Gähnen als ins Staunen, wenn ich das 2007 (vor 5 Jahren!) für PC erschienene Crysis als Maßstab heranziehe.
    Für die nächste Konsolengeneration wird's allerhöchste Eisenbahn.

  1. 22. Mai 2013 um 19:23
  2. 21. Februar 2013 um 12:31

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: