Vai al contenuto

[DF] Exclusive - Metro Exodus Enhanced Edition: Xbox Series X|S DF Tech Review


Messaggi raccomandati

 

 

Ho fatto bene a tenerlo buono sulla console.

 

Metro Exodus Enhanced Edition sees 4A Games revamp their brilliant engine to fully support ray tracing from the ground up, with a stunning real-time global illumination implementation. As well as transitioning the game to RT, 4A also doubles frame-rate - 30fps on Xbox One X becomes 60fps on Xbox Series X. For the complete lowdown on the game, plus Series S analysis, look no further.

 

00:00:00 Introduction

00:01:38 Xbox One X vs. Xbox Series X

  • Ray Traced Sun Bounce Lighting 00:04:34 Xbox One X vs. Xbox Series X
  • Ray Traced Sky Lighting 00:07:30 Xbox One X vs. Xbox Series X
  • Ray Traced Colour Bounce 00:09:23 Xbox One X vs. Xbox Series X
  • Ray Traced Emissive Lighting 00:11:44 Xbox One X vs. Xbox Series X
  • Improved Screen-Space Reflections 00:13:44 Xbox One X vs. Xbox Series X
  • Improved Performance & Loading 00:15:08 PC vs. Xbox Series X
  • Settings and Optimisations 00:20:29 Xbox Series S Analysis 00:24:02 Xbox Series S & X Performance Analysis 00:26:34

Conclusion

Link al commento
Condividi su altri siti

Pardon non ho avuto modo di informarmi, sono parecchio indaffarato ultimamente. Sarebbe l'upscaling tramite reti neurali pre-addestrate di AMD? (tipo il DLSS va). E' già arrivato su console?

Si, lo supporta anche la versione pc, ma non fa miracoli. P.s. niente reti neurali... funziona pure sulle radeon rx 400 e nvidia gtx 900

  • Like 1
Link al commento
Condividi su altri siti

Serie S ottima console i 512p si vedono benissimo, se a PS5 invece manca 1 pixel per i 4k è subito carretta

[automerge]1623879267[/automerge]

Ah capito, mi informerò meglio, grazie. Peccato comunque, qualcosa tipo il DLSS sarebbe la svolta definitiva.

La temporal injection di insomniac come risultati è la cosa più vicina al dlss che esista

Modificato da Emula
Link al commento
Condividi su altri siti

Serie S ottima console i 512p si vedono benissimo, se a PS5 invece manca 1 pixel per i 4k è subito carretta

[automerge]1623879267[/automerge]

 

La temporal injection di insomniac come risultati è la cosa più vicina al dlss che esista

Maxato gira a 27 frame in 4k su una 6900xt. :botteaSirio: Diciamo che il RT di Amd fa cagare in quanto a prestazioni.

  • Like 2
Link al commento
Condividi su altri siti

Serie S ottima console i 512p si vedono benissimo, se a PS5 invece manca 1 pixel per i 4k è subito carretta

[automerge]1623879267[/automerge]

 

La temporal injection di insomniac come risultati è la cosa più vicina al dlss che esista

Si ma non credo possa essere al livello del DLSS se non sfrutta la reti neurali. I modelli di reti neurali girano proprio sulle gpu perché sono pesantissimi, infatti, ad esempio, le varie librerie di Deep Learning come TensorFlow su Python permettono di sfruttare la gpu. Ma la parte pesante è la parte di addestramento (stima dei parametri delle rete), quando l'addestramento l'hai fatto il peso computazionale è infinitamente più basso, si tratta di prendere un input e propagarlo fino ad avere l'output (quindi sono conti matriciali, moltiplicazioni ecc.). Qualsiasi tecnica di ricostruzione non può competere con una rete neurale secondo me, perché queste reti sono addestrate su milioni di esempi, per cui sanno già cosa infilare nell'immagine finale per avere il risultato sperato. Nel caso del DLSS la rete è pre-addestrata, quindi i parametri della rete sono già stati stimati, semplicemente gli arriva un input e da l'output, non è un caso che il DLSS abbia un costo computazionale minimo. Il fatto è sembra ci voglia hardware specializzato per farlo girare, quello che mi chiedo è se le console abbiamo un hardware che permetterà di adottare soluzione simili in futuro.

Link al commento
Condividi su altri siti

Si ma non credo possa essere al livello del DLSS se non sfrutta la reti neurali. I modelli di reti neurali girano proprio sulle gpu perché sono pesantissimi, infatti, ad esempio, le varie librerie di Deep Learning come TensorFlow su Python permettono di sfruttare la gpu. Ma la parte pesante è la parte di addestramento (stima dei parametri delle rete), quando l'addestramento l'hai fatto il peso computazionale è infinitamente più basso, si tratta di prendere un input e propagarlo fino ad avere l'output (quindi sono conti matriciali, moltiplicazioni ecc.). Qualsiasi tecnica di ricostruzione non può competere con una rete neurale secondo me, perché queste reti sono addestrate su milioni di esempi, per cui sanno già cosa infilare nell'immagine finale per avere il risultato sperato. Nel caso del DLSS la rete è pre-addestrata, quindi i parametri della rete sono già stati stimati, semplicemente gli arriva un input e da l'output, non è un caso che il DLSS abbia un costo computazionale minimo. Il fatto è sembra ci voglia hardware specializzato per farlo girare, quello che mi chiedo è se le console abbiamo un hardware che permetterà di adottare soluzione simili in futuro.

Infatti ho detto che come risultati è la cosa che più si avvicina al momento, non che la tecnologia è la stessa e che i risultati sono identici

Link al commento
Condividi su altri siti

Da profano non ho capito cosa cambia dal supersampling me lo spieghi pls? e poi che vuol dire che scende a 512 p?

 

Che la risoluzione di rendering scende a quel valore su SeS e poi viene ricostruita/upscalata. Il valore è decisamente troppo basso, neanche il dlss riuscirebbe a restituire un'immagine pulita partendo da quel punto.

 

Si ma non credo possa essere al livello del DLSS se non sfrutta la reti neurali. I modelli di reti neurali girano proprio sulle gpu perché sono pesantissimi, infatti, ad esempio, le varie librerie di Deep Learning come TensorFlow su Python permettono di sfruttare la gpu. Ma la parte pesante è la parte di addestramento (stima dei parametri delle rete), quando l'addestramento l'hai fatto il peso computazionale è infinitamente più basso, si tratta di prendere un input e propagarlo fino ad avere l'output (quindi sono conti matriciali, moltiplicazioni ecc.). Qualsiasi tecnica di ricostruzione non può competere con una rete neurale secondo me, perché queste reti sono addestrate su milioni di esempi, per cui sanno già cosa infilare nell'immagine finale per avere il risultato sperato. Nel caso del DLSS la rete è pre-addestrata, quindi i parametri della rete sono già stati stimati, semplicemente gli arriva un input e da l'output, non è un caso che il DLSS abbia un costo computazionale minimo. Il fatto è sembra ci voglia hardware specializzato per farlo girare, quello che mi chiedo è se le console abbiamo un hardware che permetterà di adottare soluzione simili in futuro.

 

A livello di percezione, credo che la probabilità che il giocatore medio riesca a distinguere tra le due tecniche partendo da una risoluzione adeguata sia prossima allo zero, soprattutto se si gioca con un buon tv che fa la sua parte in fase di upscaling.

  • Like 2
Link al commento
Condividi su altri siti

Da profano non ho capito cosa cambia dal supersampling me lo spieghi pls? e poi che vuol dire che scende a 512 p?

DLSS sta per Deep Learning Super Sampling. E' un supersampling che usa delle unità specifiche delle gpu Touring e Ampere per alleggerire il carico computazionale e aumentarne la qualità visiva.

  • Like 1
Link al commento
Condividi su altri siti

A livello di percezione, credo che la probabilità che il giocatore medio riesca a distinguere tra le due tecniche partendo da una risoluzione adeguata sia prossima allo zero, soprattutto se si gioca con un buon tv che fa la sua parte in fase di upscaling.

Ma forse perché si parte da risoluzioni già alte. Io ho visto casi in cui con DLSS anche un 360p era quasi paragonabile a un 720p nativo. Se prendessimo come riferimento, chessò, i titoli Switch, ad esempio DOOM, non credo ce la tecnica di Insommniac potrebbe mai competere, mentre usare il DLSS lo farebbe apparire come un gioco a 900p o meglio.

Infatti ho detto che come risultati è la cosa che più si avvicina al momento, non che la tecnologia è la stessa e che i risultati sono identici

Si si avevo capito che intendevi. Semplicemente volevo sottolineare che per quanto si possa avvicinare resterà comunque dietro di anni luce. Cioè un semplice algoritmo di ricostruzione temporale per quanto sofisticato non può minimamente avvicinarsi, cioè può andarci più vicino di altre tecniche ma considera che l'apprendimento della rete neurale che alimenta il DLSS verrà fatta probabilmente su centinaia di migliaia di immagini (se non di più). Per rendere l'idea, esiste una rete neurale sviluppata da nvidia (mi pare si chiami StyleGAN) che genera volti sintentici di persone che non esistono, questa rete viene fatta apprendere su milioni di immagini, si parla di tempi di calcolo biblici e sono calcoli eseguiti da GPU potentissime.

Modificato da Survived Snake
  • Like 1
Link al commento
Condividi su altri siti

Che la risoluzione di rendering scende a quel valore su SeS e poi viene ricostruita/upscalata. Il valore è decisamente troppo basso, neanche il dlss riuscirebbe a restituire un'immagine pulita partendo da quel punto.

 

 

 

A livello di percezione, credo che la probabilità che il giocatore medio riesca a distinguere tra le due tecniche partendo da una risoluzione adeguata sia prossima allo zero, soprattutto se si gioca con un buon tv che fa la sua parte in fase di upscaling.

DLSS sta per Deep Learning Super Sampling. E' un supersampling che usa delle unità specifiche delle gpu Touring e Ampere per alleggerire il carico computazionale e aumentarne la qualità visiva.

Ho capito morale della fiera come si vede su series s ? Una schifezza o rimane comunque un bel vedere?

 

Dai gameplay non sembra terribile ma non capisco perchè scrivono 2k 60fps

Link al commento
Condividi su altri siti

Si ma non credo possa essere al livello del DLSS se non sfrutta la reti neurali. I modelli di reti neurali girano proprio sulle gpu perché sono pesantissimi, infatti, ad esempio, le varie librerie di Deep Learning come TensorFlow su Python permettono di sfruttare la gpu. Ma la parte pesante è la parte di addestramento (stima dei parametri delle rete), quando l'addestramento l'hai fatto il peso computazionale è infinitamente più basso, si tratta di prendere un input e propagarlo fino ad avere l'output (quindi sono conti matriciali, moltiplicazioni ecc.). Qualsiasi tecnica di ricostruzione non può competere con una rete neurale secondo me, perché queste reti sono addestrate su milioni di esempi, per cui sanno già cosa infilare nell'immagine finale per avere il risultato sperato. Nel caso del DLSS la rete è pre-addestrata, quindi i parametri della rete sono già stati stimati, semplicemente gli arriva un input e da l'output, non è un caso che il DLSS abbia un costo computazionale minimo. Il fatto è sembra ci voglia hardware specializzato per farlo girare, quello che mi chiedo è se le console abbiamo un hardware che permetterà di adottare soluzione simili in futuro.

 

Il DLSS2.0 basa il suo funzionamento sul framework del Temporal Anti-Aliasing e poi applica il deep learning per risolve il problema della cronologia dei campioni.

Semplificando molto, il TAA funziona convertendo la media spaziale del sovracampionamento(più campioni per pixel per calcolarne la media) in una media temporale.

Questa tecnica produce ottimi risultati paragonabili al MSAA ad un costo molto infeiore, il TAA utilizza solo 1 campione per pixel con offset differente, ma funziona perfettamente solo con immagini statiche. Quando si hanno oggetti in movimento chiarmante il rischio è che i vecchi campioni perdano di significato producendo, se utilizzati, problemi all'illuminazione, di ghosting attorno agli oggetti, ecc.. E qui interviene il Deep learning per capire la differenza tra un oggetto in movimento, uno spigolo vivo o un'illuminazione che cambia fornendo così quell'ordinamento della cronologia dei campioni di pixel che consente di ottenere risultati notevoli, con la tendenza però di generare immagini decisamente "razor", pure troppo, con un po' di aretfatti attorno ai bordi "netti".

Il Temporal Injection funziona in modo MOLTO simile solo che usa algoritmi proprietari per limitare i problemi creati dal TAA, con risultati anche qui decisamente validi.

  • Like 1
Link al commento
Condividi su altri siti

' date=' post: 157346, member: 183"']

Il DLSS2.0 basa il suo funzionamento sul framework del Temporal Anti-Aliasing e poi applica il deep learning per risolve il problema della cronologia dei campioni.

Semplificando molto, il TAA funziona convertendo la media spaziale del sovracampionamento(più campioni per pixel per calcolarne la media) in una media temporale.

Questa tecnica produce ottimi risultati paragonabili al MSAA ad un costo molto infeiore, il TAA utilizza solo 1 campione per pixel con offset differente, ma funziona perfettamente solo con immagini statiche. Quando si hanno oggetti in movimento chiarmante il rischio è che i vecchi campioni perdano di significato producendo, se utilizzati, problemi all'illuminazione, di ghosting attorno agli oggetti, ecc.. E qui interviene il Deep learning per capire la differenza tra un oggetto in movimento, uno spigolo vivo o un'illuminazione che cambia fornendo così quell'ordinamento della cronologia dei campioni di pixel che consente di ottenere risultati notevoli, con la tendenza però di generare immagini decisamente "razor", pure troppo, con un po' di aretfatti attorno ai bordi "netti".

Il Temporal Injection funziona in modo MOLTO simile solo che usa algoritmi proprietari per limitare i problemi creati dal TAA, con risultati anche qui decisamente validi.

 

Interessantissimo, grazie per la spiegazione :)

' date=' post: 157350, member: 183"']

Dimenticavo, mi ci gioco il ban che la prossima console Nintendo baserà il suo hardware sul DLSS.....rendering a1080P risultati da 4K....

Si questo lo penso anche io.

Link al commento
Condividi su altri siti

Partecipa alla conversazione

Puoi pubblicare ora e registrarti più tardi. Se hai un account, accedi ora per pubblicarlo con il tuo account.

Ospite
Rispondi a questa discussione...

×   Hai incollato il contenuto con la formattazione.   Rimuovere la formattazione

  Sono consentiti solo 75 emoticon max.

×   Il tuo collegamento è stato incorporato automaticamente.   Mostra come un collegamento

×   Il tuo contenuto precedente è stato ripristinato.   Pulisci editor

×   Non puoi incollare le immagini direttamente. Carica o inserisci immagini dall'URL.

×
×
  • Crea Nuovo...