Vai al contenuto

AMD Fidelity Super Blurrone


Emula

Messaggi raccomandati

 

Pessimo, come risultati visivi è più simile a un upscale nudo e crudo che a una tecnica di ricostruzione moderna, basta una semplice ricostruzione con TAA per dare risultati visivi nettamente migliori

 

screenshot.6soj2f.png

 

La temporal injection come risultati è anni luce avanti, spero Sony non userà mai sto coso

  • Like 1
Link al commento
Condividi su altri siti

Come dicevo anche il DLSS2 basa il suo funzionamento sul TAA, la base di partenza è quella, poi l'ordinamento dei campioni la fa con il Deep learning, non sono algoritmi alieni...😁

Anche il Temporal injection parte dal TAA ed il resto lo fa con algoritmi proprietari...AMD partendo dopo sta offrendo una tecnica open source a basso costo che chiaramente non offre prestazioni estremamente rilevanti.

  • Like 1
Link al commento
Condividi su altri siti

' date=' post: 158508, member: 183"']

Come dicevo anche il DLSS2 basa il suo funzionamento sul TAA, la base di partenza è quella, poi l'ordinamento dei campioni la fa con il Deep learning, non sono algoritmi alieni...😁

Anche il Temporal injection parte dal TAA ed il resto lo fa con algoritmi proprietari...AMD partendo dopo sta offrendo una tecnica open source a basso costo che chiaramente non offre prestazioni estremamente rilevanti.

Il Deep Learning è abbastanza alieno, io perdo decine di minuti a stimare modelli di reti neurali su problemi ben più banali (per esempio un problema banale è il riconoscimento di caratteri scritti a mano su immagini 28x28) con numerosità di campioni ben più banali (ovviamente uso la GPU, se usassi la CPU potrei aspettare giorni, altro che minuti... :asd:) . Non oso immaginare quello che fa la rete neurale di Nvidia ne la dimensione di campioni che usano. Credo che il tensor core quando usi il DLSS alla fine propaghino solo il risultato della rete già pre addestrata, questo è certamente banale. Ma l'apprendimento della rete non è per nulla banale, non si può fare in real time.

Link al commento
Condividi su altri siti

Il Deep Learning è abbastanza alieno, io perdo decine di minuti a stimare modelli di reti neurali su problemi ben più banali (per esempio un problema banale è il riconoscimento di caratteri scritti a mano su immagini 28x28) con numerosità di campioni ben più banali (ovviamente uso la GPU, se usassi la CPU potrei aspettare giorni, altro che minuti... :asd:) . Non oso immaginare quello che fa la rete neurale di Nvidia ne la dimensione di campioni che usano. Credo che il tensor core quando usi il DLSS alla fine propaghino solo il risultato della rete già pre addestrata, questo è certamente banale. Ma l'apprendimento della rete non è per nulla banale, non si può fare in real time.

 

Di alieno non c'è nulla, anzi paradossalmente è piuttosto "banale" nella sua linearità soprattutto quanto la rete neurale convoluzionale è fondamentalmente pre-addestrata mediante transfer learning, certamente quando vengono utilizzati grandi quantità di dati e reti complesse, avere "accelerazione hardware" porta vantaggi enormi.

NVidia è arrivata prima, merito a loro.

  • Like 2
Link al commento
Condividi su altri siti

' date=' post: 158548, member: 183"']

Di alieno non c'è nulla, anzi paradossalmente è piuttosto "banale" nella sua linearità soprattutto quanto la rete neurale convoluzionale è fondamentalmente pre-addestrata mediante transfer learning, certamente quando vengono utilizzati grandi quantità di dati e reti complesse, avere "accelerazione hardware" porta vantaggi enormi.

NVidia è arrivata prima, merito a loro.

Certo, proprio perché è pre addestrata, ma l'apprendimento non lo è, cosi come la definizione del modello, altrimenti AMD non ci avrebbe pensato due volte a replicarlo.

Link al commento
Condividi su altri siti

Ospite Utente cancellato 61

ragazzi ma vi ricordate le prime implementazioni del dlss? aveva quasi gli stessi problemi solo con il 2.0 hanno aggiustato il tiro

Anche questo è vero. Magari i prossimi aggiornamenti miglioreranno la situazione ma già un simil 4k con un guadagno in frame rate del 30% è una buona cosa. Naturalmente chi sperava di vedere titoli 4k nativi in sta gen e nelle prossime si metterà l'animo in pace e meglio così per noi che magari spingeranno su altro

Link al commento
Condividi su altri siti

E punta ad essere l'open world con grafica migliore di inizio gen...

...magari stiamo tirando le somme troppo presto?

Il fatto che sia open source può solo portare a vantaggi ed è indubbio che questo permetta personalizzazioni più o meno ampie unite al fatto di essere trasversale al hardware.

Vediamo come evolvono le cose.

Link al commento
Condividi su altri siti

 

Pessimo, come risultati visivi è più simile a un upscale nudo e crudo che a una tecnica di ricostruzione moderna, basta una semplice ricostruzione con TAA per dare risultati visivi nettamente migliori

 

screenshot.6soj2f.png

 

La temporal injection come risultati è anni luce avanti, spero Sony non userà mai sto coso

 

DF ha fatto un casino qui

Hanno lockato a 60fps misurando l'utilizzo della GPU per confrontare le tecniche. Se la GPU arriva al framerate lockato rallenta per scaldare e consumare di meno quindi l'utilizzo della GPU non serve nulla con framerate bloccato.

 

Un utente su reddit ha rifatto il test mettendo FSR ad Ultra Quality (da 2954x1662 a 4K) e ha ottenuto gli stessi FPS rispetto all' ultilizzo di TAAU da 1080 a 4k ottenendo una qualità di immagine paragonabile.

 

Ricordiamo che l'obiettivo è ottenere performance migliori senza intaccare la qualità di immagine, usare l'impostazioni performance di FSR serve giusto se a setting minimi l'alternativa è usare lo scale del monitor per ottenere framerate giocabili.

 

Voglio dire che ok si può riuscire a scalare meglio l'immagine, ma l'importante è quanto ci metti a farlo perché se ci metti tanto quando renderizzare direttamente a res più alta allora non serve a nulla.

Link al commento
Condividi su altri siti

Partecipa alla conversazione

Puoi pubblicare ora e registrarti più tardi. Se hai un account, accedi ora per pubblicarlo con il tuo account.

Ospite
Rispondi a questa discussione...

×   Hai incollato il contenuto con la formattazione.   Rimuovere la formattazione

  Sono consentiti solo 75 emoticon max.

×   Il tuo collegamento è stato incorporato automaticamente.   Mostra come un collegamento

×   Il tuo contenuto precedente è stato ripristinato.   Pulisci editor

×   Non puoi incollare le immagini direttamente. Carica o inserisci immagini dall'URL.

×
×
  • Crea Nuovo...