Vai al contenuto

[Evento] Presentazione Nvidia Geforce RTX serie 3000


Cosmoxello giallorosso

Messaggi raccomandati

Oggi alle 18.00 Nvidia presenterà ufficialmente le nuove Geforce RTX serie 3000

 

 

Gainward e altri produttori hanno già anticipato quelle che dovrebbero essere le specs ufficiali e le sigle delle varie gpu:

 

 

 

 

 

[TABLE]

[TR]

[TH]Nvidia Geforce RTX serie 3000 [/TH]

[TH]3080 Phoenix[/TH]

[TH]3080 Phoenix G[/TH]

[TH]3090 Phoenix[/TH]

[TH]3090 Phoenix GS[/TH]

[/TR]

[TR]

[TD]CUDA Core[/TD]

[TD]4352 Cores[/TD]

[TD]4352 Cores[/TD]

[TD]5248 Cores[/TD]

[TD]5248 Cores[/TD]

[/TR]

[TR]

[TD]Boost Clock[/TD]

[TD]1710 MHz[/TD]

[TD]1740 MHz[/TD]

[TD]1695 MHz[/TD]

[TD]1725 MHz[/TD]

[/TR]

[TR]

[TD]Memoria[/TD]

[TD]10 GB GDDR6X[/TD]

[TD]10 GB GDDR6X[/TD]

[TD]24 GB GDDR6X[/TD]

[TD]24 GB GDDR6X[/TD]

[/TR]

[TR]

[TD]Interfaccia delle memorie[/TD]

[TD]320 Bits[/TD]

[TD]320 Bits[/TD]

[TD]384 Bits[/TD]

[TD]384 Bits[/TD]

[/TR]

[TR]

[TD]Clock delle memorie[/TD]

[TD]9500Mhz (19Gbps)[/TD]

[TD]9500Mhz (19Gbps)[/TD]

[TD]9750Mhz (19.5Gbps)[/TD]

[TD]9750Mhz (19.5Gbps)[/TD]

[/TR]

[TR]

[TD]Banda delle memorie[/TD]

[TD]760 GB/s[/TD]

[TD]760 GB/s[/TD]

[TD]936 GB/s[/TD]

[TD]936 GB/s[/TD]

[/TR]

[/TABLE]

 

 

gainward-nvidia-ampere-111112.jpg

 

 

 

 

 

 

La vera next gen, a questo giro si dovrebbe avere uno stacco netto in termini di prestazioni rispetto a quanto visto passando da serie GTX 1000 a RTX 2000.

 

Da possessore di una 2080 però mi rode un pò che dopo manco un anno la mia scheda sia praticamente "da rottamare" in confronto a queste. Ormai non gli si sta più appresso alle GPU... Comunque sia è un evento da seguire.

Modificato da Cosmoxello giallorosso
Link al commento
Condividi su altri siti

Hanno leakato un benchmark e sembra che la 3090 vada il doppio della 2080Ti... Chissà quanto costa

 

 

Mamma mia... Pensa a chi ha speso 1400 euro per la 2080 ti pochi mesi fa e ora vede una roba simile. Vergognoso da parte di Nvidia, dovrebbe quantomeno fornire uno sconto per chi ha acquistato le 2000 in questi mesi. Cioè si parla di schede uscite solo 1 anno fa che son costate un occhio della testa e ora dopo manco 1 anno vengono già "ridicolizzate".

 

Vada per l'obsolescenza programmata ma si sta superando ogni limite di decenza verso il consumatore.

Link al commento
Condividi su altri siti

  • Amministratore

Mamma mia... Pensa a chi ha speso 1400 euro per la 2080 ti pochi mesi fa e ora vede una roba simile. Vergognoso da parte di Nvidia, dovrebbe quantomeno fornire uno sconto per chi ha acquistato le 2000 in questi mesi. Cioè si parla di schede uscite solo 1 anno fa che son costate un occhio della testa e ora dopo manco 1 anno vengono già "ridicolizzate".

 

Vada per l'obsolescenza programmata ma si sta superando ogni limite di decenza verso il consumatore.

 

Sarebbe bello se prevedessero un sistema di rottamazione come fanno per gli smartphone, ma la vedo difficile.

Comunque siamo arrivati a cifre folli IMHO.

Link al commento
Condividi su altri siti

  • Amministratore

Sono tutte e 3 delle belle bestie.... anche i prezzi in $ mi sembrano abbastanza buoni

Io oserei dire anche che sono ottimi, arrivati a questo punto.

 

"Se" tutto va bene con la 3080 ci si tira tutta la gen in 4K 60fps con raytracing attivo.

Quindi ci si dovrebbero fare 4/5 anni buoni almeno.

Link al commento
Condividi su altri siti

Ospite Ste_84

Sono tutte e 3 delle belle bestie.... anche i prezzi in $ mi sembrano abbastanza buoni

Prezzi ottimi, Snake, altro che I rumor: con 759 ti porti a casa la 3070 e costa meno della 2080ti (va uguale)

Io prendo la 3080 a 899

[automerge]1598980615[/automerge]

Io oserei dire anche che sono ottimi, arrivati a questo punto.

 

"Se" tutto va bene con la 3080 ci si tira tutta la gen in 4K 60fps con raytracing attivo.

Quindi ci si dovrebbero fare 4/5 anni buoni almeno.

Si, anche la 3070 (o 2080ti) solo con meno frame.

Alla fine tutti a dire prezzi folli, ma invece così tentano di vendere.

Lasciamo perdere la 3090 folle, sia come specifiche, sia come prezzo, ma vabbè qualche pazzo la comprerà

Non ci sarà la serie ti in questa gen, questo va bene

Link al commento
Condividi su altri siti

Ospite Ste_84

Mamma mia... Pensa a chi ha speso 1400 euro per la 2080 ti pochi mesi fa e ora vede una roba simile. Vergognoso da parte di Nvidia, dovrebbe quantomeno fornire uno sconto per chi ha acquistato le 2000 in questi mesi. Cioè si parla di schede uscite solo 1 anno fa che son costate un occhio della testa e ora dopo manco 1 anno vengono già "ridicolizzate".

 

Vada per l'obsolescenza programmata ma si sta superando ogni limite di decenza verso il consumatore.

Ma alla fine, purtroppo, è così

Forse sono le 2000 over prezzate, per non ripetere la stessa cazzata non hanno aumentato le nuove.

Spiace per chi ha preso una 2080ti a prezzi folli, poi si ritrova una 3070 a meno della metà e con prestazioni identiche

Nvidia ha imparato dagli errori della scorsa gen, quel prezzo non era fattibile e le schede sono rimaste invendute

Link al commento
Condividi su altri siti

Comunque i leak sulle specifiche di gainward non erano veritieri, le specifiche ufficiali sono MOLTO più mostruose dei rumors:

 

 

La GeForce RTX 3090 sarà la nuova top di gamma e, come trapelato negli scorsi giorni, sarà equipaggiata con 10.496 CUDA core, accompagnato da ben 24GB di GDDR6X collegati su un bus a 384 bit, fornendo una larghezza di banda teorica massima di 936GB/s. Il boost clock è pari a 1,70GHz, il che si traduce in 35,7TFLOP di potenza. La RTX 3090 è la naturale estensione della serie Titan, diventata estremamente popolare tra i videogiocatori e creatori di contenuti ed ha dimensioni decisamente generose. Il chip è costituito da 28 miliardi di transistor, prodotto sul nodo a 8nm di Samsung ed offre il doppio delle performance con una maggiore efficienza energetica rispetto a Turing. Nello specifico si parla di 36 shader TFLOPS, 69 RT TFlops e 285 Tensor TFLOPS. La scheda sarà disponibile a partire dal prossimo 24 settembre a 1.499$ (1.549€ in Italia) ed è stata pensata per giocare in 8K sfruttando la tecnologia DLSS 2.0.

 

 

la GeForce RTX 3080, che offrirà 8704 CUDA core e 10GB di memoria GDDR6X con bus a 320 bit, per una larghezza di banda teorica massima di 760GB/s grazie alla velocità di 19Gb/s. Nvidia ha confermato che la scheda avrà un boost clock di 1,71GHz, il che si traduce in 29,7TFLOPS in FP32. Per quanto riguarda l’ambito Ray Tracing si parla di 30 shader TFLOPS, 58 RT TFlops e 238 Tensor TFLOPS. La scheda sarà disponibile a partire dal prossimo 17 settembre a 699$ (719€ in Italia).

 

 

 

Infine, abbiamo la RTX 3070, che offrirà 5.888 CUDA core e 8GB di memoria GDDR6 con bus a 256 bit, per una larghezza di banda teorica massima di 512GB/s. Dato il boost clock di 1.73Ghz, questo modello offrirà sino a 20,4TFLOP di performance in FP32. La scheda sarà dotata di 20 Shader TFLOPS, 40 RT-TFLOPS e 163 Tensor-TFLOPS e sarà disponibile al prezzo di 499$ (519€ in Italia) a partire da ottobre.

 

 

 

 

 

Da notare come una "entry level" 3070 sia più veloce di una RTX 2080 TI.

 

 

 

 

 

 

 

Mio dio che ca**o ci faccio ora con la 2080 che nei nuovi giochi next gen per PC mi andrà di me**a? M'hanno reso sta scheda il mio peggior acquisto di sempre nel rapporto tempo/svalutazione (anche se a livello di giochi al momento gioco a praticamente tutto ciò che mi interessa al max).

Non farò mai più da cavia al lancio di una "nuova tecnologia", stavolta ho imparato la lezione :(

 

 

 

ps: queste schede rendono le console "next gen" davvero "old" a confronto. Quando su console qualcuno si lustrerà gli occhi per qualche effetto di ray tracing a 30 fps fissi, su PC si vedrà il 4k + DLSS >60 fps con dettagli ultra e ray tracing pesante a palla che diventerà uno standard come lo sono diventati gli shaders.

Modificato da Cosmoxello giallorosso
Link al commento
Condividi su altri siti

La 3070 mi garba... dovrei prendere anche un alimentatore, 650w basteranno secondo voi?

Mio dio che ca**o ci faccio ora con la 2080 che nei nuovi giochi next gen per PC mi andrà di me**a? M'hanno reso sta scheda il mio peggior acquisto di sempre nel rapporto tempo/svalutazione (anche se a livello di giochi al momento gioco a praticamente tutto ciò che mi interessa al max).

Non farò mai più da cavia al lancio di una "nuova tecnologia", stavolta ho imparato la lezione :(

 

 

 

ps: queste schede rendono le console "next gen" davvero "old" a confronto. Quando su console qualcuno si lustrerà gli occhi per qualche effetto di ray tracing a 30 fps fissi, su PC si vedrà il 4k + DLSS >60 fps con dettagli ultra e ray tracing pesante a palla che diventerà uno standard come lo sono diventati gli shaders.

 

Sono contento di aver resistito, la gen 20xx mi è sempre sembrata rischiosa... però comunque una 2080 dovresti riuscire a piazzarla bene :sisi:

Link al commento
Condividi su altri siti

Ospite Ste_84

La 3070 mi garba... dovrei prendere anche un alimentatore, 650w basteranno secondo voi?

 

 

Sono contento di aver resistito, la gen 20xx mi è sempre sembrata rischiosa... però comunque una 2080 dovresti riuscire a piazzarla bene :sisi:

Bastano e avanzano, ma conta l'amperaggio sulla line da 12 V (quella che alimenta la pci)

Link al commento
Condividi su altri siti

Ospite Ste_84

Comunque i leak sulle specifiche di gainward non erano veritieri, le specifiche ufficiali sono MOLTO più mostruose dei rumors:

 

 

La GeForce RTX 3090 sarà la nuova top di gamma e, come trapelato negli scorsi giorni, sarà equipaggiata con 10.496 CUDA core, accompagnato da ben 24GB di GDDR6X collegati su un bus a 384 bit, fornendo una larghezza di banda teorica massima di 936GB/s. Il boost clock è pari a 1,70GHz, il che si traduce in 35,7TFLOP di potenza. La RTX 3090 è la naturale estensione della serie Titan, diventata estremamente popolare tra i videogiocatori e creatori di contenuti ed ha dimensioni decisamente generose. Il chip è costituito da 28 miliardi di transistor, prodotto sul nodo a 8nm di Samsung ed offre il doppio delle performance con una maggiore efficienza energetica rispetto a Turing. Nello specifico si parla di 36 shader TFLOPS, 69 RT TFlops e 285 Tensor TFLOPS. La scheda sarà disponibile a partire dal prossimo 24 settembre a 1.499$ (1.549€ in Italia) ed è stata pensata per giocare in 8K sfruttando la tecnologia DLSS 2.0.

 

 

la GeForce RTX 3080, che offrirà 8704 CUDA core e 10GB di memoria GDDR6X con bus a 320 bit, per una larghezza di banda teorica massima di 760GB/s grazie alla velocità di 19Gb/s. Nvidia ha confermato che la scheda avrà un boost clock di 1,71GHz, il che si traduce in 29,7TFLOPS in FP32. Per quanto riguarda l’ambito Ray Tracing si parla di 30 shader TFLOPS, 58 RT TFlops e 238 Tensor TFLOPS. La scheda sarà disponibile a partire dal prossimo 17 settembre a 699$ (719€ in Italia).

 

 

 

Infine, abbiamo la RTX 3070, che offrirà 5.888 CUDA core e 8GB di memoria GDDR6 con bus a 256 bit, per una larghezza di banda teorica massima di 512GB/s. Dato il boost clock di 1.73Ghz, questo modello offrirà sino a 20,4TFLOP di performance in FP32. La scheda sarà dotata di 20 Shader TFLOPS, 40 RT-TFLOPS e 163 Tensor-TFLOPS e sarà disponibile al prezzo di 499$ (519€ in Italia) a partire da ottobre.

 

 

 

 

 

Da notare come una "entry level" 3070 sia più veloce di una RTX 2080 TI.

 

 

 

 

 

 

 

Mio dio che ca**o ci faccio ora con la 2080 che nei nuovi giochi next gen per PC mi andrà di me**a? M'hanno reso sta scheda il mio peggior acquisto di sempre nel rapporto tempo/svalutazione (anche se a livello di giochi al momento gioco a praticamente tutto ciò che mi interessa al max).

Non farò mai più da cavia al lancio di una "nuova tecnologia", stavolta ho imparato la lezione :(

 

 

 

ps: queste schede rendono le console "next gen" davvero "old" a confronto. Quando su console qualcuno si lustrerà gli occhi per qualche effetto di ray tracing a 30 fps fissi, su PC si vedrà il 4k + DLSS >60 fps con dettagli ultra e ray tracing pesante a palla che diventerà uno standard come lo sono diventati gli shaders.

Ma non è vero, dai.

Intanto in termini pratici, come ha detto Arthur Fonzarelli Chan nella presentazione, la 3070 non è altro che un leggero rialzo della 2080 ti (non va tanto di più, leggi bene i dati, è superiore di un 15% che in termini di fotogrammi al secondo e computing sono praticamente niente, però è superiore) e quindi con la tua ti vai alla grande.

Dovevi fare come ha fatto la stra grande maggioranza di noi: non alla prima con Rt, ma sempre aspettare i same (che in questo caso non lo sono) per avere un qualcosa di più collaudato e soprattutto ad un prezzo sicuramente più conveniente.

Nvidia ha sbagliato a mettere quelle schede a quel prezzo, infatti con la 30 non hanno ripetuto l'errore.

Adesso non è che le 20 siano da buttare nel cesso, fanno benissimo il loro lavoro e la 2080 ti è sempre la scheda di riferimento e lo sarà ancora nonostante la 3090 (che comunque è di un altro pianeta, non è manco troppo gaming a dirla tutta), ma soprattutto con la 3080.

Tienila, mica devi pentirtene, hai una scheda che è già superiore alle attuali apu console e quindi giocherai benissimo ugualmente.

L'unica cosa di cui dovresti rammaricarti è il prezzo, hai pagato troppo una scheda che sarebbe potuta costare almeno 400 € in meno.

Questo è l'unico rammarico, ma dire che va di merda... Insomma, è ancora la scheda con cui nvidia ha fatto i paragoni sulle nuove (quelle umane intendo)

Link al commento
Condividi su altri siti

  • Amministratore

Ma non è vero, dai.

Intanto in termini pratici, come ha detto Arthur Fonzarelli Chan nella presentazione, la 3070 non è altro che un leggero rialzo della 2080 ti (non va tanto di più, leggi bene i dati, è superiore di un 15% che in termini di fotogrammi al secondo e computing sono praticamente niente, però è superiore) e quindi con la tua ti vai alla grande.

Dovevi fare come ha fatto la stra grande maggioranza di noi: non alla prima con Rt, ma sempre aspettare i same (che in questo caso non lo sono) per avere un qualcosa di più collaudato e soprattutto ad un prezzo sicuramente più conveniente.

Nvidia ha sbagliato a mettere quelle schede a quel prezzo, infatti con la 30 non hanno ripetuto l'errore.

Adesso non è che le 20 siano da buttare nel cesso, fanno benissimo il loro lavoro e la 2080 ti è sempre la scheda di riferimento e lo sarà ancora nonostante la 3090 (che comunque è di un altro pianeta, non è manco troppo gaming a dirla tutta), ma soprattutto con la 3080.

Tienila, mica devi pentirtene, hai una scheda che è già superiore alle attuali apu console e quindi giocherai benissimo ugualmente.

L'unica cosa di cui dovresti rammaricarti è il prezzo, hai pagato troppo una scheda che sarebbe potuta costare almeno 400 € in meno.

Questo è l'unico rammarico, ma dire che va di merda... Insomma, è ancora la scheda con cui nvidia ha fatto i paragoni sulle nuove (quelle umane intendo)

Bisogna solo vedere se lato raytracing non perdono un botto rispetto alla nuova serie 30, però sì! Chi se ne frega alla fine... no...?

 

 

 

 

 

 

 

 

 

:sagace:

 

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Comunque la 3090 non è una gpu propriamente da gaming eh, l'hanno presentata alla stregua di una titan che è una gpu a cavallo tra l'uso gaming e quello professionale anche perché con 24GB di Vram se non ci fai rendering 3d o montaggi pesanti a res esagerate, la puoi anche buttare nel cesso da quanta ti avanza.

In ottica gaming è stata predisposta per l'8k + RT ed è grossa un ettaro, cioè di che stiamo parlando?

Le gpu normali, se mi passate il termine, sono la 3070 e la 3080, fine.

Link al commento
Condividi su altri siti

Ospite Ste_84

Bisogna solo vedere se lato raytracing non perdono un botto rispetto alla nuova serie 30, però sì! Chi se ne frega alla fine... no...?

 

 

 

 

 

 

 

 

 

:sagace:

 

Nah, non perderà più di tanto (parlo solo della 2080Ti)

Le altre non saprei effettivamente :asd:

[automerge]1599001992[/automerge]

Comunque la 3090 non è una gpu propriamente da gaming eh, l'hanno presentata alla stregua di una titan che è una gpu a cavallo tra l'uso gaming e quello professionale anche perché con 24GB di Vram se non ci fai rendering 3d o montaggi pesanti a res esagerate, la puoi anche buttare nel cesso da quanta ti avanza.

In ottica gaming è stata predisposta per l'8k + RT ed è grossa un ettaro, cioè di che stiamo parlando?

Le gpu normali, se mi passate il termine, sono la 3070 e la 3080, fine.

Come ho detto io, quella non è game puro ed è molto più produttiva che non per il gioco.

È una ibrida tra una quadro ed una game

Link al commento
Condividi su altri siti

Comunque la 3090 non è una gpu propriamente da gaming eh, l'hanno presentata alla stregua di una titan che è una gpu a cavallo tra l'uso gaming e quello professionale anche perché con 24GB di Vram se non ci fai rendering 3d o montaggi pesanti a res esagerate, la puoi anche buttare nel cesso da quanta ti avanza.

In ottica gaming è stata predisposta per l'8k + RT ed è grossa un ettaro, cioè di che stiamo parlando?

Le gpu normali, se mi passate il termine, sono la 3070 e la 3080, fine.

 

 

Non è considerata da gaming per le caratteristiche veramente overpawah e il prezzo altino ma per chi ha disponibilità a spendere quella cifra altrochè se non è da gaming...Con una scheda simile e una cpu moderna hai un PC da gaming coi fiocchi per i prossimi 6 anni almeno. Immagina Flight Simulator 20 su quella scheda che cosa dev'essere... 10496 unità Cuda per i calcoli, mamma mao...

 

 

 

 

 

 

Comunque ho fatto una riflessione sul mio PC e ho concluso che la 2080 è il massimo che ha senso avere nel mio caso, oltre non potrei sfruttare considerata la cpu e la scheda madre custom di asus che monto (se non sbaglio le nuove schede hanno pure la compatibilità col nuovo PCI Express 4.0, metterle su una scheda madre che ha il 3.0 sarebbe un ulteriore collo di bottiglia)

 

 

 

Quando fra qualche anno cambierò PC in toto allora penserò ad aggiornare anche la GPU. Ieri intanto ho fatto i primi test di overclock a manetta per massimizzare la mia 2080 e ho raggiunto un discreto +100mhz gpu e + 564 mhz le memorie. Non male specie le memorie.

Modificato da Cosmoxello giallorosso
Link al commento
Condividi su altri siti

Ospite Utente cancellato 90
Per me serebbe uno spreco di soldi, potrei capire di più chi punta all'8k, al VR enthusiast o al triplo schermo nel caso dei simulatori ma sono robe molto più di nicchia.
Link al commento
Condividi su altri siti

Ospite Ste_84

Non è considerata da gaming per le caratteristiche veramente overpawah e il prezzo altino ma per chi ha disponibilità a spendere quella cifra altrochè se non è da gaming...Con una scheda simile e una cpu moderna hai un PC da gaming coi fiocchi per i prossimi 6 anni almeno. Immagina Flight Simulator 20 su quella scheda che cosa dev'essere... 10496 unità Cuda per i calcoli, mamma mao...

 

 

 

 

 

 

Comunque ho fatto una riflessione sul mio PC e ho concluso che la 2080 è il massimo che ha senso avere nel mio caso, oltre non potrei sfruttare considerata la cpu e la scheda madre custom di asus che monto (se non sbaglio le nuove schede hanno pure la compatibilità col nuovo PCI Express 4.0, metterle su una scheda madre che ha il 3.0 sarebbe un ulteriore collo di bottiglia)

 

 

 

Quando fra qualche anno cambierò PC in toto allora penserò ad aggiornare anche la GPU. Ieri intanto ho fatto i primi test di overclock a manetta per massimizzare la mia 2080 e ho raggiunto un discreto +100mhz gpu e + 564 mhz le memorie. Non male specie le memorie.

Con la tua 2080 vai bene per tutta questa gen, vai tranquillo.

Non è per nulla obsoleta.

L'unica cosa è che lhai pagata troppo, questo si

Link al commento
Condividi su altri siti

Partecipa alla conversazione

Puoi pubblicare ora e registrarti più tardi. Se hai un account, accedi ora per pubblicarlo con il tuo account.

Ospite
Rispondi a questa discussione...

×   Hai incollato il contenuto con la formattazione.   Rimuovere la formattazione

  Sono consentiti solo 75 emoticon max.

×   Il tuo collegamento è stato incorporato automaticamente.   Mostra come un collegamento

×   Il tuo contenuto precedente è stato ripristinato.   Pulisci editor

×   Non puoi incollare le immagini direttamente. Carica o inserisci immagini dall'URL.

×
×
  • Crea Nuovo...