Radeon HD 2600 XT vs GeForce 8800 GT


Recommended Posts

  • 3 weeks later...

Ciao ragazzi! Mi sto avvicinando per la prima volta "seriamente" al mondo apple (visto che finora l'unico mac che ho avuto è stato un eMac risalente a qualche anno fa!), sia per "vocazione", che per necessità connesse al lavoro. Premesso che non capisco un tubo di openGL, test e quant'altro riguardi "l'informatica stretta", desideravo ricevere qualche consiglio in merito all'acquisto; io faccio video editing, quindi lavoro con notevoli flussi di dati, e premesso che per ora nn posso comprare un nvidia quadro o affini...cosa è meglio per me, una ati 2600, o una nvidia 8800?

E poi, cosa mi consigliate come monitor? Io volevo prendere 2 CRT, nemmeno troppo costosi per inevitabili emergenze di budget...Che cosa mi consigliate? Grazie a tutti coloro e non che vorranno contribuire. (non all'acquisto, ovviamente :) z

Link to post
Share on other sites
  • 4 weeks later...

Ciao ragazzi, toccata e fuga.

Sono un utente linux/pc ed ho avuto modo di testare il mio portatile dual core 7300 con ati radeon 2600XT. A casa ho un 2xOpteron285 con gef 9800GTX ed in ufficio ho appena assemblato un Quad core 6600 con gef 8800GTX per uso cad.

Ho preso nvidia sulla fiducia, coscio del miglior supporto dei drivers opengl su linux, pensando anche ad ottime prestazioni opengl.

Invece...........

Quello che la 2600xt con procio inferiore su portatile fa girare con esrema naturalezza, ( in abaqus CAE) le due geforce, che sulla carta sono dei mostri ( come effettivamente nei giochi sono...) arrancano pesantemente con rotazione a scatti e ritardi negli zoom. Ho provato il programma sia su linux che su windows ed il risltato e' identico: una schifezza!

Probabilmente cosi' spingono le Quadro, ma fancamente hanno esagerato.

Comprate ATI.

http://www.hothardware.com/Articles/ATI_FireGL_V7600_512_MB_Workstation_Graphics_Card/?page=4

Saluti Maxx

Link to post
Share on other sites

Ciao ragazzi, toccata e fuga. ( riposto il messaggio, se lo e' perso. scusate se poi ne posto due uguali...)

Sono un utente linux/pc ed ho avuto modo di testare il mio portatile dual core 7300 con ati radeon 2600XT. A casa ho un 2xOpteron285 con gef 9800GTX ed in ufficio ho appena assemblato un Quad core 6600 con gef 8800GTX per uso cad. ( le schede sono da sesktop e non da portatile)

Ho preso nvidia sulla fiducia, coscio del miglior supporto dei drivers opengl su linux, pensando anche ad ottime prestazioni opengl.

Invece...........

Quello che la 2600xt con procio inferiore su portatile fa girare con esrema naturalezza, ( in abaqus CAE) le due geforce, che sulla carta sono dei mostri ( come effettivamente nei giochi sono...) arrancano pesantemente con rotazione a scatti e ritardi negli zoom. Ho provato il programma sia su linux che su windows ed il risltato e' identico: una schifezza!

Probabilmente cosi' spingono le Quadro, ma fancamente hanno esagerato.

Comprate ATI.

http://www.hothardware.com/Articles/ATI_FireGL_V7600_512_MB_Workstation_Graphics_Card/?page=4

Saluti Maxx

Link to post
Share on other sites

Ciao ragazzi, toccata e fuga. ( riposto il messaggio, se lo e' perso. scusate se poi ne posto due uguali...)

Sono un utente linux/pc ed ho avuto modo di testare il mio portatile dual core 7300 con ati radeon 2600XT. A casa ho un 2xOpteron285 con gef 9800GTX ed in ufficio ho appena assemblato un Quad core 6600 con gef 8800GTX per uso cad. ( le schede sono da sesktop e non da portatile)

Ho preso nvidia sulla fiducia, coscio del miglior supporto dei drivers opengl su linux, pensando anche ad ottime prestazioni opengl.

Invece...........

Quello che la 2600xt con procio inferiore su portatile fa girare con esrema naturalezza, ( in abaqus CAE) le due geforce, che sulla carta sono dei mostri ( come effettivamente nei giochi sono...) arrancano pesantemente con rotazione a scatti e ritardi negli zoom. Ho provato il programma sia su linux che su windows ed il risltato e' identico: una schifezza!

Probabilmente cosi' spingono le Quadro, ma fancamente hanno esagerato.

Comprate ATI.

http://www.hothardware.com/Articles/ATI_FireGL_V7600_512_MB_Workstation_Graphics_Card/?page=4

Saluti Maxx

Scusa eh, ma nel link che hai postato la 8800 straccia le altre 2 o sbaglio??

Link to post
Share on other sites

L'architettura delle schede è molto diversa; mentre ATI è rimasta più o meno fedele all'architettura base, migliorandola, Nvidia ne ha creata una molto particolare che su certi versi è quasi rivoluzionaria ma per come funzionano driver e programmi non è ottimale. Fondamentalmente la GPU Nvidia è programmabile per un uso anche diverso da quello di semplice GPU, quindi per spaziare in altri campi ha dovuto sacrificare altre cose.

Nvidia, sulla base del G80 (8800 GTX) ha creato una specie di motore di rendering per il 3D, per calcoli matematici intensivi in virgola mobile ecc ecc.

Questa notorietà richiede una programmazione particolare che attualmente non è sfruttata in nessun ambito Home/office. Sotto Win è stato rilasciato, a pagamento, un software chiamato GELATO, che dovrebbe aiutare le CPU coi prg 3D durante i lunghi calcoli di rendering....

Link to post
Share on other sites

L'architettura delle schede è molto diversa; mentre ATI è rimasta più o meno fedele all'architettura base, migliorandola, Nvidia ne ha creata una molto particolare che su certi versi è quasi rivoluzionaria ma per come funzionano driver e programmi non è ottimale. Fondamentalmente la GPU Nvidia è programmabile per un uso anche diverso da quello di semplice GPU, quindi per spaziare in altri campi ha dovuto sacrificare altre cose.

Nvidia, sulla base del G80 (8800 GTX) ha creato una specie di motore di rendering per il 3D, per calcoli matematici intensivi in virgola mobile ecc ecc.

Questa notorietà richiede una programmazione particolare che attualmente non è sfruttata in nessun ambito Home/office. Sotto Win è stato rilasciato, a pagamento, un software chiamato GELATO, che dovrebbe aiutare le CPU coi prg 3D durante i lunghi calcoli di rendering....

Scusa, io ho letto, al contrario di quello che dicono in molti, che le GPU sono (e saranno sempre di più) sfruttate non solo per i videogiochi e 3D, ma anche per applicazioni come Photoshop, Lightroom e Aperture.

1) è vero?

2) Consigli per quest uso la 8800GT o la radeon di default sul macpro? (considerando che lo userò per anni).

Paolo

Link to post
Share on other sites

E' tutto un discorso di drivers!! Come qualcuno ha giustamente scritto, nVidia ha sempre preferito la forza "bruta" delle risorse di calcolo in hardware, rispetto a quanto si può ottenere con GPU meno sofisticate ma con drivers degni di questo nome!! Ati, al contrario, sebbene utilizzi anche lei la tecnologia basata su stream processors, preferisce fornire soluzioni meno estreme in hardware, ma con un ottimo supporto dei drivers. Inoltre molte "features" delle nuove Gpu nVidia, sono sfruttate solamente, ed evetualmente, in ambito Windows con le librerie DirectX, mentre su Mac le librerie grafiche 3D sono OpenGl, le quali, al momento, non sfruttano la tecnologia "stream processing" se non per il 3D.

Quindi se le necessità sono di fotoritocco e/o elaborazione AV, la 8800GT la vedo "sprecata" per questo ruolo, mentre la Ati è perfetta, magari con il massimo della ram montata a bordo!!

Link to post
Share on other sites

Una importante, non menzionata, è l'elaborazione del colore da parte del ramdac interno alla GPU. Questo componente si occupa di prendere le informazioni scritte nella ram video e "tramutarle" in segnali video. La cosa è molto più complessa ma questo è il nocciolo.

Questo componente seleziona, in base ad uno schema, i colori che poi vedremo sullo schermo. Se non erro Ati, dalla serie X1xxx in su, elabora il colore a 10bit per ogni colore primario, mentre Nvidia, che per qualità era rimasta ancora agli 8bit fino alla 6800, è passata in sordina dai 10bit fino ai 12 garantendo così una scelta cromatica più vasta ed accurata. Tutta questa elaborazione del colore però rimane dentro la GPU; i segnali mandati ai monitor sono sempre a 8bit per canale. L'unica scheda a basso costo in grado di mandare colore a 10bit (circa 4 miliardi di sfumature diverse) è la Matrox Pharelia (in ogni versione) ma solo ai monitor CRT. Matrox rilascia anche relativo plugin per Pototop, giusto per assaporare al meglio tutte le sfumature.

Su qualsiasi LCD, per limiti intrinseci costruttivi, non è possibile gestire più di 16,7 milioni di sfumature (pari a 8 bit per canale). Solo alcuni monitor (mi sembra era un Eizo, Nec o un Lacie non ricordo bene) pubblicizzano un LCD da 30" ingrado di gestire 48 miliardi di sfumature. A mio parere tecnico, sarà difficile vedere tutti quei colori contemporaneamente, visto che i pixel sono a confronto solo poco più di 4 milioni....., ma sicuramente saranno molto fedeli allo scatto originale, dove fa molto fede il sensore delle macchine digitali.

Alla fine dei conti, dalla scheda video, escono solo 16,7 milioni di colori......e non sono pochi!!

Quindi risparmiare poki euro su migliaia non mi sembra il caso!

Link to post
Share on other sites

Una importante, non menzionata, è l'elaborazione del colore da parte del ramdac interno alla GPU. Questo componente si occupa di prendere le informazioni scritte nella ram video e "tramutarle" in segnali video. La cosa è molto più complessa ma questo è il nocciolo.

Questo componente seleziona, in base ad uno schema, i colori che poi vedremo sullo schermo. Se non erro Ati, dalla serie X1xxx in su, elabora il colore a 10bit per ogni colore primario, mentre Nvidia, che per qualità era rimasta ancora agli 8bit fino alla 6800, è passata in sordina dai 10bit fino ai 12 garantendo così una scelta cromatica più vasta ed accurata. Tutta questa elaborazione del colore però rimane dentro la GPU; i segnali mandati ai monitor sono sempre a 8bit per canale. L'unica scheda a basso costo in grado di mandare colore a 10bit (circa 4 miliardi di sfumature diverse) è la Matrox Pharelia (in ogni versione) ma solo ai monitor CRT. Matrox rilascia anche relativo plugin per Pototop, giusto per assaporare al meglio tutte le sfumature.

Su qualsiasi LCD, per limiti intrinseci costruttivi, non è possibile gestire più di 16,7 milioni di sfumature (pari a 8 bit per canale). Solo alcuni monitor (mi sembra era un Eizo, Nec o un Lacie non ricordo bene) pubblicizzano un LCD da 30" ingrado di gestire 48 miliardi di sfumature. A mio parere tecnico, sarà difficile vedere tutti quei colori contemporaneamente, visto che i pixel sono a confronto solo poco più di 4 milioni....., ma sicuramente saranno molto fedeli allo scatto originale, dove fa molto fede il sensore delle macchine digitali.

Alla fine dei conti, dalla scheda video, escono solo 16,7 milioni di colori......e non sono pochi!!

Quindi risparmiare poki euro su migliaia non mi sembra il caso!

Infatti, alla luce di quello che dici, prenderò la 8800.

Grazie, 6 preparatissimo!!!

Quindi acquisto finale: dualquad 2,8 - 8800 - 2hd (1 compro online) - 10Gb ram (8 online) - Airport.

L'Apple care, comprando con P.IVA, estende cmq la garanzia? Dove s acquista?

Link to post
Share on other sites
  • 3 years later...

io avevo una gt 8800 devo dirti che va alla grande ma come tutte le schede potenti ha i pro e i contro e la 8800 oltre a farmi diventare di colore nero dal calore la staffa eterma

sembra di avere un ventilatore a casa ma detto questo è un'ottima scheda grafica

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now