Mac Pro Rumors...


Recommended Posts

Per chi fa grafica statica e impaginazione un MacPro del 2006 con 16GB di ram e una scheda video come la ATIxt1900….va bene, credetemi; Se poi serve Cuda e OpenCL si investe su una bella Quadro….Se poi è un 8core, si ok, ma quanto si risparmia in tempo nel lavoro giornaliero?

Chi fa video il discorso è prettamente diverso, purtroppo, standard video sempre in continua espansione rendono le macchine lente ed obsolete; ammesso e non concesso che esca un MacPro con 16/20 core effettivi, avremmo potenza comunque e sempre appena sufficiente. Purtroppo sembra che sviluppare qualcosa che lavori in realtime escludendo rendering è un sogno maledetto. Nessuno, dico nessuno, a parte qualche temerario programmatore su Win, ha mai sfruttato l'hardware che si cela nelle skede grafiche da 6/7 anni. Si certo, ora abbiamo OpenCL che è già un passo avanti ma aspettare ogni volta un PC nuovo con CPU nuove e skede nuove che nel migliore dei casi, tra 1 generazione e l'altra, offre il 20/25% di prestazioni in più…..bè non è questo gran salto. L'amico che ha un G5 conferma bene le cose che affermo: 1 che un PowerMac G5 ancora oggi è sufficiente per lavorare con Photoshop proficuamente. 2) il salto di prestazioni oggi lo vedrebbe tanto con un MacPro del 2008, tanto con uno del 2010 senza notare grandissime differenze !!!! Ovviamente per il lavoro che deve fare lui.

Parecchi montatori o grafici sono a digiuno riguardo ad hardware e software, ma chi come me e qualche amico è un pokino più esperto…..sà bene che la potenza computazionale non è mai abbastanza ma quando si vedono sprecare risorse, come usare ML per le notifiche di Facebook….bè mi scendono perterra. Su ML, come per ogni nuova versione dell'OS hanno migliorato le prestazioni grafiche; scusate ma i driver grafici possono essere migliorati ANCHE da Leopard in su….come tutta una serie di ottimizzazioni.

Ho 4 Mac: 1MP v3.1 3,2Ghz, iMac ALu del 2007 (2,4Ghz) MBP 15" (2,4Ghz) fine 2008 tutti aggiornati a Lion e un glorioso iMac17" (1,8Ghz) ancora con SL. Quest'ultimo si avvia in circa 40" dal momento che si preme l'accensione, nonostante Safari si carichi al login….tutti gli altri, ci mettono intorno al minuto, indipendentemente dai prg che caricano all'avvio (solo il MP carica mail e icalc all'avvio). Questi tempi LUNGHI di avvio ci sono da quando è stato implementato Lion…..Poi si lavora egregiamente e velocemente…..ma vedo che 8GB sono diventati come 1GB nel 2005 !!!!!

Troppe risorse si sprecano, senza vedere realmente le prestazioni che TUTTI vorremmo.

Link to post
Share on other sites
  • Replies 89
  • Created
  • Last Reply

Top Posters In This Topic

Caspita con venti gb di memoria è una scheggia, magari ne trovassi uno anche io. Oppure forse Zio Cook ti ha fatto perdere la pazienza ed hai ceduto, in ogni caso se questi che ci sono adesso alla Apple dormono sugli allori, penso che ne cerchero' uno anchio magari usato di un anno. ciao grazie

Stavo per perdere la pazienza e buttarmi su un iMac. Purtroppo il mio G5 con Tiger era un po' fermo con la sua CS3 che cominciava a starmi stretta e tutta la posta su MobilMe che dovevo ma non potevo trasferire su iCloud…

In una delle mie visite al rivenditore di fiducia della mia città per chiedere se ci fossero indiscrezioni su una prossima uscita di nuovi MacPro, mi ha fatto la proposta di quell'usato che ho poi preso. Credo sia stata un'ottima occasione e per ora sono pienamente soddisfatto. Diciamo che è stata una bella botta di fortuna: fino a quel momento l'ipotesi di un usato non l'avevo considerata.

Link to post
Share on other sites

Per chi fa grafica statica e impaginazione un MacPro del 2006 con 16GB di ram e una scheda video come la ATIxt1900….va bene, credetemi; Se poi serve Cuda e OpenCL si investe su una bella Quadro….Se poi è un 8core, si ok, ma quanto si risparmia in tempo nel lavoro giornaliero?

Chi fa video il discorso è prettamente diverso, purtroppo, standard video sempre in continua espansione rendono le macchine lente ed obsolete; ammesso e non concesso che esca un MacPro con 16/20 core effettivi, avremmo potenza comunque e sempre appena sufficiente. Purtroppo sembra che sviluppare qualcosa che lavori in realtime escludendo rendering è un sogno maledetto. Nessuno, dico nessuno, a parte qualche temerario programmatore su Win, ha mai sfruttato l'hardware che si cela nelle skede grafiche da 6/7 anni. Si certo, ora abbiamo OpenCL che è già un passo avanti ma aspettare ogni volta un PC nuovo con CPU nuove e skede nuove che nel migliore dei casi, tra 1 generazione e l'altra, offre il 20/25% di prestazioni in più…..bè non è questo gran salto. L'amico che ha un G5 conferma bene le cose che affermo: 1 che un PowerMac G5 ancora oggi è sufficiente per lavorare con Photoshop proficuamente. 2) il salto di prestazioni oggi lo vedrebbe tanto con un MacPro del 2008, tanto con uno del 2010 senza notare grandissime differenze !!!! Ovviamente per il lavoro che deve fare lui.

Parecchi montatori o grafici sono a digiuno riguardo ad hardware e software, ma chi come me e qualche amico è un pokino più esperto…..sà bene che la potenza computazionale non è mai abbastanza ma quando si vedono sprecare risorse, come usare ML per le notifiche di Facebook….bè mi scendono perterra. Su ML, come per ogni nuova versione dell'OS hanno migliorato le prestazioni grafiche; scusate ma i driver grafici possono essere migliorati ANCHE da Leopard in su….come tutta una serie di ottimizzazioni.

Ho 4 Mac: 1MP v3.1 3,2Ghz, iMac ALu del 2007 (2,4Ghz) MBP 15" (2,4Ghz) fine 2008 tutti aggiornati a Lion e un glorioso iMac17" (1,8Ghz) ancora con SL. Quest'ultimo si avvia in circa 40" dal momento che si preme l'accensione, nonostante Safari si carichi al login….tutti gli altri, ci mettono intorno al minuto, indipendentemente dai prg che caricano all'avvio (solo il MP carica mail e icalc all'avvio). Questi tempi LUNGHI di avvio ci sono da quando è stato implementato Lion…..Poi si lavora egregiamente e velocemente…..ma vedo che 8GB sono diventati come 1GB nel 2005 !!!!!

Troppe risorse si sprecano, senza vedere realmente le prestazioni che TUTTI vorremmo.

Sul fatto che potrebbero riscrivere i driver delle schede grafiche anche per il System 7 ti do pienamente ragione; però non lo farebbero mai. Purtroppo è molto più comodo ed economico per loro dire: «Vuoi prestazioni migliori? Aggiorna il S.O.!»

Poi leggi le recensioni di Mountain Lion, che dicono che è una scheggia, e allora ti butti. E se non hai l'HW sufficiente, cominci a prendere in considerazione l'idea di cambiarlo…

Quello che tu scrivi è un ottimo esercizio di buon senso, che purtroppo è il meno comune dei sensi...

Link to post
Share on other sites

Ciao in effetti ai ragione io per l'80 % del lavoro faccio il grafico, il restante del lavoro mi diletto a fare qualche filmato con final cut pro, e lavoro a volte con Dvd studio pro sempre con un G5 power mac del 2004 che ovviamente se devo renderizzare un filmato di 15 minuti con 7 canali video e 5 canali audio, ci mette 5/6 ore ovviamente zeppo di animazioni con Motion, diciamo che mi diverto. in dodici anni ho fatto una decina di filmati usando prima premiere e dopo sono passato a final cut usando semplicemente la porta firewire del mac, il mio vecchio mac G5, quando renderizza si mette a urlare quando si raffredda ma fa sempre il suo dovere.

Per la grafica effettivamente come tu dici andrebbe bene anche un Imac potenziato, ma a causa di pochi filmati che gestisco, stò aspettando un nuovo Mac pro, ma vediamo cosa uscira' in futuro, certo che è difficile scegliere, qiando usciranno dei mac nuovi tu che sei un esperto hardware ti chiederò un tuo parere. Grazie

Link to post
Share on other sites

Giusto per chi me lo ha chiesto…il MP v.3.1 con disco WD da 500GB, 8GB, amd4870, Lion e nessun prg all'avvio….ci mette ' e 20"….di cui 20" solo per far comparire la classica rotellina…leviamoci 5 sec per l'immissione della password….sono cm troppi rispetto ai 45" netti precedenti.

Se decidono di mantenere l'aspetto attuale i nuovi MP avranno in più le usb3, PCIe3.0 e Thunderbolt e probabilmente delle nVidia come card video; le cpu saranno gli Xeon esacore nella configurazione più bassa e decacore in quella più alta. Questo ovviamente se vogliono mantenere il binario attuale del MacPro come lo intendiamo noi. Poi se potrebbero introdurre innovazioni tecniche come la possibilità di usare indipendentemente HD da 3,5" o 2,5 senza obbligare all'acquisto di adattatori. Ricordiamoci poi che il MacPro attualmente è l'unico sistema professionale che può essere usato come server, lasciando momentaneamente perdere il MacMini, rivolto più che altro alle piccole imprese.

L'iMac, tanto il 21,5 che il 27" offrono ottime capacità di calcolo, affidabilità per un uso quotidiano ma chi ci fa video, in modo particolare con queste giornate afose, si è reso conto di quanto sia una bella stufetta…purtroppo so bene come un componente elettronico declini le sue funzionalità (si guasta!) perchè destinato a lavorare negli inferi !!!! Senza contare che Intel, cosciente di quanto possano scaldare i suoi nuclei, ha fatto in modo che queste unità calino vistosamente la potenza di calcolo a fronte di eccessivo calore. E' una protezione, ma il computer è fatto da tanti altri componenti, in primis l'alimentatore. Questo pezzo, per quanto dimensionato, è costruito in modo tale da prendere meno spazio possibile e i vari componenti elettronici, tutti amalgamati in un angusto spazio, sono destinati a durare meno di quanto ci si aspetti. Ora non voglio allarmare nessuno, ci mancherebbe, ma ho visto soluzioni più eleganti e alimentatori ben più efficienti e meno dispersivi…poi come qualcuno ha menzionato, un iMac con un più facile accesso al disco per una eventuale sostituzione non sarebbe una cattiva idea.

Tornando al MacPro, poichè mi sento logorroico, torno a dire che se si sfruttasse quello che abbiamo, perchè l'hardware effettivamente lo permette, avremmo macchine che andremmo a cambiare minimo 1 volta ogni 5 anni (o peggi quando si rompono). Per questo ho già fatto un appunto in una mail mandata al supporto tecnico di FCPx…..Un esempio…da un master HD di 2 ore ho creato un H264 da 960x720p…tempo di calcolo circa 4 ore (con le CPU che lavoravano al massimo del 60%). Sembrano poche ma se fosse stata chiamata in causa l'unità della GPU preposta allo scaling e deinterlacing questo tempo sarebbe sceso a circa 1,5 ore…ora mi dico, visto che tale fattezza hardware l'abbiamo dentro la skeda video a partire dal 2005, dico io….cosa casso ci vuole per sfruttare tali fattezze? Mah….ormai credo sia chiaro, l'intento è quello di vendere, sennò chiudono la baracca !!!!

Sono passati i tempi in cui ottimizzare significava rendere l'hardware una tecnologia duratura e la programmazione un prodigio di idee….

Io preferivo i PowerPC; per queste cpu, l'ottimizzazione è arrivata a spremerli come dei limoni. Apple non poteva far nulla contro le cpu Intel, ben più performanti (a fronte di sprechi pazzeschi) contro le cpu Intel che alimentavano il mondo Windows. In quanti casi si sono messi a confronto i due sistemi dimostrando che un G5 era meno performante ma a causa dei pochi megaherz ma dove trovava il codice ottimizzato surclassava i P4 a 3Ghz !!! Una guerra che andava avanti già dalla fine degli anni '80, quando imperavano le cpu Motorola, utilizzate dai vecchi Mac ma anche dalle workstation, dagli Amiga ecc ….

Vabbè staremo a vedere cosa ci proporranno….

Link to post
Share on other sites

L'iMac, tanto il 21,5 che il 27" offrono ottime capacità di calcolo, affidabilità per un uso quotidiano ma chi ci fa video, in modo particolare con queste giornate afose, si è reso conto di quanto sia una bella stufetta…

Se l'iMac è una stufetta, il Mac Pro è una centrale nucleare. Solo che non te ne accorgi perché fa passare più aria.

[alimentatore], per quanto dimensionato, è costruito in modo tale da prendere meno spazio possibile e i vari componenti elettronici, tutti amalgamati in un angusto spazio, sono destinati a durare meno di quanto ci si aspetti. Ora non voglio allarmare nessuno, ci mancherebbe, ma ho visto soluzioni più eleganti e alimentatori ben più efficienti e meno dispersivi…

È il problema di voler mettere tutto dentro al monitor. Il mio iMac però di solito non supera i 70°C nell'alimentatore, che alla fin fine non sono un problema (sono misurati nei componenti più caldi, non nei condensatori).

un iMac con un più facile accesso al disco per una eventuale sostituzione non sarebbe una cattiva idea.

Per chi? ho l'iMac da 4 anni e non ne ho mai avuto bisogno. Anche se mi si dovesse rompere, sarebbe una volta in quattro anni. E loro dovrebbero cambiare il design per una volta ogni 4 anni? starai scherzando.

Mi sembra di vedere la tipica presunzione degli smanettoni PC che non riescono a vedere fuori dalla loro personale esperienza: "eh l'imac è bello, se fosse più espandibile e accessibile..." solo che un iMac espandibile e accessibile non avrebbe la forma (e l'ingombro!!) dell'iMac, quindi non sarebbe un iMac. E le vendite indicano che la gente vuole l'iMac, non un "imac accessibile e espandibile" che poi non è che un pc.

Quindi renderlo più accessibile È una cattiva idea.

Per questo ho già fatto un appunto in una mail mandata al supporto tecnico di FCPx…..Un esempio…da un master HD di 2 ore ho creato un H264 da 960x720p…tempo di calcolo circa 4 ore (con le CPU che lavoravano al massimo del 60%). Sembrano poche ma se fosse stata chiamata in causa l'unità della GPU preposta allo scaling e deinterlacing questo tempo sarebbe sceso a circa 1,5 ore…ora mi dico, visto che tale fattezza hardware l'abbiamo dentro la skeda video a partire dal 2005, dico io….cosa casso ci vuole per sfruttare tali fattezze? Mah….ormai credo sia chiaro, l'intento è quello di vendere, sennò chiudono la baracca !!!!

Ma non penso. Come fai a sapere che ci metterebbe una ora sola? e sei al corrente dei compromessi? per esempio, la scheda video del tuo MP 3,1 (se originale) non è in grado di garantire la precisione desiderata nei calcoli, per cui non può fare tanto. Non parliamo del deinterlacing che ogni scheda ha differente, non essendo per l'utente finale (che lo usa per visualizzare filmati) importante.

Vedo di nuovo la presunzione come sopra.

Io preferivo i PowerPC; per queste cpu, l'ottimizzazione è arrivata a spremerli come dei limoni. Apple non poteva far nulla contro le cpu Intel, ben più performanti (a fronte di sprechi pazzeschi) contro le cpu Intel che alimentavano il mondo Windows. In quanti casi si sono messi a confronto i due sistemi dimostrando che un G5 era meno performante ma a causa dei pochi megaherz ma dove trovava il codice ottimizzato surclassava i P4 a 3Ghz !!! Una guerra che andava avanti già dalla fine degli anni '80, quando imperavano le cpu Motorola, utilizzate dai vecchi Mac ma anche dalle workstation, dagli Amiga ecc ….

La sintassi è andata completamente perduta in questo ultimo pezzo.

Però alla fine i G5 erano più lenti e basta. Non consumavano tanto meno dei P4, non erano più veloci, non erano più ottimizzati.

Link to post
Share on other sites

- Il MacPro è un mulo da lavoro più che una centrale nucleare, costruito appunto per essere affidabile e duraturo nel tempo….lavorando anche 24 ore su 24.

- Hai mai visto un alimentatore di un iMac? Se no, capisco la risposta, in ogni caso 70° non sono pochi; ci sono componenti critici che quella temperatura, purtroppo, accorcia i tempi di un probabile guasto. Vero anche che le cose sono comunque migliorate…

- Un'idea di un sportello per cambiare il disco fisso, non solo perchè c'è la probabilità di un guasto ma semplicemente perchè dopo 2/3 anni se ne potrebbe installare uno più capiente, all'occorrenza. Magari a te non occorre ma se ti fai un giro in rete, molti ne sono costretti. Quindi, perchè no?

- le skede video di ultima generazione, senza andare troppo indietro, come una GT8800 o ATI2600 hanno in hardware la de/compressione, il deinterlacer, deblocking,e lo scaler (citando solo alcune fattezze) e non usano i coprocessori per questi compiti ma unità dedicate, che nei migliori dei casi sono….spente. Perchè non utilizzarle? E i tempi? le unità dedicate hanno capacità di elaborazione almeno pari a 4 volte più veloci del realtime e una qualità spesso ottima. La mia è una supposizione, ma le unità citate all'interno delle GPU esistono. Fatti un giro sul sito AMD...

- La sintassi non centra; ho espresso un parere personale su un periodo informatico, che ho avuto modo di vivere, e questo mi dà la conoscenza di come la tecnologia si sia evoluta, a volte in meglio a volte in peggio. Il G5 era una ottima CPU, come del resto quelle precedenti, solo più sfortunata perchè i volumi di produzione erano meno del 10% della controparte intel, con tutte le conseguenze del caso…. quindi lo sviluppo non è continuato se non in versioni proprietarie di IBM…..

Il mio discorso era riferito al fatto che Apple tendeva ad ottimizzare il codice molto di più in quel periodo che non adesso quando, a parer mio, le ottimizzazioni, in certi contesti, sarebbero benvenute anche oggi...

Tu parli di presunzione, che io non ho avuto e mi dispiace che la vedi così.

Link to post
Share on other sites
- Il MacPro è un mulo da lavoro più che una centrale nucleare, costruito appunto per essere affidabile e duraturo nel tempo….lavorando anche 24 ore su 24.

Mi pare esattamente la descrizione di una centrale nucleare.

A parte questo, volevo solo dire che il calore sparato nella stanza da un Mac Pro è MOLTO più di quello di un iMac.

- Hai mai visto un alimentatore di un iMac? Se no, capisco la risposta, in ogni caso 70° non sono pochi; ci sono componenti critici che quella temperatura, purtroppo, accorcia i tempi di un probabile guasto. Vero anche che le cose sono comunque migliorate…

Di solito la temperatura è rilevata nel dissipatore dei diodi raddrizzatori e mosfet, per cui quella è davvero la massima dentro all'alimentatore. L'aria che passa non raggiunge mai quella temperatura e lambisce gli altri componenti a valle, per cui penso che i componenti non siano stressati esageratamente (certo non sono come quelli di un alimentatore da PC che ha tanta aria in più).

- Un'idea di un sportello per cambiare il disco fisso, non solo perchè c'è la probabilità di un guasto ma semplicemente perchè dopo 2/3 anni se ne potrebbe installare uno più capiente, all'occorrenza. Magari a te non occorre ma se ti fai un giro in rete, molti ne sono costretti. Quindi, perchè no?

Perché il design si complicherebbe a fronte di un numero percentuale di utenti ridicolo. Per non parlare dell'idea di principio: NON progetti qualcosa per un sì e no 5% di persone e per una volta sola nell'intera vita del prodotto: non si sta parlando di impedire la sostituzione, si parla solo di dover far sollevare il monitor nel raro caso in cui si renda necessario! L'avessero impedito del tutto concorderei: meglio peggiorare il design piuttosto che impedire del tutto. Ma qui si tratterebbe solo di facilitare il cambio.

- le skede video di ultima generazione, senza andare troppo indietro, come una GT8800 o ATI2600 hanno in hardware la de/compressione, il deinterlacer, deblocking,e lo scaler (citando solo alcune fattezze) e non usano i coprocessori per questi compiti ma unità dedicate, che nei migliori dei casi sono….spente. Perchè non utilizzarle? E i tempi? le unità dedicate hanno capacità di elaborazione almeno pari a 4 volte più veloci del realtime e una qualità spesso ottima. La mia è una supposizione, ma le unità citate all'interno delle GPU esistono. Fatti un giro sul sito AMD...

Se leggi, non ho detto che le unità di calcolo apposite non vi siano o non siano potenti, ho detto che non sono affidabili: se vuoi far fare alla scheda video calcoli altrimenti passati alla CPU, devi essere sicuro che il risultato sia lo stesso, solo più veloce. L'unità di calcolo delle schede video (unità di calcolo e schede video citate) non producono risultati costanti tra modelli e marche diverse. Motivo per cui le usi quando l'output è il monitor (tanto un pixel un poco più chiaro o scuro non ti cambia nulla) ma non le usi quando devi fare compressione (cioè vuoi la riproducibilità tra computer diversi).

- La sintassi non centra;

La sintassi c'entra sempre, è la tua (?) lingua, il tuo modo di comunicare.

Il G5 era una ottima CPU, come del resto quelle precedenti, solo più sfortunata perchè i volumi di produzione erano meno del 10% della controparte intel, con tutte le conseguenze del caso…. quindi lo sviluppo non è continuato se non in versioni proprietarie di IBM…..

Lo sviluppo era indietro per il motivo da te citato, quindi "era indietro". Quindi come poteva essere una ottima CPU? non lo era. Al massimo era un CPU partita con buone prospettive, ma alla fine NON era una ottima CPU.

Il mio discorso era riferito al fatto che Apple tendeva ad ottimizzare il codice molto di più in quel periodo che non adesso quando, a parer mio, le ottimizzazioni, in certi contesti, sarebbero benvenute anche oggi...

Davvero non ottimizza? come lo puoi affermare? non hai nemmeno detto come fai a sapere che usando la scheda video la compressione richiederebbe 1,5 al posto di 4 ore. Sono entrambe affermazioni da provare.

Tu parli di presunzione, che io non ho avuto e mi dispiace che la vedi così.

In parte era giusto per darti un po' contro, e in parte un po' c'era.

Link to post
Share on other sites

Mi pare esattamente la descrizione di una centrale nucleare.

A parte questo, volevo solo dire che il calore sparato nella stanza da un Mac Pro è MOLTO più di quello di un iMac.

Ai tuoi occhi si, può sembrare una centrale nucleare ed effettivamente spara più aria "condizionata" nell'ambiente…….

Di solito la temperatura è rilevata nel dissipatore dei diodi raddrizzatori e mosfet, per cui quella è davvero la massima dentro all'alimentatore. L'aria che passa non raggiunge mai quella temperatura e lambisce gli altri componenti a valle, per cui penso che i componenti non siano stressati esageratamente (certo non sono come quelli di un alimentatore da PC che ha tanta aria in più).

Quando mi riferivo se hai mai visto un alimentatore di un iMac…il costruttore del componente in oggetto incolla con del silicone i componenti alla basetta. Fin qui nulla di male, purtroppo tale silicone evita che l'aria circoli tra i componenti stressando ulteriormente gli stess

Perché il design si complicherebbe a fronte di un numero percentuale di utenti ridicolo. Per non parlare dell'idea di principio: NON progetti qualcosa per un sì e no 5% di persone e per una volta sola nell'intera vita del prodotto: non si sta parlando di impedire la sostituzione, si parla solo di dover far sollevare il monitor nel raro caso in cui si renda necessario! L'avessero impedito del tutto concorderei: meglio peggiorare il design piuttosto che impedire del tutto. Ma qui si tratterebbe solo di facilitare il cambio.

Il design non ne risentirebbe….i designer di apple sono bravi !!! ;)

Se leggi, non ho detto che le unità di calcolo apposite non vi siano o non siano potenti, ho detto che non sono affidabili: se vuoi far fare alla scheda video calcoli altrimenti passati alla CPU, devi essere sicuro che il risultato sia lo stesso, solo più veloce. L'unità di calcolo delle schede video (unità di calcolo e schede video citate) non producono risultati costanti tra modelli e marche diverse. Motivo per cui le usi quando l'output è il monitor (tanto un pixel un poco più chiaro o scuro non ti cambia nulla) ma non le usi quando devi fare compressione (cioè vuoi la riproducibilità tra computer diversi).

Non fa una piega…ma se ti informi, le ATI della serie X1000 avevano coraggiosamente già incorporato il motore di compressione H264/MP4, sfruttato solo da pochissimi prg (sotto win). Il file che usciva fuori era "ok" e ti assicuro che questa feature era presente nei driver di ATI. Io l'ho potuta usare su una ATI x1400 del mio portatile Dell….e rispetto al processore, un poerello da 1,8Ghz, i tempi erano nettamente minori.

A ben ricordare, anche Nero 6 aveva nel motore di decompressione una ottimizzazione rivolta all'mpeg2; grazie a questo "tool" analizzare e comprimere un .VOB in un banale mpg2 era questione di mezz'oretta…..(l'hardware era un P4 a 2,6Ghz e la skeda una nvidia 5900; cambiando quest'ultima cambiavano le prestazioni….). Questa la mia esperienza…può sembrare strano….

La sintassi c'entra sempre, è la tua (?) lingua, il tuo modo di comunicare.

Forse mi esprimo male? O forse non sei daccordo su ciò che affermo…giusto per contrariarmi? ;)

Lo sviluppo era indietro per il motivo da te citato, quindi "era indietro". Quindi come poteva essere una ottima CPU? non lo era. Al massimo era un CPU partita con buone prospettive, ma alla fine NON era una ottima CPU.

Era indietro….si nel senso che Motorola et company inseguivano il colosso Intel.Qui possiamo avere opinioni differenti, per me era un'ottima CPU, come del resto lo era il P4 ma solo quest'ultimo non era quella grande cpu; alla sua introduzione era proprio "lento".

Davvero non ottimizza? come lo puoi affermare? non hai nemmeno detto come fai a sapere che usando la scheda video la compressione richiederebbe 1,5 al posto di 4 ore. Sono entrambe affermazioni da provare.

Forse ci sarebbe da scrivere un libro sulle ottimizzazioni del codice…è che oggi conviene di più fare una cpu nuova che scrivere codice ottimizzato, questo è un dato di fatto…da li le mie conclusioni.

In parte era giusto per darti un po' contro, e in parte un po' c'era.

Sei un provocatore ;)

Link to post
Share on other sites

Se leggi, non ho detto che le unità di calcolo apposite non vi siano o non siano potenti, ho detto che non sono affidabili: se vuoi far fare alla scheda video calcoli altrimenti passati alla CPU, devi essere sicuro che il risultato sia lo stesso, solo più veloce. L'unità di calcolo delle schede video (unità di calcolo e schede video citate) non producono risultati costanti tra modelli e marche diverse. Motivo per cui le usi quando l'output è il monitor (tanto un pixel un poco più chiaro o scuro non ti cambia nulla) ma non le usi quando devi fare compressione (cioè vuoi la riproducibilità tra computer diversi).

Non fa una piega…ma se ti informi, le ATI della serie X1000 avevano coraggiosamente già incorporato il motore di compressione H264/MP4, sfruttato solo da pochissimi prg (sotto win). Il file che usciva fuori era "ok" e ti assicuro che questa feature era presente nei driver di ATI.

Oh, ma hai letto ciò che ho scritto o hai risposto prima di leggere? Ti riporto il passaggio chissà che questa volta vada meglio:

Se leggi, non ho detto che le unità di calcolo apposite non vi siano o non siano potenti, ho detto che non sono affidabili: se vuoi far fare alla scheda video calcoli altrimenti passati alla CPU, devi essere sicuro che il risultato sia lo stesso, solo più veloce. L'unità di calcolo delle schede video (unità di calcolo e schede video citate) non producono risultati costanti tra modelli e marche diverse

Qui possiamo avere opinioni differenti, per me era un'ottima CPU, come del resto lo era il P4 ma solo quest'ultimo non era quella grande cpu; alla sua introduzione era proprio "lento".

Allora spiegami che significa "ottima CPU"... intendi nel senso "chi te la vende ti promette l'infinito e poi non fa nulla"? allora sì, era ottima.

Davvero non ottimizza? come lo puoi affermare? non hai nemmeno detto come fai a sapere che usando la scheda video la compressione richiederebbe 1,5 al posto di 4 ore. Sono entrambe affermazioni da provare.

Forse ci sarebbe da scrivere un libro sulle ottimizzazioni del codice…è che oggi conviene di più fare una cpu nuova che scrivere codice ottimizzato, questo è un dato di fatto…da li le mie conclusioni.

Ti stai arrampicando sugli specchi e il "Forse ci sarebbe da scrivere un libro sulle ottimizzazioni del codice" è solo un modo per aggirare il punto. Ti ripeto di nuovo:

non hai nemmeno detto come fai a sapere che usando la scheda video la compressione richiederebbe 1,5 al posto di 4 ore

In realtà hai sparato a caso due numeri ma non hai idea se siano plausibili o meno.

Link to post
Share on other sites

A beneficio degli utenti che seguano passivamente questa discussione vorrei solo chiarire come il rendering demandato alla scheda video non sia affatto uguale a quello calcolato dalla CPU.

La compressione mpeg/h264 menzionata quando fatta via CUDA od Pure Video (o tramite le librerie Matrox) è completamente diversa e di qualità molto inferiore a quella ottenibile dai migliori algoritmi software.

So di persone che usano un solo core della CPU per evitare che ogni frame venga diviso fra più flussi. Immaginate i processi paralleli di una GPU e concludete da soli.

E' più veloce ma in ambito professionale questa velocità non serve a niente.

Per quanto riguarda i zilioni di core di cui amabilmente discettate, non sono mai riuscito a capire l'esigenza di processare file 1080p a piena risoluzione, specie se visualizzati in una anteprima di 640x360.

Il Cinema si è sempre montato off-line, con file video di bassa definizione allo scopo di esportare la cut list.

Personalmente capisco la piena risoluzione solo nel grading con un sistema calibrato, monitor o proiettori esterni e luce ambiente misurata. Ma a questo punto tanto vale una stazione di lavoro dedicata.

E' mia intenzione produrre un docu quanto prima* e lo farò montandolo con Proxy DV che sostituirò prima del rendering.

-

Certus an incertus quando. Questione di soldi...

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now