Quali sono i giochi a supportare le DirectX 10?

15 09 2009

Diciamocelo: praticamente, le DirectX 10 sono state un flop! Introdotte e supportate unicamente da Windows Vista, questa nuova revisione delle SDK di Microsoft (compresa la versione successiva 10.1) è stata ampiamente snobbata dalle software house, in ambito videoludico. I giochi che le supportano sono veramente pochi. Ed è un peccato, visto le potenzialità (espresse solo in parte) di questa tecnologia.

Ma ad oggi, ad un passo dall’uscita delle DirectX 11, quali sono i titoli che supportano DX10? Eccovi un elenco:

Elenco Giochi DX10

La cosa che salta subito all’occhio da questo elenco è che, in effetti, non esiste un gioco esclusivamente DirectX 10 (a parte Stormrise). Questi giochi, infatti, hanno la possibilità di funzionare anche su vecchie schede DX9. Se qualcuno si ricorda bene, in passato, il passaggio ad una nuova versione delle DX, dopo una breve fase di transizione, comportava che il software era eseguibile unicamente dalle schede compatibili con la nuova versione di DirectX (chi si ricorda il dx9_vs_dx10caso delle GeForce 4 TI e GeForce 4 MX?).

Ma perchè oggi tutto funziona così? I motivi sono due: le console e Windows Vista. PS3 e Xbox360 hanno in qualche modo “fermato” lo sviluppo di giochi DX10, complice la loro “vecchia” architettura grafica (si tratta di gpu vecchie di 3 generazioni, compatibili DX9). Le software house, infatti, hanno preso come riferimento le console nello sviluppo di giochi, prendendo molto spesso il pc unicamente come piattaforma su cui il gioco poteva essere convertito dalla versione console, con risultati visivamente migliori ma poco ottimizzati. L’altro contributo viene da Windows Vista: l’OS di Microsoft, infatti, può definirsi un altro autentico “flop”, considerando le scarse prestazioni offerte e la poca base installata. Secondo l’ultimo rapporto di Steam di Ag0sto 2009 (quindi limitata ai pc dei videogiocatori che usano la sua piattaforma), infatti, la versione Vista 32 bit risulta installata sul 24,77%  dei pc, mentre Vista 64 bit si attesta sull’11,74%; Windows XP, invece, si posiziona al 53,48%. E’ ovvio che la poca diffusione dell’ultimo sistema operativo della MS, unico compatibile con le DX10, ha limitato lo sviluppo di questi giochi (infatti i sistemi compatibili DX10, cioè con Win Vista e Gpu DX10, sono solo il 28,95%).

Tutto questo ha avuto 2 impatti per noi videogiocatori:

  • poca innovazione nei giochi dal punto di vista grafico, in particolare per l’uso massiccio degli stessi motori grafici revisionati più o meno in ogni occasione (vedi Unreal Engine 3);
  • longevità senza precedenti delle schede video!

Quindi, se da un lato nn assistiamo a quelle rivoluzioni grafiche che facevano gridare al miracolo ad ogni uscita di giochi del calibro di Half Life, Unreal o Doom, dall’altro schede vecchie anche di 5 anni possono ancora eseguire i giochi moderni, scendendo comunque a compromessi (ovviamente, anche se c’è la compatibilità con i giochi attuali, manca molto spesso la potenza grafica bruta di gpu e ram che permette di eseguirli fluidamente). E questo non è un fatto di secondaria importanza! Le console hanno inoltre rivelato come la “sensibilità” del giocatore medio alla qualità grafica di un gioco è veramente debole: non sono pochi, infatti, che si esaltano di fronte ad un gioco per console a 720p (1280×720 di risoluzione), con texture di qualità discutibile, modelli poligonali pieni di aliasing e motion blur a tutto spiano!

head-to-head-fallout-3-20081027050947508head-to-head-fallout-3-20081027050940430

Un confronto tra le versioni PC, Xbox360 e PS3 di Fallout 3: le immagini (a 1280×720) parlano da sole!

A titolo informativo, ecco i prossimi giochi che, nonostante l’imminente uscita delle DX11, saranno lecati alla versione 10 delle DirectX:

  • Alan Wake
  • Assassinì’s Creed 2
  • Arcania: A gothic tale
  • Chrome 2
  • Guild Wars 2
  • Mafia II
  • Shattered Horizon
  • Stargate World
  • They
  • Warhound

Vedremo se le prossime DX11 avranno successo o meno…





AMD/ATI: vendite alle stelle e annuncio nuova Gpu “RV870”

28 10 2008

AMD/ATI sta andando alla grande con le vendite delle sue schede video della serie 4000: prestazioni e convenienza in ogni fascia di utenza caratterizza queste GPU, e i risultati finanziari dell’azienda vanno alle stelle, considerando il periodo negativo che caratterizza tutti i mercati finanziari mondiali (l’azienda ha fatto registrare una perdita netta di 67 milioni di dollari, un fatturato di 1.78 miliardi di dollari e un utile operativo di 131 milioni di dollari). Nvidia, nonostante valga di più in borsa, non è riuscita a raggiungere simili risultati negli ultimi mesi!

Oggi, in rete, spuntano le prime informazioni sul nuovo chip grafico di casa ATI, battezzato per l’occasione RV870. La nuova gpu sarà la prima realizzata a 40 nanometri realizzata dall’azienda americana: il nuovo processo produttivo consentirà di ridurre consumi energetici e costi di produzione, tutto a vantaggio del prodotto e dell’utente finale. Altre caratteristiche tecniche previste:

  • Velocità gpu: 1,2 volte più veloce di RV770 (la serie 4000);
  • Memorie: GDDR5 con probabile frequenza di 4800/5000 MHz;
  • Banda passante: superiore ai 160 Gbit/s;
  • Bus: 256 bit;
  • Potenza di calcolo: 1.5 teraflop;
  • 1000 Stream Processors;
  • Supporto DirectX 11;

Si aprono inoltre ulteriori ipotesi: dato il processo produtttivo, l’area del die dovrebbe essere pari a circa 205 millimetri quadrati (RV770 ne ha 260); ciò consentirebbe, in teoria, di avere anche gpu “dual-core”. Ovviamente è tutto da vedere, non c’è niente di certo riguardo questo ultimo punto. Ciò che conta è che AMD/ATI sta investendo moltissimo nel suo business, come dimostra anche la recente fondazione di “The Foundry Company”, la divisione che si occuperà della produzione di semiconduttori. Abbiamo raggiunto un obiettivo importante con il recente annuncio della nostra strategia Asset Smart, che trasformerà sia AMD sia l’industria grazie a ‘The Foundry Company’. AMD avrà accesso alle tecnologie produttive migliori senza l’obbligo di effettuare ingenti investimenti. Pensiamo di chiudere questa joint venture all’inizio del 2009“, ha dichiarato Dirk Meyer, presidente e CEO di AMD.

Quel che è certo, i consumatori potranno senz’altro guadagnarci qualcosa da tutto questo! 😀






Radeon HD 4850: il grande ritorno alla ribalta di ATI!

8 08 2008

Diciamocelo: dopo la tanto acclamata fusione tra ATI e AMD, avvenuta ormai quasi due anni fa, il mercato delle schede video è stato sempre dominato da Nvidia, che è sempre riuscita a sfornare schede competitive che stracciavano la concorrenza. D’altro canto, le schede e le cpu AMD/ATI hanno subito un taglio drastico dei prezzi, che in parte ha compensato la mancanza di forti prestazioni. Ma ora la situazione sembra destinata a cambiere drasticamente (e a quanto pare, tutto a vantaggio degli utenti 😀 ).

Proprio in questi giorni, infatti, è arrivata sul mercato la nuova Radeon HD 4850, che pur non essendo l’ammiraglia della nuova linea 4800, ha parecchi punti a suo favore che faranno passare parecchi appassionati dalla parte di AMD. Sicuramente il punto primario è il prezzo: è da dire subito che questo si aggira intorno ai 180 euro (ma riuscite anche a trovarle a 150 euro, vedi RomaCC). Vediamo innanzitutto le caratteristiche tecniche principali di questa nuova GPU:

  • Bus: 256 bit
  • Core: 625 MHz
  • Ram: GDDR3 (di solito a partire da 512 MB), a 2 GHz
  • Stream Processor: 800
  • Antialiasing: fino a 24x
  • Video Processing Engine: UVD (Universal Video Decoder), con supporto VC-1, H.254 e Mpeg 2 in hardware
  • Funzione PIP (Picture in Picture)
  • HDMI con supporto audio multicanale

A quanto pare, a fare la differenza è l’elevato numero di Stream Processor, merito è del processo produttivo a 55 nanometri, che ha permesso ad ATI un sensibile incremento rispetto ai 320 utilizzati nelle soluzioni RV670 delle schede Radeon HD 3800; questo implica che, in puri termini di stream processor, le nuove schede Radeon HD 4850 e Radeon HD 4870 integrano un numero maggiore di unità di elaborazione rispetto ad una scheda Radeon HD 3870 X2, avvantaggiata dall’essere dotata di due GPU che operano in parallelo. Se si vanno a vedere le prestazioni di questa scheda, vedete che sono a dir poco incredibili per questa fascia di prezzo: pensate che viene superata la 9800 GTS, ben più costosa, nonchè tutte le schede precedenti di ATI, almeno in configurazione singola (ovviamente, la GX2 di Nvidia e le X2 di ATI rimangono imbattute, pur costando enormemente di più). E’ possibile usare l’antialiasing fino a 24x, proprio grazie a tutta questa “potenza”. La memoria usata sulla 4850 è di tipo GDDR3, mentre la sorella maggiore 4870 monterà GDDR5 (spinte sino a 3,6 GHz).

Altra funzionalità molto utile è l’implementazione di 2 circuiti UVD, che si occupano della gestione dei contenuti video, sia standard che alta definzione. Nelle schede Radeon HD 4800, ATI ha adottato un sistema di gestione dei flussi video di tipo parallelo: ogni GPU può quindi processare due video contemporaneamente, inviandone quindi l’output ad un singolo display per funzionalità di tipo picture in picture. La multimedialità di queste schede continua con la porta HDMI, che riesce a gestire anche stream audio multicanale fino a 7.1, compresi Dolby True HD e DTS HD (i formati audio in alta definizione che si trovano nei Blu-ray disk), fino a 24 bit e 192 KHz. Al pari di NVIDIA, anche AMD sta sviluppando tecniche che permettano di utilizzare la potenza elaborativa delle proprie GPU per le operazioni di conversione dei flussi video in altri formati: al posto di dipendere dalla potenza elaborativa del processore montato nel proprio sistema è possibile sfruttare gli stream processors in parallelo, ottenendo significative riduzioni nei tempi di conversione dei filmati ad alta definizione.

Ciò che attira di più senz’altro è l’eventuale sfruttamento della tecnologia multi-Gpu Crossfire: i risultati che si ottengono mettendone “solo” due (ricordo che il massimo sarebbe 4) in parallelo sono mostruosi, e addirittura viene superata la 9800GX2, spendendo meno di 400 euro!!! Senza contare la possibilità di creare schede multi-GPU, della serie X2, che montano due processori sulla stessa scheda!

In attesa di visionare le nuove release di Nvidia, previste per settembre, posso dire che 4850 e la sorella maggiore 4870 sono le schede più interessanti sul mercato! Se avessi l’opportunità di sfruttarle (sfortunatamente dovrei cambiare tutto il pc per farlo, dato che è un pò vecchiotto), certamente mi rivolgerei verso ATI, in questo momento… anche se forse aspetterei settembre per vedere cosa combinerà la concorrenza. E’ certo che Nvidia avrà parecchi problemi a proporre una scheda competitiva sul mercato, non tanto per quanto riguarda le prestazioni, ma sopratutto riguardo al prezzo.

Qui sotto trovate una serie di tabelle e grafici che ho trovato su HwUpgrade: i test effettuati con Crysis (in very high, anche se risulta ingestibile da tutte le schede nella comparativa, dato il basso numero di fotogrammi al secondo generati) e Unreal Tournament 3 (sicuramente più valido), e sotto la tabella comparativa con tutte le caratteristiche della serie 4800 e delle altre schede presenti sul mercato. Per tutti gli altri test, vi rimando all’articolo del sito, disponibile a questo indirizzo. Se siete curiosi, date un’occhiata anche a questa recensione… da paura: ATI Radeon HD 4870 X2: R700 in preview

Modello GeForce
8800
GeForce
9800
GeForce
GTX
GeForce
GTX
Radeon
HD
Radeon
HD
Radeon
HD
Radeon
HD
Radeon
HD
Versione GT GTX 260 280 3850 3870 3870X2 4850 4870

GPU

G92 G92 GT200 GT200 RV670 RV670 R680 RV770 RV770

Processo produttivo (nm)

65 65 65 65 55 55 55 55 55

Stream processor

112 128 192 240 320 320 2×320 800 800

Clock   stream processor (MHz)

1.500 1.688 1.242 1.296 670 775 825 625 750

Clock chip (MHz)

600 675 576 602 670 775 825 625 750

Numero di ROPs/ render back-ends

16 16 28 32 16 16 2×16 16 16

Texture filtering    unit

56 64 64 80 16 16 2×16 40 40

Bus di memoria    (in bit)

256 256 448 512 256 256 2×256 256 256

Dotazione memoria in MB

512-256 512 896 1024 512 512 2×512 512 512

Clock memoria (GHz)

1,8 2,2 1,998 2,214 1,65 2,25 1,8 2 3,6

Banda memoria (GB/s)

57,6 79,4 112 141,7 52,8 72 2×57,6 64 115,2
Video processing engine VP2 VP2 VP2 VP2 UVD UVD UVD UVD2 UVD2




Larrabee: Intel vuole entrare nel settore GPU

18 01 2008
Intel, a quanto pare, ha deciso di entrare nel settore delle GPU: in occasione della conference call di commento ai risultati Intel Larrabeefinanziari registrati nel 2007, la società ha anticipato alcune interessanti informazioni su Larrabee, la prossima generazione di GPU che Intel sta sviluppando. I primi prototipi saranno messi a disposizione degli sviluppatori di software alla fine del 2008, mentre dovrebbero essere messi in commercio per la fine del 2009 – inizi 2010, a quanto pare in coincidenza dell’uscita delle previste architetture DirectX 11 (che rottura questi aggiornamenti!); la nuova architettura dovrebbe essere utilizzata per soluzioni GPGPU, ossia per uso del processore della scheda grafica per scopi diversi dalla creazione di un’immagine tridimensionale, come per esempio il calcolo della fisica.




Classifica interattiva CPU e GPU 2007

31 12 2007
Tom’s Hardware pubblica una bellissima classifica di ben 91 tra processori AMD e Intel per desktop (usciti negli ultimi anni, e cioè dalle CPU Classificaper socket 939 di AMD e tutte le CPU Intel per socket 775), testati con 35 benchmark in ambiente Windows Vista. I benchmark utilizzati permettono di vedere se, sotto stress e in determinate condizioni operative, la CPU riesce a cavarsela sempre o meno: utile strumento anche per vedere come se la cava il processore che avete acquistato qualche tempo fa.
Per quanto riguarda le GPU, i test sono stati eseguiti su 55 schede grafiche, sia ATI che Nvidia, rispettivamente dalla serie X800 e 6000. I benchmark utilizzati sono giochi che richiedono molta potenza alla GPU (Battlefield 2142, Dark Messiah of Might and Magic, Doom 3, Microsoft Flight Simulator X, Elder Scrolls IV: Oblivion, Prey, Warhammer: Mark of Chaos, 3DMark06); come si vede, in effetti, manca un test con l’ultimo Crysis, dato che non era disponibile al momento dell’uscita di questo database. Risulta comunque uno strumento molto utile.
Sono consultabili anche le classifiche relative agli anno passati, nel caso in cui si disponesse di una scheda grafica un pò più datata.




DirectX 10.1: tra Shader Model 4.1, XAudio 2 ed altro, come destreggiarsi?

12 12 2007

Secondo quanto dichiarato da Richard Huddy, WW developer relations manager di ADirectXMD, le DirectX 10.1 saranno il primo e ultimo aggiornamento che subiranno le nuove librerie Microsoft. Esse implementeranno qualche piccola novità, e non solo dal punto di vista grafico. Diamo un’occhiata!

 

FUNZIONI GRAFICHE: tra le nuove funzionalità implementate c’è in particolare lo shader model 4.1, evoluzione di quello 4.0 attualmente implementato nelle API DirectX 10 e sfruttato a livello hardware dalle recenti architetture NVIDIA della famiglia G80 (serie 8000) e ATI della serie R600 (serie 2000). Facendo una panoramica delle caratteristiche grafiche implementate nelle DirectX 10.1, si trovano:

  • un aggiornamento dello shader model (shader model 4.1);
  • i TextureCube Arrays, indicizzabili dinamicamente nel codice shader;
  • l’abilità di selezionare l’MSAA sample pattern per una risorsa fra una gamma di pattern, ritrovare la corrispondente posizione sample;
  • l’abilità di renderizzare texture block-compressed;
  • maggiore flessibilità con rispetto della copia delle risorse;
  • supporto al blending su tutti i formati unorm e snorm.

Leggendo su Tom’s Hardware (riporto testualmente le parole, visto il linguaggio tecnico utilizzato), si apprende che “di certo le prestazioni degli shader sono state migliorate. Gli shader saranno in grado di restituire dati a qualsiasi MRT (multiple render target) o buffer con una rispettiva modalità blending per target. I vertex shader ora possono avere 32 valori a 128-bit anziché 16. Sono state aggiunte istruzioni “livello di dettaglio” (LOD) che permettono di utilizzare tecniche di filtro personalizzate. Gather4 permette un blocco 2×2 di valori di texture non filtrate anziché un singolo filtro bilineare. L’ultimo dei cambiamenti di rilievo agli shader model 4.1 è l’uso di cube map arrays. Nel mondo dei giochi, questo è uno dei cambiamenti più significativi, e permette di utilizzare tecniche efficienti d’illuminazione globale che possono restituire effetti come il “ray trace”, inclusa l’illuminazione indiretta, il color bleeding, le soft shadow, la rifrazione e riflessione glossy di elevata qualità in una scena“. Qui sotto potete vedere uno screenshot di una nuova demo che AMD ha sviluppato per mostrare l’uso delle cube maps per l’illuminazione globale. A destra è attivo mentre a sinistra non lo è. Notate le ombre e la mescolanza dei colori per sfera con la tecnica abilitata.

AMD - cube maps per l'illuminazione globale

 

 

Le DX 10.1 trasformano in specifiche obbligatorie alcune strumenti opzionali di precisione e formattazione dalle Direct3D 10. Due formati di dati ora richiesti sono il floating point 32 (FP32) e l’integer 16 (Int16). Lo 0.5 ULP (Unit in the Last Place) è stato a sua volta ribadito nelle DX 10.1. Sia l’FP32 per il filtro di texture a 128-bit che l’Int16 64-bit integer pixel blending obbligheranno i produttori hardware a integrare nei propri prodotti la compatibilità DX 10.1. Un ULP maggiormente rigoroso permette dal canto suo un arrotondamento dei numeri in virgola mobile persino più preciso. Nella pratica, gli sviluppatori che necessitano di specifici formati o arrotondamenti più precisi si potranno affidare all’hardware senza dispendiosi giri di codice. Questo è vero anche per il blending, le DX 10.1 supporteranno tutti i formati unorm e snorm; l’hardware compatibile DX 10.1 supporterà tutto ciò a prescindere dal produttore. L’Antialiasing (AA) sarà a sua volta revisionato. Il Multisampling antialiasing (MSAA) sotto D3D 10.1 richiede ora un requisito minimo di quattro sample per pixel per 32 bit e 64-bit (MSAA 4x). AMD/ATI e Nvidia finora hanno mantenuto i rispettivi modelli di sampling AA sotto segreto per ragioni di concorrenza. Le DirectX 10.1 in ogni caso apporteranno molti miglioramenti che riguardano i pattern di sampling AA. Il primo è la standardizzazione dei sample AA per il campionamento a 2x, 4x, 8x e 16x. Le DirectX 10.1 permettono inoltre un coverage masking del pixel e una lettura e scrittura multi-sample direttamente nel buffer. Ora il colore e la definizione può essere controllato direttamente dallo shader e poi può essere manipolato attraverso un predeterminato programma pixel shader AA. Sono lontani i giochi dell’HDR senza AA. Gli sviluppatori possono determinare quali lavorano meglio con le loro applicazioni, gestendo un filtro AA personalizzato, un “edge detecting AA” e persino programmare il proprio filtro AA personalizzato per adaptive e temporal AA“.

 

DirectX10 vs 9 DirectX 9 vs 10
Confronto tra DX 9 e DX 10 (clicca sulle immagini per ingrandire)

 

Ovviamente, per poter sfruttare a pieno queste nuove funzioni, sarà necessario dotarsi di schede in grado di supportarle. Nvidia è stata la prima a introdurre gli Shader Model 3.0. Le DX 10.1 sono una strada per il futuro e AMD/ATI è questa volta la prima a supportarle. Microsoft, sempre d’accordo con le realtà del settore grafico e gli sviluppatori, ha rilasciato nel corso degli anni diversi aggiornamenti per le proprie librerie grafiche, tanto da raggiungere la forma attuale nelle DirectX 9.0c, capaci di supportare lo Shader Model 3.0. Con le DirectX 10, invece, gli aggiornamenti si limiteranno alla versione 10.1. E questa è una bella notizia per tutti i possessori di schede DX10, soprattutto perchè sembra che le DirectX 10.1, supportate in hardware dalle schede Radeon HD 3800 e integrate nel Service Pack 1 di Vista in arrivo nel 2008, sono un aggiornamento minore delle DirectX 10 e a quanto pare non essenziale. Insomma, chi ha una scheda grafica DirectX 10 non deve cambiare la sua soluzione con una DirectX 10.1 per godersi gli ultimi giochi; al massimo, se ci sarà l’esigenza di cambiare scheda video, ma sarà solo perchè si vogliono prestazioni velocistiche maggiori!

 

NUOVE API AUDIO: qui comincia il brutto (o quasi). A differenza dei possessori delle schede video, non sarà così semplice invece per chi possiede schede audio. All’interno di queste nuove API, infatti, si trova una nuova tecnologia nel mondo PC, chiamata XAudio 2, già presentata da Microsoft con la propria console Xbox 360. XAudio 2 dovrebbe, a regime, andare a sostituire il compianto DirectSound 3D come driver audio principale del sistema. Tra le caratteristiche principali di XAudio 2, ci sono:

  • supporto ad audio multicanale e surround;
  • framework programmabile per la gestione di effetti DSP;
  • ottimizzazione per architetture multicore.

La cosa positiva è che tramite queste novità si dovrebbe finalmente risolvere il problema che impedisce l’attivazione di effetti EAX o DirectSound 3D in Windows Vista (problema che nel caso di EAX era piuttosto fastidioso per coloro che avevano comprato una bella Creative SoundBlaster X-Fi, che non poteva essere sfruttata con il nuovo sistema operativo di Microsoft). Tuttavia c’è sempre un inghippo: come si legge sul n°136 di Giochi per il mio computer di dicembre, il problema è che, almeno a giudicare dalle prime beta test della nuova libreria, non significa che le X-Fi potranno suonare tutte le casse del vostro impianto multicanale (che sia 5.1, 6.1 o 7.1). Infatti, per sfruttare gli effetti ambientali, i giochi dovranno essere programmati per sfruttare le XAudio 2! XAudio 2, quindi, non sarebbero altro che un’alternativa alle librerie OpenAL (che funzionano su Vista), sulle quali Creative ed altri produttori di schede audio hanno investito. Insomma, i programmatori si troveranno davanti a 2 alternative (un pò come nel settore Home-Entertainment ci si trova di fronte a HD-Dvd e Blu-Ray), e saranno loro a dover scegliere. Quali sono vantaggi e svantaggi?

  • XAudio 2: è sopportata dalla Xbox 360, quindi aiuta molto gli sviluppatori di titoli multipiattaforma, sia per la console di Microsoft sia per pc. Di contro, il loro utilizzo rendono inutili i potenti DSP montati su schede come la X-Fi;
  • OpenAL: sfruttano alla grande l’accelerazione dell’audio in hardware, e cominciano or ora ad essere sfruttate anche nelle console come la PlayStation 3 (con ovvie semplificazioni per le conversioni).

Insomma, tutto è da vedere. Il mercato delle schede audio è più piccolo rispetto al passato, principalmente a causa dell’aumento di qualità dei DSP integrati nelle schede madri. Sebbene queste ultime, in futuro, potranno sfruttare XAudio 2 (con molta probabilità), è anche vero che produttori di schede audio dedicate come Creative e Asus che hanno investito molto sulle OpenAL possono dare una spinta verso queste ultime.

Creative X-Fi

 

CONCLUSIONI:come al solito, la situazione è caotica. Ogni novità spinge gli appassionati (come il sottoscritto) a programmare i futuri upgrade in funzione dei cambiamenti che ci si aspetta nelle tecnologie, e facendo ipotesi e scommesse sul loro effettivo sfruttamento da parte degli sviluppatori di videogiochi. E come sempre, a volte si vince, e a volte si perde! Personalmente, non posso che consigliare questo:

  • tutti i possessori di schede video DX 10 non devono preoccuparsi delle nuove DX 10.1: nonostante le novità che implementano, certamente non costringeranno ad un upgrade forzato, soprattutto per il fatto che ci vorrà un pò di tempo prima che verranno sfruttate dai giochi. Per chi invece deve fare un’upgrade, forse è meglio aspettare qualche mesetto, tanto le schede video usciranno entro i primi 4-5 mesi dell’anno prossimo;
  • sul fronte schede audio, invece, la situazione non è ancora definita. Per ora è solo una scommessa. Secondo il mio parere, chi necessita di una scheda audio può tranquillamente fare un’upgrade senza problemi, sempre per il solito motivo che ho detto prima: se XAudio 2 diventerà uno standard, ci vorrà molto, molto tempo prima che venga effettivamente sfruttato dai giochi!

Una precisazione: chi ancora ha Windows XP, e non intende passare a Vista (come il sottoscritto), se ne può ampiamente fregare delle DX 10.1 con tutto quello che porta, visto che XP non le può sfruttare!!!! 😀

DirectX





Nvidia GeForce 9 annunciata!

6 12 2007

Famiglia di nuove schede video Nvidia alle porte! Stando a quanto annunciato in rete da Digitimes, NVIDIA vorrebbe lanciare GeForce Logonel corso di febbraio 2008 una nuova famiglia di schede video di fascia alta, che dovrebbero essere battezzate GeForce 9. Ancora poco si sa sulle caratteristiche. Per ora queste sono le informazioni che si conoscono: supporto le API DirectX 10.1, Shader Model 4.1 e processo produttivo da 65nm, lo stesso delle schede GeForce 8800GT introdotte di recente.

Il motivo per cui si deduce che la scheda D9E (questa la sigla con cui viene identificata la futura GeForce 9) andrà a collocarsi nella fascia top di gamma è presto detto: D sta per Desktop, 9 per nona generazione e, importante, E per Enthusiast, ovvero l’utenza più esigente. Le novità annunciate da Digitimes in ogni caso non finiscono qui, in quanto viene indicata anche una possibile presentazione di una famiglia di schede “Performance”, indicate dal nome in codice D9P. Queste ultime andranno a collocarsi nella fascia media e sarà realizzata utilizzando il processo produttivo a 55nm. Per maggiorni informazioni, bisogna aspettare il CES di Las Vegas…

 





Hybrid-SLI: ecco la prima scheda madre con questa tecnologia

3 12 2007

Un pò di tempo fa, avevo parlato del progetto SLI Hybrid, con il quale Nvidia vuole unire l’uso di normali schede Nvidiavideo dedicate all’accellerazione 3D con chip IGP, al fine di preservare consumi energetici, rumore e produzione di calore. Ora, finalmente, cominciano a farsi vedere le prime schede madri che supportano questa tecnologia (ancora non in commercio). Il chipset montato, indicato con il nome di MCP78S, integrerà supporto alla tecnologia PureVideo HD, grazie alla quale sarà possibile delegare alla GPU alcune delle operazioni richieste per la riproduzione di flussi video ad alta definizione, sgravando da questo la CPU montata nel sistema. ovviamente, il chipset integra la tecnologia Hybrid SLI permette di abbinare il sottosistema video integrato ad una scheda video dedicata su connessione PCI Express, a patto ovviamente che sia dotata di GPU NVIDIA, in modo simile a quanto avviene con una tradizionale configurazione SLI dove vengono abbinate due schede video identiche. In questo caso la finalità è quella di utilizzare la GPU dedicata solo quando effettivamente richiesto dal tipo di applicazione, quindi farla entrare in funzione senza riavvio del sistema nel momento in cui si esegue un gioco.

Parlando della scheda madre, questa monta un Socket AM2+ per processori AMD, in formato ATX: la scheda monta due Slot PCI Express 16x meccanici, ciascuno dotato di connessione PCI Express 8x elettrica nel momento in cui sono montate due schede video GeForce con tecnologia SLI. Tra i due Slot si vede il voluminoso dissipatore di calore che ricopre completamente il chipset. Il chipset MCP78S integra un controller per gestire 6 connettori SATA. Hybrid SLI ha due differenti modalità di funzionamento:

  • Power Saving Mode: in questa modalità, il consumo energetico sarà ridotto al minimo, grazie alla disattivazione della GPU montata sulla scheda video PCI Express;
  • Max Performance Mode: in questo caso, il core grafico integrato aiuta le GPU per incrementare le prestazioni, così come accade con tradizionale tecnologia SLI. Ovviamente, il chip integrato non ha una grande potenza, quindi la maggior parte del lavoro sarà svolto dalla GPU.

Ovviamente, questa tecnologia, con molta probabilità, non limiterà la possibilità di montare due potenti GPU nel sistema, per realizzare un performante sistema SLI: in questo caso, peraltro, si avrebbero ben 3 processori grafici, ma che permetterebbero di aumentare sicuramente le performance (certo, non in maniera stratosferica, proprio per la potenza del chip integrato), e ovviamente ridurre i consumi! Queste schede dovevano essere disponibili per la fine del 2007, ma probabilmente le vedremo sul mercato per gli inizi del prossimo anno.

Scheda madre

 

Scheda madre 2





La Radeon HD 2900XT non accelera i contenuti in HD

7 10 2007

Fra le caratteristiche che devono essere più apprezzate nelle schede video moderne, ci deve essere il supporto per Ruby ATIl’accelerazione della decodifica dei formati in alta definizione H.264, VC-1 e chi più ne ha, più ne metta: in parole povere, si cerca di avere l’accelerazione in hardware della decodifica di Blu-Ray e HD-Dvd (tra l’altro). Questo permette di liberale la cpu da questo tipo di calcoli, permettendo la visione dei suddetti anche su pc con CPU non dual core, per lo meno senza rallentamenti di sorta.

Oggi solo le GPU Nvidia GeForce della serie 8000 e le Radeon 2400 e 2600. La cosa più strana è che le 2900 XT, il top della serie 2000 di ATI, non offrono questa caratteristica. Insomma, se spendete 380 euro per questa scheda video, non avete l’accelerazione hardware dei contenuti in alta definizione! Sembra un controsenso, ma è proprio così! Molte riviste specializzate e molti siti internet hanno erroneamente riportato che le Radeon 2900 godevano di tale spendida caratteristica. E non solo questi, ma anche molti partners di AMD/ATI, come Sapphire, hanno rischiato di finire nei negozi con questa indicazione sulla confezione del prodotto, tratti in inganno dall a documentazione poco chiara inviata dall’azienda.

Non si riesce a capire questa decisione della società. Alcuni siti su internet, come AnandTech, ipotizzano che la sezione di accelerazione UVD (Universal Video Decoder) sia presente ma non funzionante, probabilmente per qualche problema hardware. Comunque sono solo ipotesi. Giuseppe Amato, Technical Director Sales & Marketing di AMD EMEA, ha dichiarato che “il processore grafico ATI Radeon HD 2900XT è stato realizzato per soddisfare le esigenze di un’utenza gamers che richiede il massimo numero di unified shaders e per permettere agli appassionati di giocare con i titoli più recenti e con altissime prestazioni grafiche. Per rispondere alle richieste di questo segmento di mercato, si è preferito quindi dare priorità ad altri requisiti rimuovendo il blocco UVD (Universal Video Decoder), che è invece presente nei processori mainstream ATI Radeon 2400 e 2600 perchè diretti a una utenza che richiede prestazioni multimediali non così spinte come gli utenti della Radeon HD 2900XT.“(Fonte: Giochi per il mio computer n°132 – Agosto 2007). Questa decisione mi sembra proprio una cavolata. Infatti questa mancanza limita l’utilizzo della scheda, soprattutto per quello che costa: se qualcuno voleva assemblare un HTPC, con lo scopo di giocare anche alla grande, si ritroverà deluso. A questo punto, meglio puntare su Nvidia, se si vuole una scheda di fascia medio-alta: a parità di prezzo, una 8800 GTS con 640 MB di memoria onboard (contro i 512 della 2900XT) ha le stesse prestazioni, se non addirittura maggiori, e anche il supporto all’accelerazione hardware dei contenuti HD.

 

Radeon 2900XT





Tecnologia SLI Ibrido: NVIDIA dichiara guerra ai consumi!

15 09 2007

La guerra ai consumi continua, e dopo i processori, anche sul fronte schede video si preannunciano belle novità! Tutti coloro che giocano e fanno grafica 3D sanno che i consumi delle schede video possono arrivare a livelli molto alti, soprattutto nelle SLI Logoconfigurazioni più spinte: una scheda di fascia alta come la GeForce 8800 GTX riesce ad arrivare anche a 130 Watt in full load (cioè in piena attività) e oltre i 60 Watt in idle (cioè senza fare niente)! Il problema, più che altro, è legato al consumo in fase idle: perchè consumare così tanto, se in effetti si sta usando solo internet o magari scrivendo un documento o guardando un film in dvd?

Finalmente qualcuno se l’è chiesto! Nvidia, con il progetto SLI Hybrid, vuole unire l’uso di normali schede video dedicate all’accellerazione 3D con chip IGP, cioè processori grafici integrati all’interno dei chipset delle motherboard. Un sistema SLI Hybrid punta ad affidare l’animazione di video e desktop 2D (comprese quelli animati come le interfacce Aero o Beryl) ai lenti IGP, più che adeguati a questo compito “semplice”, attivando le GeForce presenti nel sistema solo quando si avviano giochi 3D: il tutto attraverso due modalità di funzionamento, dette rispettivamente Power Saving Mode e Max Performance Mode. In questo modo, si preservano consumi energetici, rumore e produzione di calore! Quindi, anche se avete schede potentissime, o magari sofisticati sistemi SLI Dual GPU, non dovrete più preoccuparvi della bolletta, quando usate il pc senza giocare!

Nvidia SLI Hybrid - hsli_power

 

Nvidia SLI Hybrid - hsli_perf

 

Fonte: Xbitlabs

Questa tecnologia sarà disponibile sia per desktop che per notebook a partire dalla fine del 2007, e saranno proprio questi ultimi a trarne i maggiori vantaggi, a beneficio della durata delle batterie. Pensandoci bene, una soluzione simile era già stata adottata in alcuni notebook, ma si trattava solo di casi disparati. Ora stiamo parlando di qualcosa che potenzialmente diventerà uno standard. Speriamo che anche ATI ed Intel propongano al più presto qualcosa di simile (le indiscrezioni riportano che questa tecnologia sarà integrata da ATI nei prodotti con chipset RS780), e che un sistema simile venga adottato anche nei chipset degli altri competitors. A dire la verità, sono convinto che sarà proprio così, o almeno lo spero vivamente!