Nvidia ha recentemente presentato un insieme di strumenti per l’intelligenza artificiale, pensando agli utenti in possesso di hardware RTX. Queste nuove soluzioni permettono agli utenti di installare modelli AI direttamente sui propri computer, semplificando il processo di generazione di testo, immagini e codice. La società ha fornito queste informazioni attraverso un post sul proprio blog.
Indice dei contenuti
NIM Microservices: un’innovazione per il settore
Il progetto denominato NIM Microservices consente a chi possiede schede grafiche RTX, comprese le recenti series 50, di installare applicazioni AI con facilità. Tra le funzionalità offerte ci sono strumenti per l’elaborazione del linguaggio, l’estrazione di dati da PDF e la visione computerizzata. Ad esempio, per trascrivere una lezione, è sufficiente scaricare l’applicazione Parakeet. Per migliorare la qualità vocale delle registrazioni, gli utenti possono optare per Studiovoice. Questi modelli AI locali sono progettati per funzionare anche sui computer AI dedicati di prossima generazione della linea Nvidia DGX.
Questa innovazione ha un impatto significativo, poiché i modelli locali riducono i costi a lungo termine. Utilizzando servizi basati su cloud come ChatGPT di OpenAI o Gemini di Google, gli utenti si trovano spesso di fronte a limiti su quanto possono generare prima di dover pagare. Sebbene per la maggior parte delle operazioni quotidiane i limiti non vengano superati, in situazioni specifiche i costi possono accumularsi rapidamente. I modelli locali, invece, offrono maggiore libertà nei contenuti generabili e assicurano che i dati rimangano sul dispositivo, una comodità fondamentale quando si lavora con informazioni sensibili.
Nvidia: un protagonista indiscusso nell’AI
Nvidia è considerata una delle aziende più influenti nel campo dell’intelligenza artificiale. I suoi chip sono fondamentali per lo sviluppo di molti modelli AI, inclusi quelli creati da OpenAI, Google e DeepSeek. Questa centralità nel panorama tecnologico ha portato Nvidia a raggiungere traguardi economici notevoli, con una valutazione che ha toccato i 3 trilioni di dollari lo scorso anno, per poi stabilizzarsi attorno ai 2,8 trilioni.
Gestire tutte le operazioni AI tramite server dislocati a migliaia di chilometri è complesso e costoso. Per questo motivo, molte aziende stanno implementando funzionalità AI più leggere direttamente sui dispositivi. Per esempio, l’iPhone 16 e il Google Pixel 9 possono generare immagini e riassumere testi senza bisogno di consultare risorse cloud. Anche console come la PlayStation 5 Pro stanno integrando l’AI per migliorare la qualità visiva dei giochi, e si vocifera che la prossima Nintendo Switch 2 seguirà questa stessa strada. Aziende produttrici di chip come Nvidia, AMD e Qualcomm si stanno muovendo in questa direzione, mirando a sviluppare hardware in grado di gestire un numero crescente di compiti AI per attrarre investimenti dal grande settore tecnologico.
Novità per i gamer: Project G-Assist
Oltre ai nuovi strumenti per l’intelligenza artificiale, Nvidia ha rivelato novità anche per il mondo dei videogiocatori. È stato introdotto un assistente AI sperimentale all’interno dell’app Nvidia, chiamato Project G-Assist. Questa funzione offre supporto per ottimizzare app e giochi, consentendo di eseguire diagnosi in tempo reale e ricevere suggerimenti per migliorare le prestazioni. Per chi cerca di massimizzare il framerate in titoli come Assassin’s Creed Shadows, G-Assist risulta fondamentale. Inoltre, è disponibile un plugin per Google Gemini che offre risposte immediate su domande relative alla scelta del miglior personaggio in Apex Legends o suggerimenti per giocare a Diablo 4.
Queste innovazioni si pongono come un passo ulteriore nella continua evoluzione dell’industria tecnologica, affrontando le esigenze pratiche di utenti e sviluppatori in un contesto sempre più competitivo.