QNAP spinge sull’AI on-premises con una nuova piattaforma compatta, sicurezza e costi contenuti

QNAP
(Immagine:: QNAP )

Con il crescente impiego dell’intelligenza artificiale nei contesti industriali, commerciali e pubblici, le imprese si trovano di fronte a una nuova sfida: costruire infrastrutture tecnologiche locali capaci di sostenere carichi AI, rispettare normative sulla protezione dei dati e contenere i costi operativi. In risposta a questa esigenza, QNAP ha presentato l’Edge AI Storage Server, un sistema compatto e integrato pensato per portare le applicazioni AI direttamente in ambienti locali, anche fuori dal data center.

La nuova piattaforma combina storage, accelerazione GPU, virtualizzazione e strumenti di gestione in un’unica soluzione, supportando attività ad alta intensità computazionale come l’inferenza di modelli linguistici, l’analisi video o la gestione di dati provenienti da ambienti produttivi e IoT. Basata sull’ecosistema di QNAP, la soluzione consente di eseguire macchine virtuali e container con carichi AI o modelli LLM open source come LLaMA, DeepSeek, Qwen o Gemma, sfruttando strumenti di distribuzione automatizzata come Ollama. L’infrastruttura è ideale per aziende del settore industriale, sanitario, finanziario o retail che vogliono implementare sistemi AI in locale, senza passare dal cloud.

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.