slide

Helyszíni mesterséges intelligencia támogatása all-flash NVMe-tárhellyel és NVIDIA® RTX™ GPU-s gyorsítási lehetőségekkel

Ahogy az adatszuverenitás és a számítási teljesítmény stratégiai megkülönböztető tényezőkké válnak az AI-t alkalmazó vállalatok számára, a privát, helyszíni AI-infrastruktúra iránti igény is folyamatosan növekszik. Erre a változásra válaszolva a QNAP® Systems, Inc., a számítási-, a hálózatépítési- és a tárolási megoldások vezető innovátora ma bemutatta a QAI-h1290FX-et, egy újgenerációs peremhálózati AI-tárolószervert, melyet a nagy méretű nyelvi modellek (LLM) privát telepítéséhez, az adatlekérésre alapozott generálást (RAG) használó keresőmotorokhoz és a generatív AI-alkalmazások támogatására terveztek.

Szerverszintű AMD EPYC™ feldolgozással, NVIDIA® RTX™ GPU-s gyorsítás támogatásával és tizenkét U.2 NVMe/SATA SSD-foglalattal a QAI-h1290FX egy nagy teljesítményű, helyszíni AI-infrastruktúrát kínál azoknak a szervezeteknek, melyeknek alacsony késleltetésű következtetésre, teljes adatvédelemre és működési ellenőrzésre van szükségük – anélkül, hogy a felhőre támaszkodnának.

A QNAP ZFS-alapú QuTS hero operációs rendszerével a QAI-h1290FX vállalati szintű adatintegritást, közel korlátlan pillanatképet és beágyazott deduplikációt biztosít. Támogatja a konténerek és a virtuális gépek natív GPU-hozzáférését a Container Stationön és a Virtualization Stationön keresztül. Az IT-csapatok, fejlesztők és kutatócsoportok hatékonyan futtathatnak következtetési modelleket, generatív AI-alkalmazásokat és RAG-folyamatokat, teljes mértékben kontrollálva a teljesítményt és az erőforrás-elosztást.

A QAI-h1290FX előtelepített AI-eszközök válogatott gyűjteményét tartalmazza, mint az AnythingLLM, az OpenWebUI és az Ollama, melyek lehetővé teszik a privát LLM-munkafolyamatok gyors telepítését. További AI-alkalmazások, mint a Stable Diffusion, a ComfyUI, az n8n és a vLLM is integrálásra kerültek a funkcionalitás bővítéséért. Ez lehetővé teszi a felhasználóknak, hogy gyorsan építsenek helyszíni AI-platformokat és automatizálják a munkafolyamatokat egy biztonságos, skálázható és teljesen ellenőrzött környezetben.

„A QAI-h1290FX megfelel a helyszíni AI-infrastruktúra iránti növekvő igényeknek” – mondta Oliver Lam, a QNAP termékmenedzsere. „Szerettük volna megszüntetni a GPU-val rendelkező munkaállomás felépítésével, az eszközök telepítésével és a komplex környezetek konfigurálásával járó nehézségeket.” A QAI-h1290FX-szel a felhasználók azonnal telepíthetik és futtathatják AI-alapú modelljeiket – teljes kontrollal rendelkezve adataik felett, és felhőre történő támaszkodás nélkül.”

A QAI-h1290FX főbb jellemzői

  • All-flash tároló-architektúra: a tizenkét U.2 NVMe/SATA SSD-foglalat lehetővé teszi az ultragyors I/O-t a gyakran használt AI-modellek futtatásához és az adatstreameléséhez.
  • 16 magos AMD EPYC™ 7302P processzor: 32 szálas, szerverszintű számítási teljesítményt biztosít – ideális AI-következtetéséhez, virtualizációhoz és erőforrás-igényes párhuzamos munkaterhelésekhez.
  • GPU-kompatibilis architektúra: Támogatja az opcionális NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation Edition GPU-t, amely akár 96 GB GPU-memóriával érkezik és támogatja a CUDA®, a TensorRT™ és a Transformer Engine gyorsítást – jelentősen növelve a teljesítményt a helyszíni LLM-következtetésekhez, képgeneráláshoz és a mélytanulási munkaterhelésekhez.
  • Konténerbe helyezett AI-környezet és GPU erőforrás-menedzsment: Támogatja a Dockert és az LXD-t intuitív GPU-allokálással. A felhasználók gyorsan elindíthatják az AI-eszközöket a beépített AI-alkalmazásközponton keresztül, és GPU-erőforrásokat oszthatnak ki parancssori konfigurálás nélkül.
  • Teljesen helyi telepítés felhőtől való függés nélkül: Futtass teljesen helyszíni AI-alapú chatasszisztenseket, dokumentum-keresőmotorokat vagy tudásbázisokat! Tartsd házon belül a bizalmas adatokat, miközben felgyorsítod az AI-munkafolyamatokat!
  • Nagy sebességű hálózat és skálázható architektúra: két 25 GbE-s és két 2,5 GbE-s porttal érkezik. A PCIe-foglalatok támogatják az opcionális 100 GbE-s frissítést. Kompatibilis a QNAP JBOD-bővítőegységeivel a nagy kiterjedésű AI-adattároláshoz.

Kiemelt felhasználási területek

  • Belső AI-asszisztensek/helyszíni chat interfészek
    Telepíts beszélgetésalapú AI-interfészeket a tudáskereséshez, az alkalmazottak továbbképzéséhez és az irányelvekkel kapcsolatos kérdések megválaszolásához – mindezt teljes kontrollal!
  • Vállalati RAG Search
    Használd ki a privát RAG-folyamatokat a szerződések, jelentések és belső dokumentumok közötti gyors, kontextusalapú kereséshez!
  • Képgenerálás kreatív csapatoknak
    Használd a Stable Diffusiont vagy a ComfyUI-t az AI-alapú tervezési munkafolyamatokhoz és vizuális tartalmak létrehozásához!
  • AI-alapú IT-automatizálás
    Használd az n8n-t a következtetési feladatok automatizálására, tartalomgyártásra vagy értesítések küldésére – zökkenőmentesen integrálva az AI-t az üzleti folyamatokba!

A QAI-h1290FX-szel a QNAP egy praktikus, nagy teljesítményű utat kínál a generatív AI telepítéséhez a vállalat fizikai határain belül. Legyen szó jogi, HR, kreatív vagy IT-műveletekről, segíti a csapatokat a gyorsabb haladásban, a követelményeknek való megfelelésben, és az AI-stratégia teljes mértékű irányításának fenntartásában, közvetlenül a peremhálózaton.

További információért és a QNAP NAS-ok teljes kínálatának megtekintéséért, kérjük, látogass el a www.qnap.com oldalra.