LogoLogo
Contacta
  • Plataforma
    • Identitat i valors
      • Visió de Sercom Public Cloud
      • Presència i Cobertura Geogràfica
      • Els 3 Pilars
    • Arquitectura i infraestructura
      • Disseny de la Infraestructura
      • Xarxa i Connectivitat
      • Organització Física i Lògica
      • Model de Redundància i Protecció
    • Capacitats i productes
      • Catàleg de Productes
      • Tipologies de Màquines Virtuals
      • Matriu de Disponibilitat dels Serveis
    • Seguretat i compliment
      • Model de Seguretat
      • Compliment normatiu i Certificacions
    • Model operatiu i econòmic
      • Facturació i Subscripció
      • Gestió i Suport
  • PRODUCTES
    • Nuvulus Virtual Machine
    • Nuvulus Managed Kubernetes
    • Nuvulus AI Server
    • Nuvulus Backup
    • Nuvulus Block Storage
    • Nuvulus Object Storage
    • Nuvulus Virtual Firewall
    • Nuvulus WAF
    • Nuvulus Load Balancer
    • Nuvulus CDN
    • Nuvulus DNS
    • Nuvulus Cloud Connect
  • Serveis
    • Els nostres serveis
    • Serveis Gestionats
    • Serveis Professionals
    • Suport a Usuaris (CAU)
  • Integració de Sistemes (VAR)
Powered by GitBook
LogoLogo

SOBRE NOSALTRES

  • Historia
  • Equip
  • Treballa amb nosaltres
  • La Vermuteria

RECURSOS

  • Compliment Normatiu
  • Productes
  • Preus

INFORMACIÓ LEGAL

  • Avís Legal
  • Política de Privacidad
  • Política de cookies
  • Política de seguretat de la informació

CONTACTE

  • Contacta amb nosaltres

© Sercom Public Cloud

On this page
  • Descripció
  • Punts forts
  • Detall del producte
  • Productes relacionats
  • FAQs
  • Casos d’ús
  1. PRODUCTES

Nuvulus AI Server

Descripció

Nuvulus AI Server és una plataforma dissenyada per executar càrregues de treball d’alta intensitat computacional, especialment enfocada en la IA generativa i els models de llenguatge de gran escala (LLMs). Proporciona instàncies amb CPU i GPU dedicades, sense compartició amb altres clients, garantint un rendiment previsible i màxim aprofitament dels recursos.

Aquest servei és ideal per a entorns que requereixen una infraestructura optimitzada per a l’entrenament i inferència de models d’intel·ligència artificial, visió per computador, processament d’imatges mèdiques, simulacions avançades i altres aplicacions que demanden alta potència de càlcul.

Punts forts

  • Potència dedicada amb GPUs: Nodes físics amb acceleració NVIDIA per a càrregues intensives d’IA.

  • Entorn preparat per a models: Compatible amb CUDA, PyTorch, TensorFlow, Jupyter i altres eines de l’ecosistema.

  • Zero overprovisioning: Infraestructura amb recursos dedicats: instàncies amb CPU i GPU exclusives per client, sense compartició amb altres entorns.

  • Alta capacitat d’emmagatzematge: Discos NVMe de baixa latència per accelerar càrregues intensives.

  • Ubicació sobirana: Servidors en data centers locals amb seguretat i compliment normatiu garantit.

Detall del producte

Model
CPU
GPU
RAM
Emmagatzematge
Connexió pública

GPU-L40S

AMD EPYC 9334 (32C/64T)

NVIDIA L40S (48GB VRAM)

256GB

2 × 4TB NVMe

Fins a 10Gbps

GPU-H100

AMD EPYC 9334 (32C/64T)

NVIDIA H100 (80GB HBM3)

512GB

2 × 8TB NVMe

Fins a 10Gbps

Productes relacionats

  • Nuvulus Virtual Machine – Per a entorns de preparació o inferència.

  • Nuvulus Object Storage – Emmagatzematge massiu d’imatges, vídeos o datasets d’entrenament.

  • Nuvulus Block Storage – Alt rendiment per a processos de càlcul i lectura/escriptura intensiva.

FAQs

Quina diferència hi ha entre l’edició Training i l’edició Inference?

L’edició Training està equipada amb GPUs orientades a entrenament de models grans (com A100 o H100), mentre que la Inference usa GPUs més eficients per servir models ja entrenats, amb latència mínima i cost òptim.

Puc escollir quina GPU utilitzar?

Sí. Oferim diversos tipus de GPUs (NVIDIA A100, H100, L40, etc.) i pots triar segons la càrrega: entrenament profund, inferència ràpida o simulació científica.

Està pensat per funcionar amb entorns com PyTorch o TensorFlow?

Sí. Les imatges base estan optimitzades per a frameworks d’IA com PyTorch, TensorFlow, JAX, Hugging Face, entre altres, i es poden personalitzar.

Com es gestiona l’accés a les dades durant l’entrenament?

Pots muntar volums de Block Storage o accedir a Object Storage (compatibles amb S3) com a font de dades, amb alta velocitat i persistència assegurada.

Casos d’ús

  • Entrenament de models d’intel·ligència artificial: Ideal per data scientists i enginyers de machine learning que necessiten acceleració amb GPUs.

  • Inferència a gran escala: Execució eficient de models ja entrenats per aplicacions de visió per computador, LLMs (Large Language Models), detecció de fraus, etc.

  • Simulacions complexes i càlcul intensiu: Útil en sectors com enginyeria, biotecnologia o finances per resoldre problemes numèrics massius.

  • Desenvolupament de productes IA com a servei: Suport a plataformes SaaS que ofereixen funcionalitats basades en IA (chatbots, assistents intel·ligents, etc.).

  • Processament de dades massives: Workloads tipus ETL i anàlisi de dades previ a l’entrenament o segmentació d’informació.

Last updated 2 days ago