Pular para o conteúdo principal
BlogContêineres (Kubernetes, Docker)Transcodificação em escala e cargas de trabalho de IA com clusters de Kubernetes de GPU

Transcodificação em escala e cargas de trabalho de IA com clusters de Kubernetes GPU

gpusForKubernetesClusters-bloghero

A interseção da orquestração de contêineres e da computação GPU representa uma poderosa fronteira para as organizações que buscam otimizar seu desempenho. Executar clusters Kubernetes gerenciados em GPUs não é apenas uma escolha técnica - é uma decisão estratégica que pode transformar a maneira como as empresas lidam com suas cargas de trabalho mais exigentes.

A demanda por cargas de trabalho GPU é impulsionada pela explosão de iniciativas de IA e ML, pelo aumento da demanda por processamento de dados em tempo real e pela necessidade crescente de processamento e streaming de mídia de alto desempenho.  

Os aplicativos de mídia e streaming estão constantemente se adaptando para atender à demanda. Às vezes, um aumento no tráfego ou na demanda é previsível, como a transmissão ao vivo de um grande evento esportivo, mas nem sempre. Os aplicativos nativos de borda utilizam o Kubernetes para garantir que a infraestrutura subjacente de um aplicativo possa ser dimensionada para atender à demanda de pico, mantendo o desempenho esperado e sem pagar por recursos de infraestrutura que, de outra forma, não seriam utilizados.

A transcodificação de alto desempenho é um componente essencial de um aplicativo de mídia dimensionável, especialmente para streaming ao vivo. Agora, estamos tornando isso mais fácil do que nunca para nossos clientes com pools de nós GPU em clusters gerenciados do Kubernetes.

Anunciando o suporte GPU para o Linode Kubernetes Engine: Adicionando GPUs NVIDIA RTX 4000 Ada Generation aos clusters K8s

Temos o prazer de anunciar que o Linode Kubernetes Engine agora é compatível com as GPUs NVIDIA RTX 4000 Ada Generation. Nossos planos de GPU RTX 4000 Ada Generation são otimizados para casos de uso de mídia, com cada placa contendo mecanismos dedicados de codificação 2x, decodificação 2x e codificação 1x AV1, mas são dimensionados para uma variedade de cargas de trabalho e aplicativos. Os planos do RTX 4000 Ada Generation começam em US$ 0,52 por hora para 1 GPU, 4 CPUs e 16 GB de RAM.

Começar é simples: ao configurar seu cluster do Kubernetes, selecione seu plano GPU preferido e a quantidade do pool de nós a ser adicionado ao cluster.

Observação: para isso, é necessário selecionar uma região onde as GPUs são oferecidas. As GPUs RTX 4000 Ada Generation estão disponíveis nas seguintes regiões:

  • Chicago, EUA (us-ord)
  • Seattle, EUA (us-sea)
  • Expansão de Frankfurt (de-fra-2)
  • Paris, FR (fr-par)
  • Osaka, JP (jp-osa)
  • Expansão de Cingapura (sg-sin-2)

Caminho mais rápido para o valor do Kubernetes

Para os desenvolvedores que desejam reduzir a complexidade da criação e do gerenciamento de cargas de trabalho no Kubernetes, nossa recém-lançada Akamai App Platform também pode ser executada em GPUs. A combinação da implantação acelerada de K8s que a App Platform oferece com a poderosa computação de GPUs permite a tempestade perfeita para aplicações de alto desempenho, como mídia e IA, com melhor custo, desempenho e escala. 

Para experimentar você mesmo, crie uma conta e navegue em nossa documentação do Kubernetes para começar, ou entre em contato com nossos consultores de computação em nuvem para obter assistência. 

Observação: no momento, a App Platform está disponível apenas na versão Beta, portanto, será necessário ativá-la por meio da nossa página do programa Betaantes que ela fique visível para implantação em seu cluster do Kubernetes.

Comentários

Deixe uma resposta

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados com *