Gerar vídeos com Wan2.1-T2V-14B e Provedores de Inferencia

Gerar vídeos com Wan2.1-T2V-14B e Provedores de Inferencia Gerar vídeos com Wan2.1-T2V-14B e Provedores de Inferencia

Provedores de Inferência da Hugging Facelink image 18

Aviso: Este post foi traduzido para o português usando um modelo de tradução automática. Por favor, me avise se encontrar algum erro.

Está claro que o maior hub de modelos de inteligência artificial é a Hugging Face. E agora estão oferecendo a possibilidade de fazer inferência de alguns de seus modelos em provedores de GPUs serverless

Um desses modelos é Wan-AI/Wan2.1-T2V-14B, que no momento de escrever este post, é o melhor modelo de geração de vídeo open source, como se pode ver na Artificial Analysis Video Generation Arena Leaderboard video generation arena leaderboard

Se nós olharmos para seu modelcard, podemos ver à direita um botão que diz Replicate. Wan2.1-T2V-14B modelcard

Provedores de inferêncialink image 19

Se formos na página de configuração dos Inference providers veremos algo assim: Provedores de Inferência Onde podemos clicar no botão com uma chave para inserir a API KEY do provedor que quisermos usar, ou deixar selecionada a opção com dois pontos. Se escolhermos a primeira opção, será o provedor quem nos cobrará pela inferência, enquanto na segunda opção será a Hugging Face quem nos cobrará pela inferência. Então, faça o que for melhor para você.

Inferência com Replicatelink image 20

No meu caso, obtive uma API KEY do Replicate e a adicionei a um arquivo chamado .env, onde armazenarei as API KEYS e que não deve ser enviado para o GitHub, GitLab ou o repositório do seu projeto. O .env deve ter este formato

HUGGINGFACE_TOKEN_INFERENCE_PROVIDERS="hf_aL...AY"
REPLICATE_API_KEY="r8_Sh...UD"```
Onde `HUGGINGFACE_TOKEN_INFERENCE_PROVIDERS` é um token que você precisa obter a partir do [Hugging Face](https://huggingface.co/settings/tokens) e `REPLICATE_API_KEY` é a API KEY do Replicate, que você pode obter a partir do [Replicate](https://replicate.com/account/api-tokens).

Leitura das chaves APIlink image 21

A primeira coisa que temos que fazer é ler as chaves API do arquivo .env

	
import os
import dotenv
dotenv.load_dotenv()
REPLICATE_API_KEY = os.getenv("REPLICATE_API_KEY")
HUGGINGFACE_TOKEN_INFERENCE_PROVIDERS = os.getenv("HUGGINGFACE_TOKEN_INFERENCE_PROVIDERS")
Copy

Logging no hub da Hugging Facelink image 22

Para poder usar o modelo de Wan-AI/Wan2.1-T2V-14B, como está no hub de Hugging Face, precisamos fazer login.

	
from huggingface_hub import login
login(HUGGINGFACE_TOKEN_INFERENCE_PROVIDERS)
Copy

Cliente de Inferêncialink image 23

Agora criamos um cliente de inferência, temos que especificar o provedor, a API KEY e, neste caso, além disso, vamos estabelecer um tempo de timeout de 1000 segundos, porque por padrão é de 60 segundos e o modelo demora bastante para gerar o vídeo.

	
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="replicate",
api_key=REPLICATE_API_KEY,
timeout=1000
)
Copy

Geração do vídeolink image 24

Já temos tudo para gerar nosso vídeo. Usamos o método text_to_video do cliente, passamos o prompt e dizemos qual modelo do hub queremos usar, se não, ele usará o que está por padrão.

	
video = client.text_to_video(
"Funky dancer, dancing in a rehearsal room. She wears long hair that moves to the rhythm of her dance.",
model="Wan-AI/Wan2.1-T2V-14B",
)
Copy

Salvando o vídeolink image 25

Por fim, salvamos o vídeo, que é do tipo bytes, em um arquivo no nosso disco.

	
output_path = "output_video.mp4"
with open(output_path, "wb") as f:
f.write(video)
print(f"Video saved to: {output_path}")
Copy
	
Video saved to: output_video.mp4

Vídeo geradolink image 26

Este é o vídeo gerado pelo modelo

Continuar lendo

Últimos posts -->

Você viu esses projetos?

Subtify

Subtify Subtify

Gerador de legendas para vídeos no idioma que você desejar. Além disso, coloca uma legenda de cor diferente para cada pessoa

Ver todos os projetos -->

Quer aplicar IA no seu projeto? Entre em contato!

Quer melhorar com essas dicas?

Últimos tips -->

Use isso localmente

Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.

Flow edit

Flow edit Flow edit

Edite imagens com este modelo de Flow. Baseado em SD3 ou FLUX, você pode editar qualquer imagem e gerar novas

FLUX.1-RealismLora

FLUX.1-RealismLora FLUX.1-RealismLora
Ver todos os contêineres -->

Quer aplicar IA no seu projeto? Entre em contato!

Você quer treinar seu modelo com esses datasets?

short-jokes-dataset

Dataset com piadas em inglês

opus100

Dataset com traduções de inglês para espanhol

netflix_titles

Dataset com filmes e séries da Netflix

Ver mais datasets -->