Este caderno foi traduzido automaticamente para torná-lo acessível a mais pessoas, por favor me avise se você vir algum erro de digitação..
O Whisper é um sistema de reconhecimento automático da fala (ASR) treinado em 680.000 horas de dados supervisionados multilíngues e multitarefa coletados da web. O uso de um conjunto de dados tão grande e diversificado leva a uma maior robustez dos sotaques, do ruído de fundo e da linguagem técnica. Além disso, permite a transcrição em vários idiomas, assim como a tradução desses idiomas para o inglês.
A fim de instalar esta ferramenta é melhor criar um novo ambiente anaconda.
!conda create -n whisper
Entramos no meio ambiente
!conda activate whisper
Instalamos todos os pacotes necessários
!conda install pytorch torchvision torchaudio pytorch-cuda=11.6 -c pytorch -c nvidia
Finalmente, instalamos o whisper
.
!pip install git+https://github.com/openai/whisper.git
E nós atualizamos ffmpeg
.
!sudo apt update && sudo apt install ffmpeg
Importamos “Whisper”.
import whisper
Selecionamos o modelo, quanto maior, melhor ele fará.
# model = "tiny"
# model = "base"
# model = "small"
# model = "medium"
model = "large"
model = whisper.load_model(model)
Fizemos o upload do áudio deste antigo (1987) anúncio da Micro Machines.
audio_path = "MicroMachines.mp3"
audio = whisper.load_audio(audio_path)
audio = whisper.pad_or_trim(audio)
mel = whisper.log_mel_spectrogram(audio).to(model.device)
_, probs = model.detect_language(mel)
print(f"Detected language: {max(probs, key=probs.get)}")
options = whisper.DecodingOptions()
result = whisper.decode(model, mel, options)
result.text
Continuar lendo
- DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language ModelsVocê já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de “alucinação” no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco… criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
- QLoRA: Efficient Finetuning of Quantized LLMsOlá a todos! 🤗 Hoje vamos falar sobre QLoRA, a técnica que permitirá que você torne seus modelos de linguagem mais eficientes e mais rápidos ⏱️. Mas como ela faz isso? 🤔 Bem, primeiro ele usa a quantização para reduzir o tamanho dos pesos do modelo, o que economiza memória e velocidade 📈. Em seguida, ele aplica LoRA (Low-Rank Adaptation), que é como uma superpotência que permite que o modelo se adapte a novos dados sem precisar treinar novamente do zero 💪. E, para mostrar como isso funciona na prática, deixo um exemplo de código que fará você dizer “Eureka!” 🎉 Vamos mergulhar no mundo do QLoRA e descobrir como podemos tornar nossos modelos mais inteligentes e eficientes! 🤓
- GPTQ: Accurate Post-Training Quantization for Generative Pre-trained TransformersAtenção, desenvolvedores! 🚨 Você tem um modelo de idioma que é muito grande e pesado para o seu aplicativo? 🤯 Não se preocupe, o GPTQ está aqui para ajudá-lo! 🤖 Esse algoritmo de quantização é como um assistente que faz com que bits e bytes desnecessários desapareçam, reduzindo o tamanho do seu modelo sem perder muita precisão. 🎩 É como compactar um arquivo sem perder a qualidade – é uma maneira de tornar seus modelos mais eficientes e rápidos! 🚀
- llm.int8() – 8-bit Matrix Multiplication for Transformers at ScalePrepare-se para economizar espaço e acelerar seus modelos! 💥 Nesta postagem, vou explorar o método llm.int8(), uma técnica de quantização que permite reduzir o tamanho dos seus modelos de aprendizado de máquina sem sacrificar muito a precisão. 📊 Isso significa que você poderá treinar e implantar modelos maiores e mais complexos em menos espaço e com menos consumo de recursos! 💻 Vamos ver como usar llm.int8() com transformadores para quantizar um modelo e torná-lo mais eficiente, sem perder a essência de sua inteligência artificial. 🤖
- LLMs quantizationImagine que você tem um modelo de linguagem gigante que pode responder a qualquer pergunta, desde a capital da França até a receita perfeita de brownies! 🍞️🇫🇷 Mas o que acontece quando esse modelo precisa caber em um dispositivo móvel? 📱 É aí que entra a quantização! 🎉 Essa técnica nos permite reduzir o tamanho dos modelos sem sacrificar sua precisão, o que significa que podemos desfrutar da inteligência artificial em nossos dispositivos móveis sem a necessidade de um supercomputador. 💻 É como espremer um elefante em uma caixa de sapatos, mas sem esmagar o elefante! 🐘😂