Whisper

👂 Você não pode fofocar o que as pessoas no primeiro dizem? Com o whisper, você pode não apenas fazer isso, mas também traduzir, se quiser. Faça login e saiba como

Open In Colab

Este caderno foi traduzido automaticamente para torná-lo acessível a mais pessoas, por favor me avise se você vir algum erro de digitação..

O Whisper é um sistema de reconhecimento automático da fala (ASR) treinado em 680.000 horas de dados supervisionados multilíngues e multitarefa coletados da web. O uso de um conjunto de dados tão grande e diversificado leva a uma maior robustez dos sotaques, do ruído de fundo e da linguagem técnica. Além disso, permite a transcrição em vários idiomas, assim como a tradução desses idiomas para o inglês.

A fim de instalar esta ferramenta é melhor criar um novo ambiente anaconda.

Code:

!conda create -n whisper

Entramos no meio ambiente

Code:

!conda activate whisper

Instalamos todos os pacotes necessários

Code:

!conda install pytorch torchvision torchaudio pytorch-cuda=11.6 -c pytorch -c nvidia

Finalmente, instalamos o whisper.

Code:

!pip install git+https://github.com/openai/whisper.git

E nós atualizamos ffmpeg.

Code:

!sudo apt update && sudo apt install ffmpeg

Importamos “Whisper”.

Code:

import whisper

Selecionamos o modelo, quanto maior, melhor ele fará.

Code:

# model = "tiny"

# model = "base"

# model = "small"

# model = "medium"

model = "large"

model = whisper.load_model(model)

Fizemos o upload do áudio deste antigo (1987) anúncio da Micro Machines.

Code:

audio_path = "MicroMachines.mp3"

audio = whisper.load_audio(audio_path)

audio = whisper.pad_or_trim(audio)

Code:

mel = whisper.log_mel_spectrogram(audio).to(model.device)

Code:

_, probs = model.detect_language(mel)

print(f"Detected language: {max(probs, key=probs.get)}")

Output:

Detected language: en

Code:

options = whisper.DecodingOptions()

result = whisper.decode(model, mel, options)

Code:

result.text

Output:

"This is the Micro Machine Man presenting the most midget miniature motorcade of micro machines. Each one has dramatic details, terrific trim, precision paint jobs, plus incredible micro machine pocket play sets. There's a police station, fire station, restaurant, service station, and more. Perfect pocket portables to take any place. And there are many miniature play sets to play with and each one comes with its own special edition micro machine vehicle and fun fantastic features that miraculously move. Raise the boat lift at the airport, marina, man the gun turret at the army base, clean your car at the car wash, raise the toll bridge. And these play sets fit together to form a micro machine world. Micro machine pocket play sets so tremendously tiny, so perfectly precise, so dazzlingly detailed, you'll want to pocket them all. Micro machines and micro machine pocket play sets sold separately from Galoob. The smaller they are, the better they are."

Continuar lendo
  • DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models
    Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de “alucinação” no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco… criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
  • QLoRA: Efficient Finetuning of Quantized LLMs
    Olá a todos! 🤗 Hoje vamos falar sobre QLoRA, a técnica que permitirá que você torne seus modelos de linguagem mais eficientes e mais rápidos ⏱️. Mas como ela faz isso? 🤔 Bem, primeiro ele usa a quantização para reduzir o tamanho dos pesos do modelo, o que economiza memória e velocidade 📈. Em seguida, ele aplica LoRA (Low-Rank Adaptation), que é como uma superpotência que permite que o modelo se adapte a novos dados sem precisar treinar novamente do zero 💪. E, para mostrar como isso funciona na prática, deixo um exemplo de código que fará você dizer “Eureka!” 🎉 Vamos mergulhar no mundo do QLoRA e descobrir como podemos tornar nossos modelos mais inteligentes e eficientes! 🤓
  • GPTQ: Accurate Post-Training Quantization for Generative Pre-trained Transformers
    Atenção, desenvolvedores! 🚨 Você tem um modelo de idioma que é muito grande e pesado para o seu aplicativo? 🤯 Não se preocupe, o GPTQ está aqui para ajudá-lo! 🤖 Esse algoritmo de quantização é como um assistente que faz com que bits e bytes desnecessários desapareçam, reduzindo o tamanho do seu modelo sem perder muita precisão. 🎩 É como compactar um arquivo sem perder a qualidade – é uma maneira de tornar seus modelos mais eficientes e rápidos! 🚀
  • llm.int8() – 8-bit Matrix Multiplication for Transformers at Scale
    Prepare-se para economizar espaço e acelerar seus modelos! 💥 Nesta postagem, vou explorar o método llm.int8(), uma técnica de quantização que permite reduzir o tamanho dos seus modelos de aprendizado de máquina sem sacrificar muito a precisão. 📊 Isso significa que você poderá treinar e implantar modelos maiores e mais complexos em menos espaço e com menos consumo de recursos! 💻 Vamos ver como usar llm.int8() com transformadores para quantizar um modelo e torná-lo mais eficiente, sem perder a essência de sua inteligência artificial. 🤖
  • LLMs quantization
    Imagine que você tem um modelo de linguagem gigante que pode responder a qualquer pergunta, desde a capital da França até a receita perfeita de brownies! 🍞️🇫🇷 Mas o que acontece quando esse modelo precisa caber em um dispositivo móvel? 📱 É aí que entra a quantização! 🎉 Essa técnica nos permite reduzir o tamanho dos modelos sem sacrificar sua precisão, o que significa que podemos desfrutar da inteligência artificial em nossos dispositivos móveis sem a necessidade de um supercomputador. 💻 É como espremer um elefante em uma caixa de sapatos, mas sem esmagar o elefante! 🐘😂
Resumen
Whisper
Nombre del artículo
Whisper
Descripción
👂 Você não pode fofocar o que as pessoas no primeiro dizem? Com o whisper, você pode não apenas fazer isso, mas também traduzir, se quiser. Faça login e saiba como
MaximoFN
MaximoFN
MaximoFN
Publisher Logo