Fundamentos de RAG
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
A melhor ferramenta de rastreamento de GPU em tempo real
Monitore o desempenho, a temperatura e o uso da memória da sua GPU diretamente da barra de menu do Ubuntu com GPU Monitor. Este aplicativo fácil de usar e eficiente suporta várias GPUs e está totalmente integrado com o sistema operacional Ubuntu mais recente. Obtenha atualizações em tempo real e otimize suas tarefas de jogos ou desenvolvimento. Baixe agora e assuma o controle da saúde da sua GPU hoje!
GPU Monitor é uma ferramenta intuitiva projetada para desenvolvedores, jogadores e profissionais que precisam manter um olho no desempenho e na saúde de sua placa gráfica em tempo real. Ele se integra perfeitamente com a barra de menu do Ubuntu, fornecendo informações essenciais ao alcance de sua mão.
Clone com https
git clone https://github.com/maximofn/gpu_monitor.git
ou com ssh
git clone git@github.com:maximofn/gpu_monitor.git
Verifique se você não tem nenhum ambiente venv ou conda instalado
if [ -n "$VIRTUAL_ENV" ]; thendeactivatefiif command -v conda &>/dev/null; thenconda deactivatefi
Agora instale as dependências
sudo apt-get install python3-gi python3-gi-cairo gir1.2-gtk-3.0sudo apt-get install gir1.2-appindicator3-0.1pip3 install nvidia-ml-py3pip3 install pynvml
Execute este script
./add_to_startup.sh
Depois de reiniciar seu computador, o GPU Monitor será iniciado automaticamente.
Se você gostou, considere dar ao repositório uma estrela ⭐, mas se você realmente gostou, considere me comprar um café ☕.
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
😠 Seus commits parecem escritos em uma língua alienígena? 👽 Junte-se ao clube! 😅 Aprenda Conventional Commits em Python e pare de tortura sua equipe com mensagens enigmáticas. git-changelog e commitizen serão seus novos melhores amigos. 🤝
Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de alucinação no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco... criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
Espaço para calcular a memória necessária para executar um modelo
Seu colega Filipao está escrevendo código que é difícil de ler? Compartilhe com ele este formatador de código que eu mostro neste post! Venha e aprenda a formatar o código para torná-lo mais compreensível. Não vamos resolver os problemas de Filipao, mas pelo menos você não sofrerá ao lê-lo
Declare redes neurais de forma clara no Pytorch
Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.
Dataset com piadas em inglês
Dataset com traduções de inglês para espanhol
Dataset com filmes e séries da Netflix