Fundamentos de RAG
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
O melhor monitoramento de CPU em tempo real
Monitore a temperatura da sua CPU diretamente da barra superior do Ubuntu com CPU Monitor. Esta aplicação está totalmente integrada com o último sistema operacional Ubuntu. Obtenha atualizações em tempo real e otimize suas tarefas. Baixe agora e assuma o controle da saúde da sua CPU!
O CPU Monitor é uma ferramenta intuitiva projetada para desenvolvedores e profissionais que precisam acompanhar a saúde de sua CPU em tempo real. Ele se integra perfeitamente à barra superior do Ubuntu, fornecendo informações essenciais ao alcance de suas mãos.
Clone o repositório com https
git clone https://github.com/maximofn/cpu_monitor.git
ou com ssh
git clonehttps://github.com/maximofn/cpu_monitor.git
Verifique se você não tem nenhum ambiente venv ou conda instalado
if [ -n "$VIRTUAL_ENV" ]; thendeactivatefiif command -v conda &>/dev/null; thenconda deactivatefi
Agora instale as dependências
sudo apt install lm-sensors
Responda yes a todas as perguntas
sudo sensors-detect
Instalação do psensor
sudo apt install psensor
Execute este script
./add_to_startup.sh
Depois de reiniciar seu computador, o CPU Monitor será iniciado automaticamente.
Se você gostou, considere dar ao repositório uma estrela ⭐, mas se você realmente gostou, considere me comprar um café ☕.
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
😠 Seus commits parecem escritos em uma língua alienígena? 👽 Junte-se ao clube! 😅 Aprenda Conventional Commits em Python e pare de tortura sua equipe com mensagens enigmáticas. git-changelog e commitizen serão seus novos melhores amigos. 🤝
Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de alucinação no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco... criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
Espaço para calcular a memória necessária para executar um modelo
Seu colega Filipao está escrevendo código que é difícil de ler? Compartilhe com ele este formatador de código que eu mostro neste post! Venha e aprenda a formatar o código para torná-lo mais compreensível. Não vamos resolver os problemas de Filipao, mas pelo menos você não sofrerá ao lê-lo
Declare redes neurais de forma clara no Pytorch
Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.
Dataset com piadas em inglês
Dataset com traduções de inglês para espanhol
Dataset com filmes e séries da Netflix