Fundamentos de RAG
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
Requerimentos do sistema para a instalação
sudo apt updatesudo apt install -y python3 python3-pip git
Daqui, se você tiver um sistema baseado em debian, você pode usar o instalador alfred.deb
Instalar requerimentos python
pip install halopip install --upgrade openai
Criar pasta de código
sudo rm -r /usr/src/alfredcd /usr/srcgit clone -b branch_v1.3 https://github.com/maximofn/alfred.gitcd /usr/src/alfredsudo find . -depth -not -name '*.py' -delete
Criar um link simbólico para /usr/bin/alfred
echo 'alias alfred="/usr/src/alfred/alfred.py"' >> ~/.bashrc
Reinicie o bash
source ~/.bashrc
Logue-se no OpenAI e obtenha sua chave de API OpenAI
Você pode perguntar a Alfred perguntas específicas digitando alfred seguido de sua pergunta
Ou escreva alfred, intro e continue fazendo perguntas a ele. Para terminar, digite exit
Se você gostou, considere dar ao repositório uma estrela ⭐, mas se você realmente gostou, considere me comprar um café ☕.
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
😠 Seus commits parecem escritos em uma língua alienígena? 👽 Junte-se ao clube! 😅 Aprenda Conventional Commits em Python e pare de tortura sua equipe com mensagens enigmáticas. git-changelog e commitizen serão seus novos melhores amigos. 🤝
Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de alucinação no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco... criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
Espaço para calcular a memória necessária para executar um modelo
Seu colega Filipao está escrevendo código que é difícil de ler? Compartilhe com ele este formatador de código que eu mostro neste post! Venha e aprenda a formatar o código para torná-lo mais compreensível. Não vamos resolver os problemas de Filipao, mas pelo menos você não sofrerá ao lê-lo
Declare redes neurais de forma clara no Pytorch
Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.
Dataset com piadas em inglês
Dataset com traduções de inglês para espanhol
Dataset com filmes e séries da Netflix