Fundamentos de RAG
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
Apaixonado por Inteligência Artificial e programação. Nesta página você deixará de ver como usar a IA e começará a aprender como criar IA e muito mais em português
Espero que goste!
Entre e aprenda tudo o que puder
Posts
Projetos
Dockers IA
Tips
Datasets
2024-09/atualidade
AI Tech lead. Liderança técnica, supervisão de desenvolvimento e colaboração na gestão correta de projetos técnicos. Proposta de novas soluções.
2022-09/2024-09
Machine Learning Engineer, desenvolvimento de algoritmos de visão para veículo autônomo e liderança no sistema RAG para obter informações de documentação
2017-10/2022-07
Desenvolvimento de IA, HW e FW.
2014-05/2017-10
2013-01/2014-05
Ajuda o gerente de projeto na gestão de projetos. Desenvolvimento de HW e FW.
Esqueça o Ctrl+F! 🤯 Com RAG, seus documentos responderão às suas perguntas diretamente. 😎 Tutorial passo a passo com Hugging Face e ChromaDB. Liberte o poder da IA (e impressione seus amigos)! 💪
😠 Seus commits parecem escritos em uma língua alienígena? 👽 Junte-se ao clube! 😅 Aprenda Conventional Commits em Python e pare de tortura sua equipe com mensagens enigmáticas. git-changelog e commitizen serão seus novos melhores amigos. 🤝
Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de alucinação no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco... criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀
Python
Pytorch
HugginFace
Langchain
Ollama
Astro
Docker
Terminal
Git
Conda
Python
Pytorch
HugginFace
Langchain
Ollama
Astro
Docker
Terminal
Git
Conda
Astro
Ollama
Langchain
HugginFace
Pytorch
Python
Conda
Git
Terminal
Docker
Astro
Ollama
Langchain
HugginFace
Pytorch
Python
Conda
Git
Terminal
Docker
Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.
Acenda-me
Espaço para calcular a memória necessária para executar um modelo
Seu colega Filipao está escrevendo código que é difícil de ler? Compartilhe com ele este formatador de código que eu mostro neste post! Venha e aprenda a formatar o código para torná-lo mais compreensível. Não vamos resolver os problemas de Filipao, mas pelo menos você não sofrerá ao lê-lo
Declare redes neurais de forma clara no Pytorch
Dataset com piadas em inglês
Dataset com traduções de inglês para espanhol
Dataset com filmes e séries da Netflix