Alfred

Assistente pessoal para o terminal, para todos os sistemas operacionais e idiomas

Instalação

Requerimentos do sistema para a instalação

	
sudo apt update
sudo apt install -y python3 python3-pip git
Copy

Instalar pelo instalador

Daqui, se você tiver um sistema baseado em debian, você pode usar o instalador alfred.deb

Instalar do código fonte

Instalar requerimentos python

	
pip install halo
pip install --upgrade openai
Copy

Criar pasta de código

	
sudo rm -r /usr/src/alfred
cd /usr/src
git clone -b branch_v1.3 https://github.com/maximofn/alfred.git
cd /usr/src/alfred
sudo find . -depth -not -name '*.py' -delete
Copy

Criar um link simbólico para /usr/bin/alfred

	
echo 'alias alfred="/usr/src/alfred/alfred.py"' >> ~/.bashrc
Copy

Reinicie o bash

	
source ~/.bashrc
Copy

API KEY de OpenAI

Logue-se no OpenAI e obtenha sua chave de API OpenAI

open ai api key

Uso

Você pode perguntar a Alfred perguntas específicas digitando alfred seguido de sua pergunta

>

Ou escreva alfred, intro e continue fazendo perguntas a ele. Para terminar, digite exit

>

Apóie

Se você gostou, considere dar ao repositório uma estrela ⭐, mas se você realmente gostou, considere me comprar um café ☕.

BuyMeACoffee

Continuar lendo

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

Você já conversou com um LLM e ele lhe respondeu algo que parece ter bebido café de máquina a noite toda? 😂 Isso é o que chamamos de alucinação no mundo dos LLMs! Mas não se preocupe, pois não é que seu modelo de linguagem esteja louco (embora às vezes possa parecer isso 🤪). A verdade é que os LLMs podem ser um pouco... criativos quando se trata de gerar texto. Mas graças ao DoLa, um método que usa camadas de contraste para melhorar a viabilidade dos LLMs, podemos evitar que nossos modelos de linguagem se transformem em escritores de ficção científica 😂. Nesta publicação, explicarei como o DoLa funciona e mostrarei um exemplo de código para que você possa entender melhor como tornar seus LLMs mais confiáveis e menos propensos a inventar histórias. Vamos salvar nossos LLMs da loucura e torná-los mais úteis! 🚀

Últimos posts -->

Você viu esses projetos?

Subtify

Subtify Subtify

Gerador de legendas para vídeos no idioma que você desejar. Além disso, coloca uma legenda de cor diferente para cada pessoa

Ver todos os projetos -->

Quer aplicar IA no seu projeto? Entre em contato!

Quer melhorar com essas dicas?

Últimos tips -->

Use isso localmente

Os espaços do Hugging Face nos permitem executar modelos com demos muito simples, mas e se a demo quebrar? Ou se o usuário a deletar? Por isso, criei contêineres docker com alguns espaços interessantes, para poder usá-los localmente, aconteça o que acontecer. Na verdade, se você clicar em qualquer botão de visualização de projeto, ele pode levá-lo a um espaço que não funciona.

Ver todos os contêineres -->

Quer aplicar IA no seu projeto? Entre em contato!

Você quer treinar seu modelo com esses datasets?

short-jokes-dataset

Dataset com piadas em inglês

opus100

Dataset com traduções de inglês para espanhol

netflix_titles

Dataset com filmes e séries da Netflix

Ver mais datasets -->