Minhas aventuras usando uma IA localmente
===
Recentemente comecei a usar uma IA localmente com o [ollama](
https://ollama.com/), após o pacote instalado por exemplo no Ubuntu ou em qualquer outro Linux mas conhecido faça apenas
```bash
curl -fsSL
https://ollama.com/install.sh | sh
```
de acordo com as instruções do próprio site.
Após instalado podemos simplesmente rodar
```bash
ollama run llma3
```
se for aprimeira vez ele irá fazer o download do modelo "llma3" e abrirá o chat. Diverta-se.
## Configurando uma função fish para seu terminal conversar com você
Caso tenha um fish configurado como seu terminal padrão, faça um arquivo de funções, irei chamar de `llama_run`, no endereço `$HOME/.config/fish/functions/llma_run.fis`. O conteúdo será
```fish
function llama_run
set -l __args $argv
ollama run llama3 $__args
end
```
Após reentrada no seu terminal ou usando o comando `exec $SHELL` pode simplesmente chamar a conversa com sua IA digitando
```bash
llama_run Pode digitar diretamente qualquer coisa, se for pergunta lembre de usar \? ao invés de ? pura
```
Não há necessidade de aspas pois usamos `-l` como flag no set, isso armazena todo conteúdo digitado como um array concatenado. Mas se quiser uma pergunta longa basta abrir aspas triplas dessa forma
```bash
llama_run """Pode começar a digitar
vai escrevendo o que der na telha
quantas linhas quiser, não se preocupe
vai dando enter quando quaiser
no final digite as três aspas
"""
```
após o `ENTER` sue texto foi completamente enviado e ele começa a responder, se tiver chato na resposta é só fazer `ctrl+c` pra interromper a tagarelice.
Uma coisainha legal é que pode passar um arquivo também, por exemplo
```bash
llama_rua Me diga o que esse script faz\
$(cat algumscript.sh)
```
Eu usei a barra `\` para poder saltar linha sem iniciar o chat e fornecer o conteúdo do arquivo `algumscript.sh` via variável de comando `$()`.
Achei essa dica super saudável, afinal você roda o modelo localmente e fornece pouca coisa às empresas que criam esses modelos. Claro que duarante o uso informações são passadas via internet e o próprio modelo faz requisições pra fornecer respostas, mas é melhor que tá alimentando diretamente o bing ou o gemini.
Não esqueça de olhar os diversos [modelos](
https://ollama.com/library) disponíveis no site do ollama!