ComunitárIA: Viabilidade técnica e confiança do usuário na execução local de Modelos de Linguagem (LMM) Open-Source em Ambientes Comunitários
Palavras-chave:
modelos de linguagem, ia offline, IA comunitáriaResumo
O resumo investiga a viabilidade técnica e a adequação pedagógica da execução local de modelos de linguagem open-source em hardware de consumidor, implantando um servidor com diferentes backends (LM Studio, Ollama e Text Generation WebUI) e modelos (Mistral 7B, Zephyr 7B e LLaMA 3.1-8B) para geração de questões de disciplinas do ensino médio, avaliadas quanto à conformidade estrutural, qualidade textual, latência e uso de recursos em duas configurações de GPU/CPU; os resultados indicam alta aderência ao template de questões (conformidade média em torno de 90% e mais de 97% no formato esperado) e tempos de resposta em geral inferiores a 10 segundos, demonstrando que LLMs locais são tecnicamente viáveis para fluxos de estudo, elaboração de simulados e apoio pedagógico, sendo a escolha de backend e parametrização mais determinante para o desempenho do que a GPU isoladamente, e contribuindo para um modelo de IA comunitária alinhado à proteção de dados, ciência aberta e autonomia institucional.