Uma pena, mas pelo menos pra mim não vai ser possível, seria muito tempo e dinheiro por um experimento/brincadeira.
Pra treinar um modelo quantizado de 4 bits, pegando um já existente para isso, precisaria de uma GPU de pelo menos 24 GB de VRAM, coisa que não tenho então teria que alugar um serviço de treinamento oque não é barato mesmo pra um modelo quantizado etc.
E além disso, precisaria sanitizar todos os mais de 5 milhões de notas e deixar em um formato de treinamento em um arquivo json, algo como { pergunta, resposta, ...}, imagina o trampo.
Infelizmente não será possivel executar esse experimento que me deixou animado, quem sabe um dia...
View quoted note →