phi-2-Q4 1.7GB √ 5.13 tokens/s LLaMA-7B-Q4 < 4GB √ 2.2 tokens/s LLaMA2-7B-Q4 < 7GB √ 2.3 tokens/s LLaMA2-13B-Q4 < 4GB √ 2.02 tokens/s mixtral_7bx2_moe_Q4 <8GB √ use llama.cpp <1 tokens/s mamba-gpt-7b <13GB √ Test for Raspberry Pi 4B (8GB) & LLM For spec...