Llama

2024 年 11 月 8 日
NVIDIA TensorRT-LLM の KV Cache Early Reuseで、Time to First Token を 5 倍高速化
KV キャッシュの再利用技術と、TTFT のさらなる高速化を実現するベストプラクティスについて解説します。
2 MIN READ

2024 年 9 月 23 日
Llama-3.1-Nemotron-51B による精度と効率の前進
NVIDIA は、比類のない精度と効率を実現する獨自の言語モデル、Llama 3.1-Nemotron-51B を発表しました。 Meta の Llama-3.1-70B の派生モデルであり、新しい Neural Architecture Search (NAS) アプローチによる、高精度かつ効率的なモデルです。
3 MIN READ