• <xmp id="om0om">
  • <table id="om0om"><noscript id="om0om"></noscript></table>
  • Generative AI

    NeMo Framework で日本語 LLM を簡単デプロイ – オンライン推論編 –

    Reading Time: 3 minutes

    ご注意: この記事は NeMo Framework のアップデートのため、7 月 8 日に大幅に変更を加えました。

    NeMo Framework とは

    NeMo Framework は、生成 AI モデルのワークフローをエンドツーエンドでカバーするクラウドネイティブなフレームワークです。NGC 上にコンテナーが公開されており、すぐに利用を開始することができます。

    NVIDIA AI Enterprise ライセンスをお持ちの方は、NGC サイトから入手可能です。NGC へログイン後、Enterprise Catalog にある ”Feature Branches & Models” にアクセスしてください。こちらで NeMo Framework の入手方法をご案內しています 。

    NeMo Framework の更なる詳細、NeMo Framework コンテナーを用いたファインチューニングの方法についてご興味のある方は、こちらの PEFT チュートリアルの記事や こちらの SFT チュートリアルの記事を併せてご確認下さい。

    現在、LLM、Multimodal を始め様々な生成 AI モデルの GPU 推論を高速化する為のプラットフォームである NVIDIA NIM が公開されており、今後も様々な機能追加が予定されていますが、今回は今すぐお手軽に TensorRT-LLM による GPU 推論を試す事が出來る NeMo Framework コンテナーを用いた GPU 推論について解説します。

    NeMo Framework コンテナーには以下の NVIDIA LLM Inference ソフトウェア スタック構成図で示すように、TensorRT-LLMTensorRT-LLM と連攜可能な Triton Inference Server など、モデルのデプロイに必要な様々なライブラリが含まれています。

    図 1. NVIDIA LLM Inference ソフトウェア スタック

    TensorRT-LLM は wheel package が公開されており pip コマンドで簡単にインストールする事ができる為、TensorRT-LLM や Triton Inference Server を個々にデプロイ環境へインストールする事も可能です。

    敢えて NeMo Framework コンテナーを介してそれらを使用するメリットとして、TensorRT-LLM 用の推論エンジン生成が容易になったり、Triton Inference Server 起動の為に必要な設定が自動生成されるという事、NeMo Framework コンテナー オリジナルの LLM 推論の為の Triton Inference Server python backend を使用できるなどが挙げられます。

    LLM 推論の為のライブラリ TensorRT-LLM について、以下でもう少し詳しく紹介したいと思います。

    TensorRT-LLM とは

    大規模言語モデル (LLM) はその驚くべき性能により AI で可能な領域を拡大しています。その一方 LLM のパラメーター數は膨大であり、コスト効率の高い推論を行う為には推論の最適化は必須の作業です。最適化をしない、あるいは適切ではない場合、推論処理の実行は遅くなりランニング コストは大きくなってしまいます。

    推論の最適化には、例えばカーネル融合や量子化のようなモデル最適化から、処理の C++ 化、KV キャッシュ、継続的なインフライト バッチング処理、高速な attention の導入等のランタイム最適化まで様々の最適化手法が存在します。

    LLM 推論の1つの課題はこれら多くの最適化手法の中から、自分のユース ケースに適した手法を選択し、互換性の問題を解決しながらモデル毎に実裝していくという作業です。

    これらの課題を解決する為に、NVIDIA は推論用に LLM をコンパイルおよび最適化するための包括的なライブラリである TensorRT-LLM をリリースしました。TensorRT-LLM を用いると、モデル毎にコードの最適化をする必要はなく、TensorRT-LLM のモデル最適化コンパイラを用いて自動で最適な手法が選択されます。

    以下に TensorRT-LLM の特徴を列挙します。

    • マルチ GPU マルチノード推論のサポート
    • インフライト バッチングのサポートおよび、Paged Attention、Flash Attention に代表される高速な attention のサポート
    • 使いやすい Python API 提供
    • Triton Inferense Server と連攜する為のバックエンドの提供
    • Windows 環境のサポート (ベータ機能)

    TensorRT-LLM の推論性能については、こちらの NVIDIA の技術ブログ記事をご確認下さい。

    ここからは、以下のチュートリアルで NeMo Framework を用いた推論の具體的な手順をご紹介したいと思います。

    GPU 推論チュートリアル

    本記事では、Hugging Face Model Hub から日本語 LLM をダウンロードして、NeMo Framework Inference コンテナーを使用して GPU 推論する方法について解説します。

    本チュートリアルでの手順は以下の通りです。

    また、今回のチュートリアルの検証環境は以下の條件で行っております。

    • ハードウェア
      • DGX A100
        • GPU: 8x NVIDIA A100 80 GB GPUs (driver version: 535.129.03)
        • CPU: Dual AMD Rome 7742 (128 コア, 2.25 GHz (base))
        • システム メモリ: 2 TB
    • ソフトウェア
      • OS: Ubuntu 22.04.3 LTS
      • Docker: 23.0.4
      • Container: nvcr.io/nvidia/nemo:24.05

    事前準備

    以下のコマンドで作業用のディレクトリを作成し、移動します。

    mkdir inference-example
    cd inference-example
    

    NeMo Framework Training コンテナーの起動

    以下のコマンドで NeMo Framework コンテナーを起動します。

    sudo docker run --rm -it --gpus device=0 --shm-size=2g --ulimit memlock=-1 --network=host -v ${PWD}:/workspace  -w /workspace -v ${PWD}/results:/workspace/results nvcr.io/nvidia/nemo:24.05 bash
    

    Hugging Face Model Hub からモデルのダウンロード

    このチュートリアルでは、tokyotech-llm/Swallow-7b-instruct-hf を使用します。以下のコードで Hugging Face の Model Hub から訓練済みの LLM をダウンロードします。

    import os
    from huggingface_hub import snapshot_download
     
    MODEL_DIR = "./models"
    os.makedirs(MODEL_DIR, exist_ok=True)
     
    snapshot_download(
        repo_id="tokyotech-llm/Swallow-7b-instruct-hf",
        local_dir=f"{MODEL_DIR}/Swallow-7b-instruct-hf",
        local_dir_use_symlinks=False
        )

    NeMo フォーマットへの変換

    以下のスクリプトを使用して、ダウンロードした Hugging Face の Llama モデルを NeMo フォーマットへ変換します。

    python /opt/NeMo/scripts/checkpoint_converters/convert_llama_hf_to_nemo.py \
        --input_name_or_path=./models/Swallow-7b-instruct-hf \
        --output_path=./models/Swallow-7b-instruct-hf/Swallow-7b-instruct-hf.nemo \
        --precision="16"
    

    (オプション) PEFT の実行

    推論時に PEFT の結果を用いて推論をしたい場合、NeMo Framework で日本語 LLM をファインチューニング – PEFT 編 – を參考に NeMo Framework で PEFT を実行し swallow_7b_instruct_ptuning.nemo を作成して下さい。

    TensorRT-LLM 推論用エンジンの生成

    NeMo Framework 付屬の export_to_trt_llm.py スクリプトを使用して NeMo 形式のモデルから TensorRT-LLM 推論用エンジンを作成します。

    python /opt/NeMo/scripts/export/export_to_trt_llm.py \
        --nemo_checkpoint /workspace/models/Swallow-7b-instruct-hf/Swallow-7b-instruct-hf.nemo \
        --model_type="llama" \
        --model_repository /opt/checkpoints/trtllm-engine
    

    上記スクリプトを実行すると /opt/checkpoints/trtllm-engine に TensorRT-LLM エンジンが生成されます。

    Triton Inference Server の起動

    生成した TensorRT-LLM 推論用エンジンが保存されているパスを指定して deploy_triton.py を用いて Triton Inference Server を起動します。

    python /opt/NeMo/scripts/deploy/nlp/deploy_triton.py \
        --triton_model_name swallow-7b-bf16 \
        --triton_model_repository /opt/checkpoints/trtllm-engine \
        --model_type="llama"
    

    以下のようなログが標準出力に出て、サーバーが起動すれば成功です。

    I1225 07:51:09.942834 2329 grpc_server.cc:2451] Started GRPCInferenceService at 0.0.0.0:8001 
    I1225 07:51:09.943047 2329 http_server.cc:3558] Started HTTPService at 0.0.0.0:8000 
    I1225 07:51:09.998750 2329 http_server.cc:187] Started Metrics Service at 0.0.0.0:8002
    

    クライアントから推論リクエストを行う

    推論サーバーが起動したので、以下のスクリプトを用いて、クライアントからサーバーに推論リクエストを投げてみましょう。

    from pytriton.client import ModelClient
    import numpy as np
    
    def query_llm(url, model_name, prompts, max_output_token=128, top_k=1, top_p=0.0, temperature=1.0,  init_timeout=600.0):
       str_ndarray = np.array(prompts)[..., np.newaxis]
       prompts = np.char.encode(str_ndarray, "utf-8")
       max_output_token = np.full(prompts.shape, max_output_token, dtype=np.int_)
       top_k = np.full(prompts.shape, top_k, dtype=np.int_)
       top_p = np.full(prompts.shape, top_p, dtype=np.single)
       temperature = np.full(prompts.shape, temperature, dtype=np.single)
    
       with ModelClient(url, model_name, init_timeout_s=init_timeout) as client:
          result_dict = client.infer_batch(
                prompts=prompts,
                max_output_token=max_output_token,
                top_k=top_k,
                top_p=top_p,
                temperature=temperature,
          )
          output_type = client.model_config.outputs[0].dtype
    
       if output_type == np.bytes_:
          sentences = np.char.decode(result_dict["outputs"].astype("bytes"), "utf-8")
          return sentences
       else:
          return result_dict["outputs"]
    
    output = query_llm(
       url="localhost:8000",
       model_name="swallow-7b-bf16",
       prompts=["以下に、あるタスクを説明する指示があり、それに付隨する入力が更なる文脈を提供しています。リクエストを適切に完了するための回答を記述してください。\n\n### 指示:\n與えられた選択肢の中から、最適な答えを選んでください。出力は以下から選択してください:\n- 掲示板\n- パソコン\n- マザーボード\n- ハードディスク\n- まな板\n### 入力:\n電子機器で使用される最も主要な電子回路基板の事をなんと言う?\n### 応答:"],
       max_output_token=10,
       top_k=1,
       top_p=0.0,
       temperature=1.0,
    )
    print(output)

    以下のようにサーバーからの応答があり、TensorRT-LLM ベースの推論を行う事が出來ました。

    [['マザーボード']]

    補足情報

    NeMo P-Tuning ファイルを用いた推論

    PEFT の結果を用いた推論を行いたい場合は、deploy_triton.py スクリプトを使用して Triton Inference Server を起動する際に、以下の例のように --ptuning_nemo_checkpoint オプションを用いて PEFT 結果ファイルの保存パスを指定してエンジンを生成する必要があります。

    python /opt/NeMo/scripts/deploy/nlp/deploy_triton.py \
    --ptuning_nemo_checkpoint /workspace/results/swallow_7b_instruct_ptuning/checkpoints/swallow_7b_instruct_ptuning.nemo \
        --triton_model_name swallow-7b-bf16 \
        --triton_model_repository /opt/checkpoints/trtllm-engine \
        --model_type="llama"
    

    生成に成功すると、/opt/checkpoints/trtllm-engine に TensorRT-LLM エンジンと共に __prompt_embeddings__.npy が作成されサーバーが起動します。

    まとめ

    本記事では、NeMo Framework を使用した日本語 LLM 推論の方法について紹介しました。NeMo Framework を使用して LLM の開発が加速すると嬉しいです。

    関連情報

    +6

    Tags

    人人超碰97caoporen国产