ソニーストア
Dynabook Direct
HP Directplus -HP公式オンラインストア-
デル株式会社
本ページはプロモーションが含まれています。
  
 

【LLM】サイバーエージェントのCALM2を試してみた (3)Windowsでやってみた

 

スポンサーリンク

 
【LLM】サイバーエージェントのCALM2を試してみた (3)Windowsでやってみた
 

サイバーエージェントが商用利用可能なLLM(大規模言語モデル)を公開したので早速試してみた。
今回は自作PCのホストOSであるWindows11に作ってみた。やっと試すことができた。
テキスト生成AIについてのまとめはこちら。

  
  

Windowsで作る

前回はHyper-V上のVMでやってみたが、Hyper-VではホストOSが持つGPUをパススルーすることができないと判明。(補足:サーバOSなら可能らしい)

できないとわかったので、最後の手段であるWindowsでやってみる。
Windowsに環境を作るのはPythonの環境の競合が気になって避けたかったのだが杞憂だった。仮想環境って機能ができていた。

VALL-E-Xの紹介で書いているが、Pythonの仮想環境をActivateすればいいらしい。

こちらで書いているが、再掲する。

インストール

前提としてNVidianのCUDA Toolkitをインストールしておく。CALM2のデモはGPUがある前提になっている。

1 Pythonをインストール

すでにインストールしている場合は省略できる。
マイクロソフトストアを起動してPythonを検索する。ここからインストールする。

python インストール マイクロソフトストア

python インストール マイクロソフトストア

2 Pythonの仮想環境を作る

どこでもいいのだが、仮想環境はいくつもつくると思うので、今回はこうした。
まずコマンドプロンプトを開く。

C:\にPython フォルダを作成する。

c:
cd \
mkdir python
cd python

以下のコマンドで仮想環境を作る。

python -m venv calm2

仮想環境ができたので、有効にする。

cd calm2\Scripts
activate

プロンプトに(calm2)と仮想環境の名称が先頭につく。

補足:VALL-E-Xではc:\python\vallに仮想環境を作った。別のフォルダにすることで仮想環境の使い分けが可能になる。

3 pythonライブラリの準備

pipコマンドを使ってpythonのライブラリをダウンロードする。

pip install -U transformers accelerate flash_attn tokenizers
pip install torch torchvision torchaudio –index-url https://download.pytorch.org/whl/cu118

ダウンロードには時間がかかる。

4 Gitからダウンロード

Gitからダウンロードするには、Git For Windowsをダウンロード、インストールするとよい。WEBブラウザから開いて、ダウンロードしてインストールする。

インストールして起動すると、このようなウインドウが開く。赤線の「Clone Existing Repositry」をクリックし、以下のように入力する。

Git for Windows

Git for Windows

  • Source Location  https://huggingface.co/spaces/hayas/CALM2-7B-chat6
  • Target Directory c:\calm2
CAML2  LLM git ダウンロード

CAML2  LLM git ダウンロード

これでc:\caml2がgitのレポジトリになる。
注意点はc:\caml2はあらかじめフォルダを作らないこと。

5 インストール

再びコマンドプロンプトに戻る。

cd \caml2
pip install -r requirements.txt

これで準備は完了。

実行してみる

コマンドプロンプトにて下記コマンドを入力する。

python app.py

CAML2 LLM 実行

CAML2 LLM 実行

しばらくダウンロードして、WEBブラウザのURLが表示される。

CAML2 LLM 実行

CAML2 LLM 実行

今回は以下のURLだ。このホストOSからのみアクセスできるIPアドレスなので、ほかのPCなどからのアクセスをしたい場合はプログラムを修正すれば別のIPアドレスでURLが構成される。

http://127.0.0.1:7860

さっそく実行

では実行してみよう。触れ込みはChat GPT-4よりは劣るということだった。
このWEB画面はデモ用ではあるが、いろいろな質問に答えてくれそうだ。
早速いくつかやってみた。使用したPCは自作PCのJisaku8。CPUはRyzen5700X、グラボは12GBのRTX3060だ。メモリは32GB積んでいる。

1 サイバーエージェント

まずはCAML2の開発元に敬意を表して、会社名を聞いてみた。

2 東京の観光名所

続いて、デモに最初から設定されている質問。プリセットされているくらいなので、かなりの情報量を持っていると考えている。
予想通り、回答の表示が終わるまで結構な時間がかかっている。

3 irvinejp

最後におそらく情報が入っていないだろうと思う、キーワードを使ってみた。自分のサイト名の一部だが、やはりないという。

まとめ

今回使ったPCが最新の1世代前になるため、最新のハイエンドPCならもっと早く応答が表示されるかもしれない。
それでも瞬時に表示されるようなことは想像できない。Chat GPTなどではGPUを何個も使って応答メッセージを作っているのだろう。

スマホにもAI処理をオンデバイスで行うSoCが出てきた。PC用のCPUでもそんなに遠くない未来に、瞬時に応答ができるようなスペックのものを安価に買える時代になるだろう。

(Visited 97 times, 1 visits today)

PR

   
著者プロフィール
irvine
 ソフトウェア設計、ストレージ設計を経てクラウドにかかわる仕事をしている、東京郊外在住のエンジニア。
 仕事でUS,UK,SGなどの国とかかわる。
 自作PC、スマホ、タブレット、AV機器好き。ドラクエウォークはルーチンワーク。Linuxやストレージ、IT業界の動向は興味を持っている。
 新しい機器、サービスに興味あり。年数回のレビュー(自腹購入、ご依頼)と発表されて興味があるものの新製品机上レビューをやっている。
 2022年はJAPANNEXT様のアンバサダーを務めました。
 

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です