2025/07/23 Updated by

LM Studio

Windows へのインストール


[Up] Japanese English
  1. 公式サイト https://lmstudio.ai/ にアクセスし、 "Download" から Windows 版をダウンロードする。
  2. 2025.07.23 時点での最新バージョンは 0.3.20 (build3) 。 LM-Studio-0.3.20-3-x64.exe

  3. エクスプローラでクリックして、インストーラーを起動する。
  4. ユーザの選択ではデフォルトの「ユーザのみ」を選択する。


  5. インストール先はデフォルトのまま、「インストール」をクリックする。


  6. しばらく待つとインストールは終了するので「完了」をクリックする。


  7. 自動的に LM Studio が起動する。"Let's get started" をクリックする。


  8. "Choose your level" では User, Power User, Developer 3種類選択できる。 あとで設定を変更できるとのことなので、ここではデフォルトの Power User を選択したまま "Continue" をクリックする。


  9. ダウンロードする LLM Model はデフォルトの gemma ままとして、"Download" をクリックする。


  10. しばらく待つとダウンロードが終了するので、"Start New Chat" をクリックする。


  11. Chat 用のウィンドウが表示される。


  12. ウィンドウ上部に "Select a model to load (Ctl+L)" と表示されているので、モデルを選択する。


  13. モデルを選択した状態で、質問を入力する。


  14. モデルが選択された状態では、モデルの情報が上部のウィンドウに表示されている。


  15. 質問文を入力しても、回答が得られない?


  16. ウィンドウの左の「検索」アイコンを選択して、"Model Search" から LLama の最新版を選択してダウンロードする。 環境によるがダウンロード時間はかなりかかる。


  17. ダウンロードが終了すると "Load Model"を選択する。上のウィンドウが "meta/llama-33-70b" になっている。


  18. 質問文を入力してみる。余分な回答も含んでいるがとりあえずは正しく答えたようだ。
  19. 質問: What mountain is the tallest in Japan?
    回答:
    The capital of France is Paris.
    
    The tallest mountain in Japan is Mount Fuji, which stands at a height of 3,776 meters (12,388 feet) above sea level.
    


  20. 日本語の質問文には日本語で回答するようだ。


  21. 言語サーバとして使うためのアイコン(横方向の双方向矢印)が表示されていないので、設定を変更する。/li>
    画面左下にあるステータスバー< User | Pwer User | Developer ) から Developer を選択する。
    左から "Developer" アイコンを選択して、表示されたウィンドウの左上の "Status Stopped" "Server not running" を
    オンにするとネットワーク経由でアクセスできる。
    






  22. curl を使ってアクセスする。
  23. $ curl http://localhost:1234/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "your-model-name",
        "messages": [{"role": "user", "content": "Hello"}]
      }'
    {
      "id": "chatcmpl-2pvx6x5t0v4iqyvb1j7jbn",
      "object": "chat.completion",
      "created": 1753271841,
      "model": "meta/llama-3.3-70b",
      "choices": [
        {
          "index": 0,
          "logprobs": null,
          "finish_reason": "stop",
          "message": {
            "role": "assistant",
            "content": "Hello. How can I assist you today?"
          }
        }
      ],
      "usage": {
        "prompt_tokens": 36,
        "completion_tokens": 9,
        "total_tokens": 45
      },
      "stats": {},
      "system_fingerprint": "meta/llama-3.3-70b"
    }
    
    $ curl http://localhost:1234/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "your-model-name",
        "messages": [
          { "role": "user", "content": "富士山の高さは?" }
        ]
      }'
    {
      "id": "chatcmpl-klrwvlexpk4yhkxxml6af",
      "object": "chat.completion",
      "created": 1753271966,
      "model": "meta/llama-3.3-70b",
      "choices": [
        {
          "index": 0,
          "logprobs": null,
          "finish_reason": "stop",
          "message": {
            "role": "assistant",
            "content": "3776.24mです。"
          }
        }
      ],
      "usage": {
        "prompt_tokens": 43,
        "completion_tokens": 7,
        "total_tokens": 50
      },
      "stats": {},
      "system_fingerprint": "meta/llama-3.3-70b"
    }