ニュース

OllamaがOCR対応。v0.15.5で手書き認識やコーディング特化モデル追加

 ローカルLLM実行環境の「Ollama」は2月3日、新規サポートAIモデルに「GLM-OCR」および「Qwen3-Coder-Next」を追加したと発表した。

 Ollamaは、ローカル環境でAIモデルを実行するための推論エンジン。インストーラーから構築できるローカルLLM実行環境であり、クラウドを介さずに自宅のPCなどでLLMが利用できる。

 プレリリース版として公開したv0.15.5では、新たに以下2つのモデルをサポートした。

  • GLM-OCR
    中国Z.aiが開発したオープンソースの画像認識モデル。0.9Bパラメータの軽さと手書き文字や数式、表、公印などが混在する文書における高い読み取り精度が特徴。
  • Qwen3-Coder-Next
    AlibabaのQwenチームが開発した、コーディングエージェントとローカル開発環境特化のモデル。パラメータ数は80Bだが推論ごとに3Bをアクティブにして実行する「Sparse Mixture of Experts」を採用し、実行にかかるコストの軽量化を図っている。

 リリースノートではこのほか、搭載VRAM量ごとのデフォルトコンテキスト長の設定値、ollama launchコマンドにおけるサブエージェントのサポート、ollama signinコマンドでサインインのためのブラウザ起動などを変更点として挙げている。