西川和久の不定期コラム
Arm版Windows、思ってたより全然アリだった!Zenbook SORAで試す実用性チェック
2025年4月8日 06:11
前回、Snapdragon X Elite X1E-78-100を搭載し1kgを切る、ASUS Zenbook SORA(UX3407RA)の主にハードウェア編をお届けしたが、今回はソフトウェア編。Arm版Windows(以降WoA)はどんな感じなのかをレポートしたい。
セットアップしたアプリ
まず自分用の環境を作り込むため、とりあえず以下のアプリをインストールした。WoA(Arm)版あり、x64版(エミュレータPrism使用)、動作せず……の3つに分けているので参考にしてほしい。
1.WoA(Arm)版あり
- Adobe Photoshop
- ChatGPT
- Claude Desktop
- Docker Desktop
- Google Chrome
- LM Studio
- Microsoft Visual Studio Code
- Python 3.12.9 (ただしminicondaがない)
- WSL2 + Ubuntu 22.04.5 LTS
- Teams(プリインストール)
2.x64版(エミュレータPrism使用)
- FileZilla
- 秀丸エディタ
- Git for Windows
3.動作せず
- i1 Profiler (Arm版ドライバが必要)
- SoftEther VPN Client (Arm版ドライバが必要)
入れていないが、MicrosoftのOffice系はWoA対応となっている。意外だったのはChatGPTおよびびClaude Desktopも対応していること。作り自体、WebViewをアプリ化している程度なので、x64でも良さそうだが……。
参考までにSlackやZoomもWoA対応。筆者的に前者はWeb版、後者は最近ほとんど使ってないので入れていない。
少し困ったのがminicondaだ。Python自体はArm版があるものの、minicondaは対応版がない(Mac用はあるのに)。従って、インストールするとおそらくx64版のPythonが入ってしまう。
このノートPCでは開発はしないが、開発中のものをデモすることはあり、結局WoA/Arm対応のWSL2 + Ubuntu 22.04.5でこの問題から逃げることにした(ほかの言語も)。Arm版Ubuntuならminicondaに限らず、ほかのツールもあるため一石二鳥だ。とは言え、QualcommからでもMicrosoftからでもいいので、minicondaのArm対応をお願いしてほしいところだ。
FileZilla、秀丸、Git for WindowsはWoA版がなく、エミュレータのPrismを使用する。と言ってもユーザーは意識することなく、単に実行すれば良い。速度もネイティブでは?と思うほどサクサク動く。
最後は動かなかったアプリ。「i1 Profiler」と「SoftEther VPN Client」は、どちらもArm版ドライバが必要で、ここでアウトとなる。後者は客先に接続することがあるのでないと困るのだが、まぁ、出先で接続は(多分)しないのでOKとする。前者は本機の場合、OLEDなのであまり気にしなくていいが、モニター接続時はキャリブレーションしたいところ。動かないと写真/デザイン系で不利になってしまう。
この2つ、結構利用者多いと思うので、Qualcomm/MicrosoftがArm対応を手伝ってほしいところだ。おそらく前者はi1 Display系のドライバ、後者はネットワークドライバだけArm版を作れば、ほかの部分はx64でも動作するはずだ。
なお、Armで動いているのか?x64で動いているのか?の確認は、タスク マネージャー→詳細→アーキテクチャの項目を見れば、ARM | X64になっているので、ここで分かるはずだ。
DeepSeek-R1-Distill-Qwen 1.5B/7B/14Bを試す
せっかくNPUを搭載しているので、「Visual Studio Code」の拡張機能、AI Toolkitを経由してNPU対応(ただし執筆時WoAのみ)のLLM「DeepSeek-R1-Distill-Qwen 1.5B/7B/14B」を使ってみた。
インストール後、何か尋ねると、NPUがモリモリ動き出す。タスク マネージャーでNPUがこんなに動いているのは初めてだ(笑)。速度は値が出ないので正確なところは不明だが、動画のようにそこそこ速い。この時CPUは15%前後使用。後述するCPUでLLMのパターンだと80%前後のため、NPUを使ったLLMは低消費電力で駆動できるようだ。
ある意味、感激のシーンなのだが、モデル一覧に「DeepSeek-R1」/「DeepSeek-V3」、つまり“本物”もFree(どの程度の制限があるのかは不明)で使えるとある。で、あれば、よほど外に出せないコード以外はこちらを使うのでは?と思ってしまった。本家本元がFreeであれば、14B程度のNPU対応版は出る幕がないような気がする……。
CPU+メモリのみで意外と使えるLM Studio
次もLLM関連。少し前にご紹介した「GMKtec EVO-X1」がオンボードのLPDDR5X 7500MHzを搭載。CPUとメモリだけで「cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf」が約8tok/s(トークン/秒)出たので、LPDDR5X-8448の本機でも結構イケるのでは!?っと思いテストしたところほぼ同レベルだった。
ただ、筆者の仕事でLLMを使う時、数十Bでは知識レベル足りないので、結局Claudeを使うことが多く、正直このクラスの出番はない。
が、1点ローカルでLLMが必要なのは、センシティブ系(あまり無茶な内容ではないので誤解なきよう。Xに公開可能な画像の範囲)を含む生成AI画像/動画用のプロンプトを作る時だ(笑)。こればかりは各社のサービスだと検閲があるため、筆者の用途に合わない。
そこで登場するのがGemma-2の検閲解除版、Tiger-Gemma-9B-v3-GGUF。動かしてみると14.05tok/s出る。これならPromptを作る程度であれば十分実用速度だ(もちろん翻訳なども可能)。ほかも含め常用するのであれば7〜9Bクラスが速度/メモリ消費量的にいい感じかもしれない。推論だけならこのクラスのCPU(と、速目のメモリ)だけでも何とかなるということだ。
生成AI画像/動画については、そもそもGPUが弱く、本機ローカルで動かすのは不可能(NPUでお絵描き程度)。また、USB4でeGPU Boxは物理的に接続できてもドライバがなく動作しない。従ってサービスやほかのPCで動いているのをWebブラウザでアクセスしての生成となる。この点はあらかじめ分かっていたことで、個人的には問題ない。
Copilot+ PCについては、ここまででそれなりのボリュームになったため、改めてご紹介したい。ちょうど先日(2025年3月31日)、IntelとAMD搭載機も解禁となり、全Copilot+ PC対応機種で使用可能になったばかりだ。
そのほか (Webカメラ/マイク、バッテリ駆動時間)
以降、余談になるが、1度だけ試しで本機からTeamsでWeb会議に参加した。普段はMacBook Pro 14からなのだが、参加者にいつもと何か違う?と尋ねると、音は変わらず、映りは背景がはっきり映ってるとのこと。なるほど、被写界深度が深めか……と言う感じだった。あと画角も若干広いようだ。
バッテリ駆動時間は、結局ベンチマークテスト的なことは行なっていないものの、実務レベルで1日数時間使用、その他の時間はトップカバーを閉めてスリープ(長時間時は自動的にサスペンド)にして使っていたところ約4日持つ感じだ。
Office系やPhotoshopなどをバリバリ使うともっと短くなるだろうが、個人的にはこれだけ持てば十分だ。
いずれにしてもWoAを数日使った感想は「意外といける!」となった。少なくとも一般(ゲームなし)/業務系であれば困ることはなさそうだ。
開発系は、何をするか?にもよるが、基本、WSL2 + Docker/Ubuntuを使えばOKだろう。ネイティブなUbuntuを使っているのと大差ない。
こうなると、お蔵入りしたSnapdragon X Elite X1E-00-1DE(最上位SKU)搭載の開発キット(Snapdragon Dev Kit for Windows)を使ってみたかったころか(笑)。
以上のようにASUS Zenbook SORA(UX3407RA)は、Snapdragon X Elite X1E-78-100、32GB/LPDDR5X-8448、SSD 1TB、そしてディスプレイにOLEDを採用し、重量実測で990gと、軽量型のモバイルノートPC。価格も約22万円と構成を考えるとバランスも良い。
気になるアプリ互換性問題は上記した通り。ドライバさえ絡まなければ(多分)使用可能。x64エミュレータ、Prismの速度も上々。
結論としてArm版Windowsは、思ってた以上に使えるのでは!?と言うのが筆者の感想となる。参考になれば幸いだ。