コンテンツにスキップ

Mac mini はAI用途で買うべきか?【AI知見ニキ】

  • URL: https://youtu.be/vwBRNTa6gVY?si=5XZgxGt4ChxVNY8a
  • 文字起こし日: 2026-02-22 16:35

内容概要

  • 動画のテーマはAI用途でMac miniを買うべきかどうか。
  • 投稿者は普段エンジニアとしてRAGやLLMの検証、精度検証、システム開発等を行っている。
  • 最近Mac miniが品薄になっている。
  • Apple Storeでも納期が3月になる。
  • 海外ではMac miniが全く買えない状況。
  • 品薄の理由はAIエージェントのブームで、特にOpenClawというプロジェクトがMac miniで動くことが話題になっているため。
  • OpenClawとは、Mac miniを使って24時間AIエージェントを動かすプロジェクト。
  • AIエンジニアならパソコンを使った仕事の8割はAIにやってもらえる可能性がある。
  • ローカルLLMを使ってサブスクから解放されることを期待してMac miniを買うのはやめた方が良い。
  • Mac miniをメインPCとして使う人や、iPhoneアプリ開発をする人は買うのがおすすめ。
  • Mac miniをAI用途で購入しない方が良い人もいるので注意が必要。
  • 今後OpenAIのエンジニアの知見が注ぎ込まれ、OpenClawが使いやすくなり、性能が高くなることが予想される。
  • キミクロウやSwitchBotなどAIサーバーも代替案として登場している。
  • 本動画ではローカルLLMのセットアップ方法も紹介予定。
  • 今後もAIに関する検証動画を投稿予定。

文字起こし

00:00 どうも二宮です。 00:01 今回はですね、Mac MiniをAI用途で買うべきかっていう話をこのYouTubeでまあ、1本目のまともな動画としてやってきたいなというふうに思っています。 00:11 え、その前に1つ、え、先日僕が前に書いた日本語ラグのエンベディングモデル、どれが一番最強なんだっていう記事を書いて、それが結構ゼノテックトレンドの1位になって3日で100いいねぐらい行ってブックマークも60何回とかされていて結構読んでいただいてありがとうございますっていう感じなんですけどえ、なんでこんな話したのかって言うと普段は、え、僕エンジニアをめちゃくちゃしていて、え、ラグの検証であったり、LLMのこう制度検証であったり、え、LLMのシステムえ、お組み込んだシステムの開発であったりみたいなことを結構やっていまして、なんでこうがっつりAIをやっている人が今Mac Miniを買うべきなのか、どうなのかみたいな記事って動画って意外と少ないのかなという風に思っていて、ま、その辺の話をしていきたいなというふうに思っています。 01:06 で、本題として、え、2026年に入ってからMac Miniがめちゃくちゃ品薄になってるっていうのもしかしたらニュースとかでも見たことあるかもしれないんですけれども、今Apple Storeでも納期が3ヶ月ぐらい3ヶ月じゃないわ。 01:21 3月か。 01:22 3月ぐらいまで、なんで1ヶ月ちょっとですね。 01:24 普段だったらまあ3日ぐらいで届くんすけど今は3月にならないと分かない。 01:29 なんで1ヶ月ぐらい待たないといけなかったり、ま、海外だったらもう全然買えないみたいな感じになっているぐらい今Mac Miniが品薄になっているんですよね。 01:38 で、それがなんでこう品薄にこんななってるのかて言うとAIエージェントのブームが今めちゃくちゃ起きていまして、え、特にオープクローって言うプロジェクトが、え、Mac Miniで動くっていうので話題になって今めちゃくちゃ品薄になってるっていうような状態なんですよね。 01:57 で、僕自身も先週え、Mac Miniを買ってMac Mini毎日使っているんですけれども、ま、これはAIのために買ったわけじゃないんですよね、僕は。 02:10 で、まず情報、え、状況整理するとえ、2026年の1月頃、まだ先月なんですけど、オープクローって いうプロジェクトがめちゃくちゃ盛り上がったんですよね。 02:20 で、え、そのマックに、え、そのプロジェクトが何なのかって言うと、え、Mac Miniとかを使って24時間AIエージェントを動かせますよっていうプロジェクトなんですよ。 02:32 このLINEとかSlackとか、え、チームズは動くのかな?みたいなところから、このAIのアカウントができるんですけど、これをインストールすると。 02:42 そのアカウントに対してメッセージを送るとパソコンを勝手に全部操作してくれる。 02:45 例えばブラウザ操作してYouTubeで動画を見て貰ったり、ま、Slack返信したりメール返信したり、動画の編集して貰ったり、パワポ作って貰ったりみたいな、これがあれれば今までえ、パソコンを使ってやってきた仕事がほとんどAIでやってもらえるようになるんですよね。 03:06 っていうツールなんです。 03:08 これが他の職種が正直あんまり分からないんですけど、エンジニアだと頑張ってわざわざ作業して作業が8割はAIでできるようになったかなっていうような感じですね。 03:19 僕がやってるのはなんで、あの残りのAIが作ったもの、こうもっとこうしたいなを考えるぐらいになっていて、そう、これを使ったらなんかまサイトも作れタリスるみたいなぐらい自由度がめちゃくちゃ高いっていうのがオープクローですと。 03:33 で、えっとそんなところで、え、オープクローで、えっと、Mac Miniが、え、最強のAIハードウェアというふうに言われ始めてで在庫が追いつかなくなったんですよ。 03:43 え、アンカーみたいな充電器の、え、U green、ま、充電器以外もやってるU greenていう会社があるんですけど、そこがわざわざブログでMac MiniがなぜAIホストの定番になったのかっていう、もう定番って大手 の会社が言うぐらいはOpenClawを動かす環境としてMac Miniが今定番になっているんですよね。 04:02 ただ多くの人が、え、勘違いしているところがありまして、Mac Miniを買えば、ま、10万円ぐらいでMac Miniを買うとチャットGPTとか、え、CludeとかGeminiみたいなサブスクが不要になるって思ってる人が結構いるんですけれども、それがならないんですよね、実は。 04:20 そこで、え、よく言われているものがあるんですけど、えっと、ローカルLLMっていうものがありまして、こうローカルでチャットGPTの中とかで動いているLLMのモデルを動かせれるっていうのが、ま、技術的には可能なんです。 04:37 で、僕とかもそれを使って、えっとGPUのサーバーを買ってこうシステムにこうローカルLMをホストして、え、動かすえ、システムに組み込むみたいなことをもしていたんですが、制度はそんなに高くなくて結構そのシステムも結構限界と言うか、もう2年前ぐらいチャットGPTが流行り始めの頃に作ったんですけど、ローカルLMはモデルが新しくなってきてはいるんですけど、まだ現実的じゃない。 05:04 実用的なレベルのものはないんですよね、実は今。 05:07 日本語がっていうのは一応伝えておくんですけど。 05:10 で、ま、僕はあの、冒頭で言った通りラグのベンチマークとか結構やってたり、ま、モデルの、え、AIをえ、システムに組み込むみたいなこともやってるんで、ま、なんとなくこうどのモデルがどれぐらいで、今どれぐらいのレベルまでAIが来ているのかみたいなことは分かっているんですけれども、ローカルで動くのでいくと8ビリオンっていう、え、サイズ のLLMのモデルなんですけれども、ま、それとCludeのOpusとかchat GPTの5.3とか5.2とかと比べたらもう点と地ほど差があるんですよね。 05:43 もう全然実用的じゃないなっていう風に思っちゃうと思うんです。 05:47 ま、すごいんですけどね。 05:48 で、ま、具体的な数字をちょっと出すと、ここにちょっボって出てる気がするんですけれども、Mac Miniがこう、え、ま、9万円ぐらいで買えるやつ、僕が買ったやつですね。 05:58 あの最初の性能のやつが、え、それだと、ま、8ビリオンのモデルが動くのが、ま、ギリギリぐらいなんですよね。 06:07 で、ま、それでもあのま、速度もそんなに速くないと。 06:11 8から22っていうのは、多分日本語だったら7文字ぐらいかな。 06:16 7文字1秒に7文字出てくるぐらいの速度。 06:20 ま、これ遅いんですよね。 06:21 かつ、この会話の記憶できる量とかも結構少ないんで、ま、多分チャット気持ちよく会話はできないし、この 多分エラーも起きるみたいなレベル感ですね、Mac Miniで動くのは。 06:34 ま、もうちょっと上のMac MiniM4Pro(64GB)だと2000ドル(約30万円)30~32Bパラメータ(Qwen2.5-Coder-32Bとか)速度:10〜15トークン/秒現実:32Bモデルはそこそこ重い。 06:38 でもClaude OpusやGPT-5とは比較にならない。もう海外だったらもう全然買えないみたいな感じになってるぐらい、今Mac Miniが品薄になっているんです。 06:53 で、状況を整理するとえ、2026年の1月頃、まだ先月なんですけど、OpenClawって いうプロジェクトがめちゃくちゃ盛り上がったんですよね。 07:20 で、え、そのマクミ、え、そのプロジェクトが何なのかって言うと、え、Mac Miniとかを使って24時間AIエージェントを動かせますよっていうプロジェクトなんですよ。 07:32 このLINEとかSlackとか、え、チームズは動くのかな?みたいなところから、このAIのアカウントができるんですけど、これをインストールすると。 07:42 そのアカウントに対してメッセージを送るとパソコンを勝手に全部操作してくれる。 07:49 例えばブラウザ操作してYouTubeで動画を見て貰ったり、ま、Slack返信したり、メール返信したり、動画の編集して貰ったり、パワポ作って貰ったりみたいな、これがあれれば今まで、え、パソコンを使ってやってきた仕事がほとんどAIでやってもらえるようになるんですよね。 08:06 っていうツールなんです。 08:08 これが他の職種が正直あんまり分から ないんですけど、エンジニアだと頑張ってわざわざ作業して作業が8割はAIでできるようになったかなっていうような感じですね。 08:22 。僕がやっているのはなんで、あの残りのAIが作ったもの、こうもっとこうしたいなを考えるぐらいになっていて、そう、これを使ったらなんかまサイトも作れタリスるみたいなぐらい自由度がめちゃくちゃ高いっていうのがオープクローですと。 08:34 で、えっとそんなところで、え、オープクローで、えっと、Mac Miniが、え、最強のAIハードウェアというふうに言われ始めてで在庫が追いつかなくなったんですよ。 08:43 え、アンカーみたいな充電器の、え、U green、ま、充電器以外もやってるU greenていう会社があるんですけど、そこがわざわざブログでMac MiniがなぜAIホストの定番になったのかっていう、もう定番って大手の会社が言うぐらいはOpenClawを動かす環境としてMac Miniが今定番になっているんですよね。 09:01 ただ多くの人が、え、勘違いしているところがありまして、Mac Miniを買えば、ま、10万円ぐらいでMac Miniを買うとチャットGPTとか、え、CludeとかGeminiみたいなサブスクが不要になるって思ってる人が結構いるんですけれども、それがならないんですよね、実は。 09:20 そこで、え、よく言われているものがあるんですけど、えっと、ローカルLLMっていうものがありまして、こうローカルでチャットGPTの中とかで動いているLLMのモデルを動かせれるっていうのが、ま、技術的には可能なんです。 09:37 で、僕とかもそれを使って、えっとGPUのサーバーを買ってこうシステムにこうローカルLMをホストして、え、動かすえ、システムに組み込むみたいなことをもしていたんですが、制度はそんなに高くなくて結構そのシステムも結構限界と言うか、もう2年前ぐらいチャットGPTが流行り始めの頃に作ったんですけど、ローカルLMはモデルが新しくなってきてはいるんですけど、まだ現実的じゃない。 10:04 実用的なレベルのものはないんですよね、実は今。 10:07 日本語がっていうのは一応伝えておくんですけど。 10:10 で、ま、僕はあの、冒頭で言った通りラグのベンチマークとか結構やってたり、ま、モデルの、え、AIを、え、システムに組み込むみたいなこともやってるんで、ま、なんとなくこうどのモデルがどれぐらいで、今どれぐらいのレベルまでAIが来ているのかみたいなことは分かっているんですけれども、ローカルで動くのでいくと8ビリオンっていう、え、サイズ のLLMのモデルなんですけれども、ま、それとCludeのOpusとかchat GPTの5.3とか5.2とかと比べたらもう点と地ほど差があるんですよね。 10:40 もう全然実用的じゃないなっていう風に思っちゃうと思うんです。 10:46 ま、すごいんですけどね。 10:47 で、ま、具体的な数字をちょっと出すと、ここにちょっボって出てる気がするんですけれども、Mac Miniがこう、え、ま、9万円ぐらいで買えるやつ、僕が買ったやつですね。 10:58 あの最初の性能のやつが、え、それだと、ま、8ビリオンのモデルが動くのが、ま、ギリギリぐらいなんですよね。 11:07 で、ま、それでもあのま、速度もそんなに速くないと。 11:10 8から22っていうのは、多分日本語だったら7文字ぐらいかな。 11:15 7文字1秒に7文字出てくるぐらいの速度。 11:20 ま、これ遅いんですよね。 11:21 かつ、この会話の記憶できる量とかも結構少ないんで、ま、多分チャット気持ちよく会話はできないし、この 多分エラーも起きるみたいなレベル感ですね、Mac Miniで動くのは。 11:34 ま、もうちょっと上のMac MiniM4Pro(64GB)だと2000ドル(約30万円)30~32Bパラメータ(Qwen2.5-Coder-32Bとか)速度:10〜15トークン/秒現実:32Bモデルはそこそこ重い。 11:38 でもClaude OpusやGPT-5とは比較にならない。