前回、私たちはコンピュータを「支配の道具」から「自律のための杖」へと奪還する思想について語った。
今回は、その思想を具現化するための、具体的かつ強力な二つのアーキテクチャをMac mini M2に導入する。
クラウドという中央集権から切り離された、自分だけの「独立した知性」を起動しよう。
1. Ollama ―― ローカル知性の「心臓」を動かす
まず導入すべきは、ローカル環境で大規模言語モデル(LLM)を効率的に動作させるためのランタイム、Ollamaだ。

かつて、Macのコンセプトであるナレッジナビゲータが夢見た「対話するエージェント」を、私たちは自分たちの手でインストールすることになる。Ollamaは複雑なセットアップを必要とせず、コマンド一つで最新のオープンソースモデルをMac miniの統合メモリ(16GB)へとロードしてくれる。
- なぜOllamaか: 非常に軽量であり、バックグラウンドで静かに動作する。AppleシリコンのGPUを最適に活用するため、M2チップのポテンシャルを最大限に引き出せる。
- モデルの選定: Llama 3やMistralといった、世界中のハッカーたちが磨き上げたモデルを選択する。これは、ビッグテックが検閲し、味付けした「調整済み」の知性ではなく、私たちが直接手懐けることができる「生の知性」である。
この心臓が動き出した瞬間、Mac miniは単なる箱から、思考する主体へと変貌する。
2. n8n ―― 思考と行動をつなぐ「中枢神経」
知性(LLM)があっても、それが外部と接続されず、自律的に動けなければ「杖」としては不十分だ。そこで導入するのが、ワークフロー自動化ツールであるn8nだ。
通常、この種の自動化(iPaaS)はZapierやMakeといったクラウドサービスが主流だが、私たちはあえてこれをMac mini上でセルフホスト(ローカル実行)する。
- 自律の要: クラウドの自動化ツールは、利便性と引き換えにあなたのデータの流れ(ワークフロー)をすべて把握している。n8nをローカルで動かすことは、自分のビジネスプロセスや情報の濾過ルールを、誰の目にも触れない「ブラックボックスの外部」に置くことを意味する。
- 無限の拡張性: n8nは、あなたが収集したRSS、スプレッドシート、そしてOllamaを自由自在に繋ぎ合わせる。これは、アラン・ケイが提唱した「メタ・メディア」としてのコンピュータの、現代的な完成形の一つだ。
3. 「知性」と「仕組み」のドッキング
真のハッキングは、この二つが組み合わさった時に起きる。
n8nという神経系が情報を集め、Ollamaという心臓(知性)がそれを「自社の文脈」で解釈し、再びn8nがアクションを起こす。たとえば、特定のニュース記事を読み込み、ローカルAIが「これは収奪のOSに基づいた動きか?」を判定し、あなたの専用データベースに蓄積していく。
この一連の流れに、インターネットという巨大な監獄は一切関与しない。すべてのプロセスは、あなたのデスクの上、Mac miniの16GBという閉じた宇宙の中で完結するのだ。
独立した知性の産声を聞く
Ollamaを立ち上げ、n8nのキャンバスに最初のノードを置く。その時、あなたのMac miniは、もはやAppleという企業が提供する一製品であることを超え、あなたという個人の「独立した知性の拠点」となるということだ。
さあ、環境は整った。次は、このエンジンを使って具体的にどのような「自律的ワークフロー」を構築していくか、その詳細な設計図(レシピ)へと踏み込んでいこう。
今回の実装パッチ
- Ollama: 巨大プラットフォームへの依存を断つ、知性のローカルランタイム。
- n8n(Self-hosted): ワークフローの主権を取り戻す、自律型自動化プラットフォーム。
- 設計思想: データの入出力を自分の管理下に置く「閉鎖系エコシステム」。
【自律のための現状診断】
私たちの組織は、人を追い立てる「収奪のOS」になっていないか。効率化の果てに「余白」を失っていないか。
当社が提供する「DX成熟度診断」では、技術導入の成否だけでなく、組織の「回復可能性」と「自律性」を可視化します。





