一、使用シーン#
- 大量のデータがあり、多くのことを思い出せない場合
- データと対話する必要があり、数年前のリーダーの発言を検索する場合
- 個人的なプライバシーを重視し、インターネット上の大規模言語モデルにデータを提供したくない場合
- ローカルコンピューターの構成が十分であり、少なくとも 8GB 以上のメモリがある場合
二、実験のアイデア#
- Obsidian ノートソフトウェア内で、Copilot プラグインを使用して Ollama サービスを呼び出す
- Ollama を使用して大規模言語モデル(例:llama2-chinese または qwen:4b)を呼び出す
- 1 対 1 の質疑応答、単一の質疑応答、全データベースのチャットなどの機能を実現する
三、具体的な手順#
- コンピューターにOllamaを公式ウェブサイトからインストールする
- 管理者権限でターミナルまたはコマンドラインモードを開く
ollama run llama2-chinese
と入力してコマンドを実行する- llama2-chinese モデルのダウンロードとインストールが完了するまで待つ
/bye
と入力して Ollama を終了するollama pull nomic-embed-text
と入力してコマンドを実行するnomic-embed-text
のダウンロードとインストールが完了するまで待つ/bye
と入力して Ollama を終了する- タスクバーの右下にある Ollama の実行を終了する
- タスクマネージャーからすべての
ollama.exe
プロセスを終了する - これらの 2 つのステップは非常に重要です
- そうしないと後で
LangChain error: TypeError: Failed to fetch
というエラーが発生します
set OLLAMA_ORIGINS=app://obsidian.md*
と入力するollama serve
と入力してサービスを起動する- ターミナルまたはコマンドラインウィンドウを実行中の状態に保つ
- Obsidian に Copilot プラグインをインストールする
- デフォルトモデルを
ollama(local)
に設定する - Ollama モデルを
llama2-chinese
に設定する - Ollama のベース URL をhttp://localhost:11434 に設定する
- 埋め込み API を
nomic-embed-text
に設定する - Ctrl+P で Obsidian のコマンドパネルを表示する
copilot
と入力して必要なコマンドを選択する- 右側のサイドバーに Copilot の会話ボックスが表示される
- チャット、単一の質疑応答、全データベースの質疑応答など、必要なモードを選択する
- デフォルトモデルを
四、実験のまとめ#
- コンピューターの構成が適切な場合、これは良い選択肢になるかもしれません
- プライバシー保護を重視する前提で、これは最適な選択肢になるでしょう
- 喜ばしい点:全データベースのデータと対話できること
- 不足している点:ターミナルまたはコマンドラインウィンドウを常に開いておく必要があること