testxlog

testxlog

obsidianでローカルデータと対話するためにcopilotプラグインを使用します。

一、使用シーン#

  • 大量のデータがあり、多くのことを思い出せない場合
  • データと対話する必要があり、数年前のリーダーの発言を検索する場合
  • 個人的なプライバシーを重視し、インターネット上の大規模言語モデルにデータを提供したくない場合
  • ローカルコンピューターの構成が十分であり、少なくとも 8GB 以上のメモリがある場合

二、実験のアイデア#

  • Obsidian ノートソフトウェア内で、Copilot プラグインを使用して Ollama サービスを呼び出す
  • Ollama を使用して大規模言語モデル(例:llama2-chinese または qwen:4b)を呼び出す
  • 1 対 1 の質疑応答、単一の質疑応答、全データベースのチャットなどの機能を実現する

三、具体的な手順#

  • コンピューターにOllamaを公式ウェブサイトからインストールする
  • 管理者権限でターミナルまたはコマンドラインモードを開く
  • ollama run llama2-chineseと入力してコマンドを実行する
  • llama2-chinese モデルのダウンロードとインストールが完了するまで待つ
  • /byeと入力して Ollama を終了する
  • ollama pull nomic-embed-textと入力してコマンドを実行する
  • nomic-embed-textのダウンロードとインストールが完了するまで待つ
  • /byeと入力して Ollama を終了する
    • タスクバーの右下にある Ollama の実行を終了する
    • タスクマネージャーからすべてのollama.exeプロセスを終了する
    • これらの 2 つのステップは非常に重要です
    • そうしないと後でLangChain error: TypeError: Failed to fetchというエラーが発生します
  • set OLLAMA_ORIGINS=app://obsidian.md*と入力する
  • ollama serveと入力してサービスを起動する
  • ターミナルまたはコマンドラインウィンドウを実行中の状態に保つ
  • Obsidian に Copilot プラグインをインストールする
    • デフォルトモデルをollama(local)に設定する
    • Ollama モデルをllama2-chineseに設定する
    • Ollama のベース URL をhttp://localhost:11434 に設定する
    • 埋め込み API をnomic-embed-textに設定する
    • Ctrl+P で Obsidian のコマンドパネルを表示する
    • copilotと入力して必要なコマンドを選択する
    • 右側のサイドバーに Copilot の会話ボックスが表示される
    • チャット、単一の質疑応答、全データベースの質疑応答など、必要なモードを選択する

四、実験のまとめ#

  • コンピューターの構成が適切な場合、これは良い選択肢になるかもしれません
  • プライバシー保護を重視する前提で、これは最適な選択肢になるでしょう
  • 喜ばしい点:全データベースのデータと対話できること
  • 不足している点:ターミナルまたはコマンドラインウィンドウを常に開いておく必要があること
読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。