- アイデア
- 1 つは MantouAI プラグインを使用して、アリババクラウドの期間限定無料の通用大モデルを呼び出し、国産モデルが中国語をサポートしていることが良いです。
- もう 1 つは local-gpt プラグインを使用して、ローカルの gemma モデルリポジトリを呼び出し、ローカルにダウンロードした gemma:2b や qwen:4b などのモデルを実行する方法です。
- 方法
- MantouAI プラグインの方法
- obsidian にコミュニティプラグイン MantouAI をインストールします。
- アリババクラウドで期間限定無料の Dashscope API キーを申請します。
- 申請したキーを MantouAI プラグインのフィールドに入力します。
- ノートの一部のテキストをコーパスとして選択した状態で、ctrl+P でコマンドパネルを開き、MantouAI と入力します。
- 必要に応じて、修正、翻訳、要約、質問などの機能を選択します。
- 結果はカーソルの位置に生成されます。
- obsidian のショートカットキーによく使用する機能を追加することもできます。たとえば、質問機能を ctrl+shift+? に設定するなどです。
- local-gpt プラグインの方法
- コンピュータのシステムから ollama ソフトウェアを公式ウェブサイトからダウンロードしてインストールします。
- コマンドラインを開き、
ollama --version
と入力して、インストールされたバージョンが正しいことを確認します。 ollama run gemma:2b
などと入力して、8G のメモリをサポートする gemma:2b の小さなモデルをダウンロードしてインストールします。- ビデオメモリやメモリのサイズに応じて、複数のモデルをダウンロードしてインストールすることもできます。例えば:
ollama run gemma:4b
を選択できます。ollama run gemma:7b
を選択できます。ollama run qwen:4b
を選択できます。ollama run qwen:14b
を選択できます。- サポートされている具体的なモデルは、ollama の公式ウェブサイトで確認できます。
- obsidian に local-gpt プラグインをインストールし、設定を行います。
- 選択した AI プロバイダー:Ollama
- Ollama の URL を http://localhost:11434 に設定します。
- デフォルトのモデルは、上記でインストールしたモデルに応じて選択します。例えば、gemma:2b です。
- local-gpt プラグインにショートカットキーを設定します。例えば、ctrl+alt+? です。これにより、MantouAI の ctrl+shift+? と区別できます。
- ノートの一部のテキストをコーパスとして選択した状態で、ctrl+alt+? のショートカットキーを押します。
- 表示される Summarize などのコマンドから必要なコマンドを選択し、確定します。
- local-gpt プラグインの設定で、コマンドの名前やヒントワードを変更または追加することもできます。
- MantouAI プラグインの方法
- 結論
- 国産の中文サポートが優れているため、優先的に MantouAI プラグインの方法を使用します。
- プライバシーに注意する場合は、local-gpt プラグインの方法を使用できますが、コンピュータの構成要件が高いです。