AI とチャットする
AI Assistant ツールウィンドウを使用して、LLM ( 大規模言語モデル (英語)) と会話したり、プロジェクトについて質問したり、タスクを反復したりできます。
AI Assistant は、プロジェクトで使用されている言語とテクノロジー、ローカルの変更、バージョン管理システムのコミットを考慮します。ファイル、クラス、要素の使用状況を検索できます。
新しいチャットを始める
右側のツールバーで AI Assistant をクリックして AI Assistant を開きます。
入力フィールドに質問を入力します。
エディタータブでコードの一部を選択した場合は、クエリを入力する際の時間を節約するために、
/explain
コマンドと/refactor
コマンドを使用します。/docs
コマンドを使用して、WebStorm 関連の質問をします。該当する場合、AI Assistant は対応する設定またはドキュメントページへのリンクを提供します。クエリに特定のファイルまたは関数を添付して、より多くのコンテキストを提供する場合は、
#
を使用します。#thisFile
は現在開いているファイルを参照します。#localChanges
はコミットされていない変更を指します。#file:
は、現在のプロジェクトからファイルを選択できるポップアップを呼び出します。ポップアップから必要なファイルを選択するか、ファイル名 (例:#file:Foo.md
) を入力します。#symbol:
はプロンプトにシンボルを追加します (例:#symbol:FieldName
)。#schema:
はデータベーススキーマを参照します。データベーススキーマをアタッチすると、スキーマのコンテキストで生成された SQL クエリの品質を向上させることができます。
入力フィールドで、 をクリックして、現在利用可能なモデルのリストから希望する AI チャットモデルを選択します。
AI Assistant チャットをローカルモデルに接続する場合は、この章を参照してください。
クエリを送信するには、Enter を押してください。
質問に対する新しい回答を取得するには、AI Assistant の回答の先頭にある この応答を再生成するをクリックします。
AI Assistant は、IDE セッション全体にわたってプロジェクトごとにチャットの履歴を個別に保存します。保存されたチャットは、すべてのチャットリストで見つけることができます。
チャットの名前は自動的に生成され、最初のクエリの概要が含まれます。チャットの名前を右クリックして名前を変更したり、リストから削除したりできます。
スマートチャットモードを管理する
より正確な回答を提供するために、AI Assistant ではスマートチャットモードがデフォルトで有効になっています。
このモードでは、AI Assistant は、ファイルの種類、使用されているフレームワーク、LLM にコンテキストを提供するために必要なその他の情報など、追加の詳細を送信する場合があります。
スマートチャットモードを無効にするには、スマートチャットモードを有効にするチェックボックスをオフにします。
の
AI Assistant チャットをローカル LLM に接続する
AI Assistant チャットで作業中にクラウドベースのモデルを使用しない場合は、オラマ(英語)を通じて利用可能なローカル LLM を接続できます。
Ctrl+Alt+S を押して設定を開き、
を選択します。サードパーティの AI プロバイダーセクションで、Ollama を有効にするチェックボックスを選択し、ローカルホストの URL を指定して、接続のテストをクリックします。
AI Assistant チャットを使用する場合は、利用可能な LLM のリストからモデルを選択します。
スニペットからファイルを作成する
AI Assistant チャットから、AI が生成したコードを使用して新しいファイルを作成できます。
生成されたコードのあるフィールドの右上隅で、 スニペットからファイルを作成するをクリックします。
AI Assistant は AI によって生成されたコードを含むファイルを作成します。
プロジェクトツールウィンドウ Alt+1 でファイルを開いたり選択したりしている場合は、選択したファイルと同じフォルダーに新しいファイルが作成されます。
それ以外の場合は、新しいファイルはルートプロジェクトフォルダーに作成されます。
データベーススキーマを添付する
作業中のデータベーススキーマのコンテキストを使用して、生成された SQL クエリの品質を向上させることができます。これを行うには、AI Assistant ツールウィンドウにスキーマをアタッチします。AI Assistant はアタッチされたスキーマの構造にアクセスし、その情報を LLM に提供します。
この機能を使用するには、AI Assistant にデータベーススキーマへのアクセスの同意を与える必要があります。
スキーマをアタッチすると、コンテキストメニュー AI アクションアクショングループ ( コードの説明、リファクタリングの提案など) の結果も改善されます。これらのアクションの詳細については、AI プロンプトを使用してコードの説明とリファクタリングを行うを参照してください。
AI Assistant ツールウィンドウの入力フィールドに、プロンプト
#
に続けてスキーマ名を入力します。例:Give me a query to get all actor names from #public
Enter を押します。
AI Assistant がスキーマを分析し、結果を生成します。
メッセージにアタッチされたスキーマを確認したり、データベースツールウィンドウでそのスキーマに移動したりすることもできます。これを行うには、メッセージで 付属要素をクリックし、スキーマ名をクリックします。
AI Assistant が選択したスキーマを常に添付できるようにするには、スキーマを添付ダイアログでデータベーススキーマのアタッチを常に許可するチェックボックスをオンにします。または、 でデータベーススキーマの添付を許可する設定を有効にします。
関連ページ:
AI Assistant
AI Assistant は、ソフトウェア開発に AI を活用した機能を提供します。コードの説明、コードの断片に関する質問への回答、コードの提案の提供、メッセージのコミットなどを行うことができます。AI Assistant プラグインはバンドルされておらず、WebStorm ではデフォルトで有効になっていません。プラグインをインストールし、JetBrains AI サービスライセンスを取得し、プラグインのインストール時に JetBrains AI 利用規約と JetBrains AI 利用規定に明示...
プラグインのインストール
プラグインは WebStorm のコア機能を拡張します。例: プラグインをインストールして、次の機能を取得します。バージョン管理システム、課題追跡システム、ビルド管理サーバー、その他のツールとの統合。さまざまな言語とフレームワークのコーディング支援サポート。ショートカットのヒント、ライブプレビュー、ファイルウォッチャーなど。新しいプログラミング言語を学ぶのに役立つコーディング演習。デフォルトでは、WebStorm には多数のプラグインがバンドルされています。バンドルされたプラグインを無効にするこ...
AI プロンプトを使用してコードの説明とリファクタリングを行う
事前に作成されたプロンプトを使用して、コードの説明、リファクタリング、コード内の問題の検出を行います。WebStorm は、プロジェクトで使用される言語やテクノロジーなど、プロジェクト固有のコンテキストを提供します。独自のカスタムプロンプトを定義して、AI アクションメニューに追加することもできます。コードの説明:コードフラグメントを選択し、右クリックしてコンテキストメニューを開きます。AI アクションを選択し、次にコードの説明を選択します。AI Assistant ツールウィンドウが開き、説明...