IDE Services Cloud ヘルプ

AI Enterprise を管理する

AI Enterprise を使用すると、組織全体でさまざまな AI サービスプロバイダー (JetBrains AI または次のようなカスタムソリューション) を使用できます。

すべてのオプションを有効にしてから、特定のユーザープロファイルに対して優先プロバイダーを選択できます。

組織内で AI Enterprise を有効にする

  1. Web UI で、構成ページを開き、ライセンスとアクティベーションタブに移動します。

  2. AI Enterprise セクションまでスクロールし、「有効にする」をクリックします。

    Enable AI Enterprise
  3. AI Enterprise を有効にするダイアログで、AI プロバイダーを 1 つ選択します。具体的な設定手順については、以下の手順を参照してください。

    特定のプロファイルに異なる AI プロバイダーを使用したい場合は、いつでも簡単に追加のプロバイダーを追加して有効にすることができます。

  4. AI Enterprise の使用制限を設定します。

    無制限オプションを有効にします。

    Unlimited usage of AI Enterprise

    無制限オプションを無効にして、AI Enterprise ユーザーの数の制限を指定します。

    Limited number of AI Enterprise users
  5. 適用をクリックします。

  6. 組織で AI Enterprise を有効にした後、関連するプロファイルに対して AI プロバイダーを選択して有効化する必要があります。有効化するまでは、開発者は AI 機能と AI Assistant プラグインにアクセスできません。

  7. 開発者が Toolbox アプリを通じて IDE Services サーバーに接続されていることを確認してください。接続されていない場合、プロビジョニングされた AI 機能を使用できません。

JetBrains AI サービスを使用する

JetBrains 製品の AI 機能は、デフォルトで JetBrains AI サービスによって提供されています。このサービスは、様々な大規模言語モデル(LLM)に透過的に接続し、JetBrains 製品内の特定の AI 機能を有効にします。このサービスは、主要なサードパーティプロバイダーである OpenAI と Google、複数の独自 JetBrains モデルによって提供されています。JetBrains AI は、JetBrains 側にクラウドソリューションとして導入され、お客様側での追加設定は必要ありません。

AI プロバイダーを追加: JetBrains AI

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. AI プロバイダーを追加ダイアログで、JetBrains AI プロバイダーを選択します。

    Configure JetBrains AI
  5. 保存をクリックします。

独自の AI プロバイダーを使用する

AI Enterprise は、Google Vertex AI、Amazon Bedrock、および OpenAI が提供する一部のプリセットと連携します。

Third party AI

OpenAI プラットフォーム

始める前に、OpenAI Platform アカウントを設定し、認証用の API キーを取得してください。詳細については、OpenAI のドキュメント(英語)を参照してください。

AI プロバイダーを追加: OpenAI プラットフォーム

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. プロバイダーを追加をクリックし、メニューから OpenAI を選択します。

    Add AI Provider
  5. OpenAI ダイアログで、次の詳細を指定します。

    • プリセットリストから OpenAI プラットフォームを選択してください。

    • OpenAI サービスと通信するためのエンドポイントを提供します。例: https://api.openai.com/v1

    • OpenAI API への認証には API キーを入力してください。詳細については、OpenAI のドキュメント(英語)を参照してください。

    Configure OpenAI Platform
  6. 保存をクリックします。

Codex を使用するには、Codex エージェントでサポートされているモデルを少なくとも 1 つ追加してください。モデルとオプションのより詳細なリストについては、AI Assistant のドキュメントを参照してください。

Azure OpenAI

Azure OpenAI をプロバイダーとして有効にする前に、次の手順を完了する必要があります。

  1. Azure OpenAI リソースを作成します

  2. 推奨モデルをデプロイする : GPT-4o ミニ , GPT-5.2

  3. エンドポイントと API キーを取得します。Azure OpenAI サブスクリプション | リソース管理 | キーとエンドポイントに移動します

  4. モデルのデプロイ名を取得します。Azure OpenAI サブスクリプション | リソース管理 | モデルデプロイ | デプロイを管理するで確認できます

上記の準備手順を完了すると、IDE Services で Azure OpenAI を有効にすることができます。

AI プロバイダーを追加: Azure OpenAI

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. OpenAI ダイアログで、次の詳細を指定します。

    • プリセットリストから Azure OpenAI を選択してください。

    • Azure OpenAI サービスと通信するためのエンドポイントを提供します。例: https://YOUR_RESOURCE_NAME.openai.azure.com

    • Azure OpenAI API に認証するには、API キーを入力します。

    Configure Azure OpenAI
  5. モデルのデプロイ名を指定します。各モデルの横にある歯車アイコンをクリックして、名前を入力してください。

  6. 保存をクリックします。

Codex を使用するには、Codex エージェントでサポートされているモデルを少なくとも 1 つ追加してください。モデルとオプションのより詳細なリストについては、AI Assistant のドキュメントを参照してください。

Google Vertex AI

Google Vertex AI をプロバイダーとして有効にする前に、次の手順を完了する必要があります。

  1. Google Cloud アカウントにログインするか、アカウントを作成します。

  2. ロール Vertex AI サービスエージェントを持つ新しいサービスアカウントを作成します。

  3. サービスアカウントでキータブに移動し、新しいキーを作成します。これは JSON ファイルで、アップロードできます。

    Create Google Service Account Key
  4. ジェミニ 2.5 プロおよびジェミニ 2.0 フラッシュモデルを有効にします。

上記の準備手順を完了すると、IDE Services で Google Vertex AI を有効にできます。

AI プロバイダーを追加: Google Vertex AI

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. Google Vertex AI ダイアログで、次の詳細を指定します。

    Configure Google Vertex AI
  5. 保存をクリックします。

Amazon Bedrock

AI Enterprise は、様々な高性能な基盤モデルへのアクセスを提供するフルマネージドサービスである Amazon Bedrock(英語) との統合を提供します。現在のバージョンでは、AI Enterprise は AI Assistant で使用するために、Claude 4 SonnetClaude 4.1 OpusClaude 4.5 HaikuClaude 4.5 SonnetClaude 4.5 OpusClaude 4.6 OpusClaude 4.6 Sonnet の LLM をサポートしています。

IDE Services に Amazon Bedrock を AI プロバイダーとして追加する前に、サポートされているモデルへの認証とアクセスを設定する必要があります。

ステップ 1. AWS 側で認証を設定する

IDE Services でサポートされている次の認証オプションのいずれかを選択できます。

アクセスキー
  1. 開始手順(英語)に従ってください:

    • AWS アカウントを作成します (まだアカウントがない場合)。

    • Amazon Bedrock に必要な権限を持つ AWS Identity and Access Management ロールを作成します。

    • 使用したい基礎モデル (FM) へのアクセスをリクエストします。

  2. AWS IAM Identity Center にアクセスし、ユーザーを見つけて、権限ポリシーセクションを確認します。

    • デフォルトのアクセス許可ポリシー AmazonBedrockReadOnly に加えて、Bedrock サービス用の新しいインラインポリシーを追加します。

    • InvokeModel および InvokeModelWithResponseStream アクションに対して読み取りアクセスレベルを持つように新しいインラインポリシーを構成します。

  3. ユーザーのアクセスキー(英語)を生成します。

    • アクセスキーを作成するときは、ユースケースとしてサードパーティサービスを指定します。

    • IDE Services で Amazon Bedrock を設定する際に、アクセスキー ID とシークレットを指定する必要があります。これらの値は必ず保存してください。

IAM ロール

Amazon Bedrock の AWS IAM ロールを設定する方法は次のとおりです。

  1. AWS コンソールで IAM サービス(英語)に移動します。

  2. 権限ポリシーを作成します。

    ポリシー (英語)| ポリシーの作成に進みます。JSON タブを選択し、以下の権限ポリシーを貼り付けて次へをクリックします。名前を付けて(例: "JetBrains-Bedrock-Policy")、ポリシーを作成します。

    権限ポリシー:

    { "Version" : "2012-10-17", "Statement" : [ { "Effect" : "Allow", "Action" : [ "bedrock:InvokeModel", "bedrock:InvokeModelWithResponseStream", "bedrock:ListFoundationModels", "bedrock:GetFoundationModel" ], "Resource" : "*" } ] }
  3. IAM ロールの作成

    ロール (英語)| ロールの作成に移動します。

  4. 信頼ポリシーを構成する

    カスタム信頼ポリシーを選択し、以下の信頼ポリシー JSON を貼り付けます。次へをクリックします。

    信頼ポリシー:

    { "Version" : "2012-10-17", "Statement" : [ { "Effect" : "Allow", "Principal" : { "AWS" : "arn:aws:iam::205930650357:role/aws-env-iam-testing-role" }, "Action" : "sts:AssumeRole", "Condition" : { "StringEquals" : { "sts:ExternalId" : "B8983A86714F2468CF7FD95329FF9D61" } } } ] }
  5. 権限を付与する

    ステップ 2 で作成したポリシーを検索して選択し、次へをクリックします。

  6. ロールの名前と作成

    ロールにわかりやすい名前 (例: JetBrains-Bedrock-Access) を付け、必要に応じてタグを追加して、ロールの作成をクリックします。

  7. ロール ARN をコピー

    作成後、ロール名をクリックして詳細を表示します。ロール ARN をコピーし、IDE Services の AI プロバイダー設定フォームの「ロール ARN」フィールドに貼り付けます。

デフォルトの資格情報

デフォルトの資格情報は、AWS SDK デフォルトの認証情報プロバイダーチェーン(英語)を利用してサポートされているソースから AWS 認証情報を自動的に検索・読み込む認証方式です。これにより、JetBrains と IDE Services、Amazon Bedrock の統合を含むアプリケーションは、静的な認証情報を手動で入力することなく、AWS サービスへの認証が可能になります。

プロバイダーチェーンは、次の順序で資格情報を検索します。

  1. Web ID トークン (OIDC) — たとえば、STS AssumeRoleWithWebIdentity . 詳細(英語)経由で IAM ロールを引き受けるために使用される Kubernetes サービスアカウントトークンなどです。

  2. 環境変数AWS_ACCESS_KEY_IDAWS_SECRET_ACCESS_KEY、オプションで AWS_SESSION_TOKEN 詳細(英語)

  3. コンテナーの資格情報 — タスク用にコンテナーエンジン (ECS/EKS) によって提供された認証情報、または IAM ロールが割り当てられた pods。詳細(英語)

  4. インスタンスプロファイル /EC2 メタデータサービス — インスタンスにアタッチされた IAM ロールの EC2 インスタンスメタデータサービスを介して取得された認証情報。詳細(英語)

このプロバイダーチェーンを使用すると、IDE Services は実行中の環境から AWS 認証情報を透過的に取得でき、認証情報の処理とセキュリティに関する AWS のベストプラクティスに準拠できます。

デフォルトの資格情報認証を設定します。IDE Services/AI Enterprise で Amazon Bedrock のデフォルト認証情報認証方法を有効にするには、管理者が AWS 認証情報ソースを設定する必要があります。サポートされている 2 つのオプションを以下に示します。

オプション 1: IRSA (EKS に推奨)

IDE Services を Amazon Elastic Kubernetes Service (EKS) 上で実行する場合、安全な認証情報の取り扱いのために、Kubernetes ServiceAccounts と IAM Roles for Service Accounts (IRSA) を組み合わせて使用することをお勧めします。AWS ドキュメント (英語)

  1. EKS クラスター用の OIDC プロバイダーを作成します (1 回限りのセットアップ):

    eksctl utils associate-iam-oidc-provider --cluster <cluster‑name> --approve

    このステップでは、クラスターの OIDC プロバイダーを関連付けます。AWS ガイド: IAM OIDC プロバイダーを作成する (英語)

  2. ServiceAccount に対して sts:AssumeRoleWithWebIdentity を許可する信頼ポリシーを持つ IAM ロールを作成します。

    AWS ガイド: ServiceAccounts に IAM ロールを割り当てる (英語)

  3. Kubernetes ServiceAccount に IAM ロール ARN をアノテーション付けします。

    metadata: name: <service-account-name> namespace: <namespace> annotations: eks.amazonaws.com/role-arn: arn:aws:iam::<ACCOUNT_ID>:role/<ROLE_NAME>

    AWS ガイド: ServiceAccount アノテーション (英語)

  4. Helm 値で IDE Services を設定します。

    useS3AutoConfiguration: true featureFlags: bedrock-iam-role-auth: on bedrock-default-credentials: on

オプション 2: 環境変数 (非本番環境 / テスト)

お使いの環境で IRSA が利用できない場合は、環境変数を介して認証情報を提供することができます。この方法は安全性が低いため、開発またはテストにのみ推奨されます。

  1. Amazon Bedrock および S3 にアクセスする権限を持つ IAM で AWS アクセスキーを作成します。

    AWS_ACCESS_KEY_IDAWS_SECRET_ACCESS_KEY、オプションで AWS_SESSION_TOKEN を生成します。

    AWS ガイド: 資格情報の環境変数 (英語)

  2. キーを保持するための Kubernetes シークレットを作成します。

    kubectl create secret generic aws-credentials \ --from-literal=AWS_ACCESS_KEY_ID=<your_access_key_id> \ --from-literal=AWS_SECRET_ACCESS_KEY=<your_secret_access_key>
  3. 環境変数を IDE Services デプロイ (Helm またはマニフェスト経由) に挿入して、キーをコンテナー環境に公開します。

  4. IDE Services を設定します。

    useS3AutoConfiguration: true featureFlags: bedrock-default-credentials: on

重要 : この方法はテストには有効ですが、IRSA が提供する認証情報のローテーション、最小権限の適用、監査上のメリットは提供されません。慎重に使用してください。

ステップ 2. AWS 側でモデルへのアクセスを構成する

AWS の指示(英語)に従って、サポートされている次のモデルへのアクセスをリクエストします。

  • Claude 4 Sonnet

  • Claude 4.1 Opus

  • Claude 4.5 Haiku

  • Claude 4.5 Sonnet

  • Claude 4.5 Opus

  • Claude 4.6 Opus

  • Claude 4.6 Sonnet

ステップ 3. AI プロバイダーを追加: Amazon Bedrock

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. AI プロバイダーを追加をクリックし、Amazon Bedrock を選択します。

    Amazon Bedrock 構成ダイアログが表示されます。

  5. 地域フィールドで、Amazon Bedrock をサポートする AWS リージョン(英語)を指定します。

  6. 地域間推論を使用します。このオプションは、ユーザーリクエストを処理するために、地理的に最も適切な AWS リージョンを自動的に選択します。これにより、リソース使用率が最適化され、モデルの高可用性が確保されるため、ユーザーエクスペリエンスが向上します。

  7. AWS 側で設定した認証オプションを選択します。

    Configure Amazon Bedrock
  8. モデルの追加をクリックし、リストから使用するモデルを選択します。

  9. 設定ダイアログでモデル名を指定し、保存をクリックします。

  10. 設定を保存してください。

OpenAI 対応

AI Enterprise は、OpenRouter や LM Studio などの AI ルーターとの統合をサポートしており、さまざまな事前承認プロバイダーの幅広いモデルにアクセスできます。

  • この設定により、ClaudeGPT などのよく知られた高性能モデルだけでなく、他の方法では使用できないカスタムモデルも使用できるようになります。例: AI Assistant チャットで使用するために、グロクDeepSeek などのカスタムモデルを選択できます。

  • llama.cpp(英語)vLLM(英語)LM スタジオ(英語)など、オンプレミスにデプロイされた OpenAI 対応サーバーに接続することで、分離された環境で AI Enterprise を運用できます。

AI プロバイダーを追加: OpenAI 対応

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. OpenAI 対応ダイアログで、次の詳細を指定します。

    • AI ルーターサービスと通信するためのエンドポイントを指定します。例: https://openrouter.ai/api/v1

    • AI ルーターサービスへの認証には、ベアラートークンを入力してください。サービスで認証にカスタムヘッダーが必要な場合は、ヘッダー名と値を取得し、対応するフィールドに入力してください。

      Configure OpenAI Compatible
    • モデルの追加をクリックし、リストから使用するモデルを選択します。

      追加するモデルがツール呼び出し関数呼び出しマルチメディアメッセージをサポートしていない場合は、これらのオプションのチェックを外してください。

    • カスタムモデルを追加する場合:

      • ... モデルを構成するダイアログで、最初の選択に一致するモデル名を選択します。

      • 最大入出力トークンを設定します。カスタムモデルでは、入力コンテキストと出力コンテキストの長さ(モデルがリクエストごとに処理できるトークンの最大数)を指定する必要があります。AI Assistant や Junie などのツールは、これらの値を使用して、コンテキストとして含めるデータの量を決定します。プロバイダーまたはモデルのドキュメントで定義されている制限に従って設定してください。入力制限は特に重要です。ツールが処理するファイルや履歴をどのように選択およびトリミングするかが、入力制限によって決まるためです。

      • カスタムモデルのパフォーマンスは保証されませんのでご了承ください。

    • 保存をクリックします。

      追加のモデルに対してこれらの手順を繰り返します。

  5. 保存をクリックします。

Junie コーディングエージェント

JetBrains Junie は、サポートされている JetBrains および IntelliJ IDEA ベースの IDE 内で直接動作するように設計された AI 搭載コーディングエージェントであり、プラグインとして利用できます。

従来のコードアシスタントとは異なり、Junie はコード生成、テスト実行、エラー修正、プロジェクト固有のガイドラインへの適応といったタスクを自律的に実行し、開発者による制御を維持します。プロジェクトのコンテキストを理解し、共同ワークフローをサポートし、生産性とコード品質の両方の向上を目指します。

Junie は、JetBrains AI サービスによって提供される大規模言語モデル (LLM) を活用することも、代わりに OpenAI および Amazon Bedrock を通じて利用できる特定のモデルセットを使用することもできます。

Junie を有効にする

  1. JetBrains AI サービスが有効をお持ちの場合は、AI Enterprise の設定をこれ以上変更する必要はありません。Junie を開発者が利用できるようにするには、選択したプロファイルで有効化してください

    JetBrains AI サービスが有効になっていない場合は、プロバイダーとして Azure、OpenAI、Open AI プラットフォーム、または Amazon Bedrock を選択し、次のように設定する必要があります。

  2. ダッシュボード (ホームページ) で、AI Enterprise ウィジェットを見つけて、設定をクリックします。

  3. 次のいずれかの AI プロバイダーを有効にして構成します。

    • Azure OpenAI

      次のモデルを構成に追加します。

      • GPT-4o-Mini または GPT-4.1-Mini

      • GPT-4.1

      • GPT-5 または GPT-5.2

    • Open AI プラットフォーム

      次のモデルを構成に追加します。

      • GPT-4o-Mini または GPT-4.1-Mini

      • GPT-4.1

      • GPT-5 または GPT-5.2

    • Amazon Bedrock

      次のモデルを構成に追加します。

      • Claude 4.6 Sonnet または Claude 4.6 Opus

      • Claude 4.5 Haiku

      地域間推論を使用するを選択します。

  4. Junie を開発者が利用できるようにするには、選択したプロファイルで有効にする手順に進みます

AI Enterprise の設定

追加の AI プロバイダーを有効にする

組織で AI Enterprise を有効にする場合、選択できる AI プロバイダーは 1 つだけです。追加のプロバイダーを有効にするには、以下の手順を実行してください。

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. プロバイダーを追加をクリックし、メニューから 1 つを選択します。

    Add AI Provider
  5. Google Vertex、OpenAI、AWS Bedrock プロバイダを追加する場合は、詳細な手順については特定の構成手順を参照してください。

  6. 保存をクリックします。

AI プロバイダーへの接続をテストする

  • AI モデルが応答しなくなった場合は、接続をテストしてください。問題は、トークンの期限切れなどの認証、または AI プロバイダー側での設定変更に関連している可能性があります。接続テストが失敗すると、問題を特定して解決するのに役立つ説明付きのエラーが返されます。

  • AI プロバイダーを追加するときに接続をチェックして、構成が正しいこと、入力した API キーまたはトークンが有効であることを確認することもできます。

接続をテストするには

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブで、確認する AI プロバイダーの横にある接続のテストをクリックします。

    Aie Test Connection

デフォルトの AI プロバイダーを設定する

組織で複数の AI プロバイダーを有効にしている場合、プロファイルで AI Enterprise を有効にすると、デフォルトとして設定したプロバイダーが事前に選択されます。さらに、現在デフォルトプロバイダーオプションが選択されているすべてのプロファイルで、プロバイダーを一元的に切り替えることができます。

JetBrains AI が選択されている場合を除き、複数のデフォルトプロバイダーを設定できます。その場合、それが唯一のデフォルトプロバイダーである必要があります。

デフォルトのプロバイダーを選択するには:

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI プロバイダータブを開きます。

  4. リストされている AI プロバイダーの 1 つ以上をデフォルトとして選択し、選択内容を確認して保存します。

    Set default AI provider

コード補完プロバイダーを設定する

Mellum エンジンは、AI Enterprise のコード補完を駆動します。セルフホスト型の Mellum インスタンスを使用するか、JetBrains がホストする Mellum サービス(JetBrains AI)を使用するか、利用可能なオプションから最適なプロバイダーをシステムが自動的に選択するかを設定できます。

コード補完プロバイダーを設定するには:

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. コード補完タブを開きます。

  4. プロバイダーメニューから、次のオプションのいずれかを選択します。

    • 自動 (入手可能な最高のもの) : 特定のユーザーに利用可能なプロバイダーの中から、最適なプロバイダーを自動的に選択します。JetBrains AI が利用可能な場合は、それが使用されます。

    • JetBrains AI : JetBrains がホストする Mellum を使用します。

    • JetBrains Mellum (self-hosted) : Mellum エンジン搭載 on-premises 搭載。

  5. 保存をクリックします。

Set the Code Completion provider

モデルコンテキストプロトコル設定

MCP(モデルコンテキストプロトコル)は、LLM がリソース、システム、データと対話できるようにする方法です。コマンドサーバーとリモート MCP サーバーを設定し、開発者が他のサーバーを追加できるかどうかを定義できます。

ユーザーによる IDE への MCP サーバーの追加を無効にする

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. モデルコンテキストプロトコルタブを開きます。

  4. ユーザーが IDE に MCP を追加できるようにするオプションを無効にし、確認をクリックします。このオプションはデフォルトで有効になっています。このオプションが無効になっている場合、プロファイルレベルで有効にすることはできません。

    Allow users to add MCP in their IDE
  5. 保存をクリックします。

コマンド MCP サーバーを追加する

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. モデルコンテキストプロトコルタブを開きます。

  4. MCP サーバーを追加をクリックし、メニューからコマンドを選択します。

    Add a Command MCP Server
  5. 次の詳細を入力してください。

    • 名前 - MCP サーバーの名前を指定します。

    • コマンド - MCP サーバーを起動するために使用するコマンドを指定します。

    • (オプション) 引数 - サーバーの起動時にコマンドに渡される追加のパラメーターを指定します。

    • (オプション) 環境変数 - サーバーに必要な変数 (API キーまたは構成設定) を指定します。

  6. 保存をクリックします。

リモート MCP サーバーを追加する

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. モデルコンテキストプロトコルタブを開きます。

  4. MCP サーバーを追加をクリックし、メニューからリモートを選択します。

    Add a Remote MCP Server
  5. 次の詳細を入力してください。

    • 名前 - MCP サーバーの名前を指定します。

    • URL - MCP サーバーの URL を指定します。

    • (オプション) ヘッダー名と値 - サーバーがリクエストを検証および承認するために使用する認証情報 (API キーまたはアクセストークン) を指定します。

  6. 保存をクリックします。

AI Enterprise の使用制限を更新

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. AI Enterprise の設定ページで、AI Enterprise の使用制限を設定します。

  4. 保存をクリックします。

詳細なデータ収集を許可する

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. 一般タブの詳細なデータ収集を許可するオプションを使用して、組織内の詳細データ収集(英語)を有効または無効にできます。このオプションを有効にすると、ユーザーはデータ共有の許可を求められます。AI インタラクションデータを収集することで、LLM のパフォーマンスが向上します。

    Enable detailed data collection
  4. 保存をクリックします。

組織向けの分析ツールを入手する

  1. 構成 | ライセンスとアクティベーションに移動します。

  2. AI Enterprise セクションまで下にスクロールし、設定をクリックします。

  3. ユーザーと採用または AI の活動と影響タブに移動します。

    詳細については、ユーザーと採用および AI の活動と影響のトピックを参照してください。

Get Analytics for your organization

組織で AI Enterprise を無効にする

  1. Web UI で、構成ページを開き、ライセンスとアクティベーションタブに移動します。

  2. AI Enterprise セクションで、無効をクリックします。

  3. AI Enterprise を無効にしますか ? ダイアログで、無効をクリックします。

    The Disable AI Enterprise dialog

IDE Services に AI Enterprise ユーザーを追加する

プリペイド課金モデルを使用すると、組織の JetBrains アカウントから IDE Services ライセンスの追加リソースを購入できます。

  1. 組織またはチームの管理者権限で JetBrains アカウント(英語)にログインします。

  2. 左側のメニューで、組織の名前をクリックします。

    The menu item to access your company's profile from your JetBrains Account
  3. ページの上部にあるライセンスを表示をクリックします。

    The button to view all your company's licenses in your JetBrains Account
  4. ライセンスの概要ページで、チームツールとサービスタブを選択します。

    The Team Tools & Services tab on in a company's profile
  5. IDE Services ライセンスを見つけて、リソースを追加するをクリックします。ライセンスを見つけるには、下にスクロールする必要がある場合があります。

    Button to add more resources to the lisense
  6. チェックアウトページが開きます。そこで追加したいリソースを選択し、お支払いください。

2026 年 3 月 18 日

関連ページ:

プロファイル

IDE Services のプロファイルを使用すると、ユーザーまたはユーザーグループが利用できる設定を指定できます。これには、IDE Provisioner および AI Enterprise の機能へのアクセスも含まれます。各プロファイルには、開発者が業務を遂行するために必要なすべての情報が含まれるように設定されています。例: ジョンは Java 開発者であり、IDE Services では対応する Java 開発者プロファイルがユーザーに割り当てられています。このプロファイルにより、Tool...

JetBrains アカウントで IDE Services 設定を管理する

IDE Services インスタンスに必要な設定のほとんどは、IDE Services/Web UI からアクセスできます。ただし、一部の設定は JetBrains アカウントからのみアクセスできます。具体的には以下のとおりです。License Vault へのライセンスの追加、ライセンスサーバーから License Vault への移行に関する支援を依頼、IDE Services インスタンスに AI Enterprise を許可する、これらの設定には、JetBrains アカウントの ID...

ユーザーガイド: IDE Services サーバーに接続する

IDE Provisioner および AI Enterprise を使用するには、Toolbox アプリを介して IDE Services サーバーに接続する必要があります。Toolbox アプリをインストールする:同社の IDE Services サーバーに接続する前に、JetBrainsWeb サイトから Toolbox アプリをダウンロードしてインストールする必要があります。Toolbox アプリは、IntelliJ ベースの IDE を管理するための仲介役として機能し、IDE のダウ...

AI チャット

AI チャットは、AI Assistant がサポートする AI モデルやエージェントとやり取りするための主要な入り口です。ここでは、言語モデルと会話したり、コードやプロジェクトについて質問したり、エージェントと連携して開発タスクを計画・実行したりできます。AI チャットのやり取りは、一般的に以下のパターンに従います。操作方法を選択してください – 日常的な質問にはチャット、高度な開発タスクにはエージェントをご利用ください。モデルの選択 – リクエストを処理する AI モデルを選択してください。モデ...

JetBrains Mellum

JetBrains Mellum は、カスタム AI プロバイダーのコード補完機能を強化します。組織のインフラストラクチャ内にインストールされ、エアギャップ環境を含む可用性とセキュリティを確保します。インストールを計画する:JetBrains Mellum の使用を開始する前に、次のチェックリストを確認してインストールを計画してください。ハードウェア JetBrains および Mellum のハードウェア要件をご確認ください。組織内のシート数に応じて、マシンの台数と仕様を決定してください。単一...

IDE Services の課金モデル

JetBrains IDE Services では、従量課金とプリペイドの 2 つの課金モデルが提供されています。選択した課金モデルによって、組織の課金スケジュールと料金体系、IDE Services 製品へのアクセス管理と使用量制限の方法が決まります。以下の表は、2 つのオプションを比較したものです。よくある質問 (FAQ): 組織ではどの課金モデルを選択すればよいですか ? 従量課金モデルは次のような場合に最適です。予測不可能または変動的な使用パターンを持つ組織。変化するニーズに応じて製品を有...