私たちは、生成AIをプロフェッショナルとして責任ある形で活用することで、より高品質なサービスをより速くご提供できると考えています。
生成AIはコーディングや提案資料の作成など、私たちの業務を多面的に支援するツールです。一方で、最終的な品質の判断・確認・責任はすべて私たち自身が担います。AIを道具として使いこなしながら、人間としての専門性・倫理観を組み合わせることが、私たちの基本姿勢です。
個別契約・秘密保持契約・顧客セキュリティ要件等に本ポリシーと異なる定めがある場合は、当該契約・要件を優先します。
以下の業務において、生成AIを積極的に活用しています。
開発・制作
営業・提案支援
サポート業務
その他
当社では、入力データがモデルの学習に使用されないことが、各サービスのポリシーおよび契約条件において明確に定められている生成AIサービスのみを利用します。いずれも有料プラン・ビジネスプランを契約しており、各社のトラストセンターにてセキュリティ認証(SOC 2 Type II 等)を確認しています。
| サービス | 契約プラン | データ学習への利用 | SOC 2 | ポリシー詳細 |
| Anthropic(Claude) | Team Plan | 利用しない | Type II 取得済み(Trust Center) | Privacy Policy |
| OpenAI(ChatGPT) | Business Plan | 利用しない(設定済み) | Type II 取得済み(Trust Portal) | Enterprise Privacy |
| Google(Gemini) | Enterprise / Vertex AI | 利用しない | Type II 取得済み(Trust Center) | Data Governance |
| Cursor | Teams | 利用しない(Privacy Mode 設定済み) | Type II 取得済み(Trust Center) | Data Use & Privacy |
| v0(Vercel) | Pro Plan | 利用しない(設定済み) | Type II 取得済み(Trust Center) | AI Policy |
| Devin(Cognition) | Team Plan | 利用しない(設定済み) | Type II 取得済み(Trust Center) | Security & Privacy |
| GitHub Copilot | Business Plan | 利用しない | Type II 取得済み(Trust Center) | Copilot Business |
| Microsoft(Azure AI) | Azure OpenAI Service | 利用しない | Type II 取得済み(Trust Center) | Data Privacy |
| AWS(Bedrock) | Amazon Bedrock | 利用しない | Type II 取得済み(AWS Artifact) | Security & Compliance |
※ 使用ツールは業務ニーズや技術動向に応じて随時更新します。新たなツールを追加した場合はこのページに反映します。
※ 一部のサービスは各社の API 経由で利用する場合があります。API 利用時も同様に各社のビジネス向けポリシーおよび契約条件が適用されます。
※ 新規ツールの導入や大量データの投入など、リスクを伴う事象は管理責任者に事前確認を行います。
クライアントの情報を生成AIに入力する際は、以下のルールを厳守します。
生成AIの出力は、必ず人間の専門家によるレビューを経てから納品・提出します。
生成AIはハルシネーション(事実と異なる情報の生成)を起こす場合があります。このリスクを前提に、ファクトチェックと人間による最終判断を業務フローに組み込んでいます。
また、AIの出力には特定の属性(性別・国籍・年齢・思想等)に対するバイアスや偏向が含まれる場合があります。そのような出力をそのまま使用しないよう、レビュー時に確認を行います。
生成AIを活用した成果物の著作権・知的財産については、以下の方針で対応します。
生成AIを取り巻く技術・法制度・業界慣行は急速に変化しています。本ポリシーは定期的に見直しを行い、常に最新の状況を反映します。
制定日:2025年4月1日
最終改訂日:2026年4月1日
対象:株式会社ディバータ 全業務
改訂履歴
2026年4月1日:内容見直し(サービス追加・AI利用範囲・データ取り扱いの明確化)
本ポリシーに関するご質問は、以下の窓口までご連絡ください。
support@diverta.co.jp