AI Policy

生成AI活用ポリシー

私たちは、生成AIをプロフェッショナルとして責任ある形で活用することで、より高品質なサービスをより速くご提供できると考えています。

生成AIはコーディングや提案資料の作成など、私たちの業務を多面的に支援するツールです。一方で、最終的な品質の判断・確認・責任はすべて私たち自身が担います。AIを道具として使いこなしながら、人間としての専門性・倫理観を組み合わせることが、私たちの基本姿勢です。

個別契約・秘密保持契約・顧客セキュリティ要件等に本ポリシーと異なる定めがある場合は、当該契約・要件を優先します。

1. 活用している領域

以下の業務において、生成AIを積極的に活用しています。

開発・制作

  • プログラムコードの生成・レビュー・リファクタリング支援
  • テストコードの作成、バグ調査の補助
  • ドキュメント・コメントの自動生成

営業・提案支援

  • 提案資料・企画書・要件定義書のドラフト作成
  • 競合調査・市場調査の補助
  • 議事録・報告書の要約・整形
  • お問い合わせ・商談後の返信メール下書き作成

サポート業務

  • よくあるお問い合わせへの自動応答・初回返信の下書き作成
  • 問い合わせ内容の分類・優先度判断の補助

その他

  • 社内業務効率化のためのツール開発・運用
  • 社内ナレッジベースの構築・運用
  • 社内向け情報発信コンテンツの作成
  • セキュリティチェックシートの確認、記載
  • 各種契約書の内容確認

2. 使用ツール

入力データの学習利用について

当社では、入力データがモデルの学習に使用されないことが、各サービスのポリシーおよび契約条件において明確に定められている生成AIサービスのみを利用します。いずれも有料プラン・ビジネスプランを契約しており、各社のトラストセンターにてセキュリティ認証(SOC 2 Type II 等)を確認しています。

サービス 契約プラン データ学習への利用 SOC 2 ポリシー詳細
Anthropic(Claude) Team Plan 利用しない Type II 取得済み(Trust Center Privacy Policy
OpenAI(ChatGPT) Business Plan 利用しない(設定済み) Type II 取得済み(Trust Portal Enterprise Privacy
Google(Gemini) Enterprise / Vertex AI 利用しない Type II 取得済み(Trust Center Data Governance
Cursor Teams 利用しない(Privacy Mode 設定済み) Type II 取得済み(Trust Center Data Use & Privacy
v0(Vercel) Pro Plan 利用しない(設定済み) Type II 取得済み(Trust Center AI Policy
Devin(Cognition) Team Plan 利用しない(設定済み) Type II 取得済み(Trust Center Security & Privacy
GitHub Copilot Business Plan 利用しない Type II 取得済み(Trust Center Copilot Business
Microsoft(Azure AI) Azure OpenAI Service 利用しない Type II 取得済み(Trust Center Data Privacy
AWS(Bedrock) Amazon Bedrock 利用しない Type II 取得済み(AWS Artifact Security & Compliance

※ 使用ツールは業務ニーズや技術動向に応じて随時更新します。新たなツールを追加した場合はこのページに反映します。
※ 一部のサービスは各社の API 経由で利用する場合があります。API 利用時も同様に各社のビジネス向けポリシーおよび契約条件が適用されます。

※ 新規ツールの導入や大量データの投入など、リスクを伴う事象は管理責任者に事前確認を行います。

3. クライアント情報の取り扱い

クライアントの情報を生成AIに入力する際は、以下のルールを厳守します。

  • 入力するサービスはビジネスプラン契約済みのものに限定します。 データ保護契約が適用されるため、入力情報がモデルの学習に使用されることはありません。
  • 機密性の高い情報(個人情報・未公開の事業情報・契約内容など)は、必要最小限の範囲にとどめます。 業務上必要な場合に限り慎重に取り扱い、不要な情報の入力は行いません。
  • なお、弊社のお見積もりは特段のご指定がない限り生成AIの活用を前提とした工数で算出しています。プロジェクトごとに使用範囲の制限・調整をご要望の場合はお気軽にご相談ください。その際は利用範囲に応じてお見積もりが変わる場合があります。

4. 成果物の品質保証

生成AIの出力は、必ず人間の専門家によるレビューを経てから納品・提出します。

  • コード: 動作確認・セキュリティチェック・コーディング規約への適合を担当エンジニアが確認します
  • 提案資料・ドキュメント: 事実確認・論理整合性・クライアントへの適合性を担当者がレビューします。
  • AIによる生成物をそのまま成果物とすることはありません。 編集・加筆・検証を行ったうえで最終成果物とします。

生成AIはハルシネーション(事実と異なる情報の生成)を起こす場合があります。このリスクを前提に、ファクトチェックと人間による最終判断を業務フローに組み込んでいます。

また、AIの出力には特定の属性(性別・国籍・年齢・思想等)に対するバイアスや偏向が含まれる場合があります。そのような出力をそのまま使用しないよう、レビュー時に確認を行います。

5. 著作権・知的財産の方針

生成AIを活用した成果物の著作権・知的財産については、以下の方針で対応します。

  • 生成AIの出力をそのまま使用するのではなく、人間が実質的な創作・編集を加えることで、成果物の著作権が帰属できる状態を確保します。
  • 第三者の著作物に類似する可能性がある出力については、納品前に確認・修正を行います。
  • クライアントからご提供いただいた素材・情報を生成AIに入力する際は、事前にご確認・ご同意をいただきます。
  • 生成AIツール各社の利用規約を遵守し、商用利用の範囲内で使用します。

6. 継続的なアップデート

生成AIを取り巻く技術・法制度・業界慣行は急速に変化しています。本ポリシーは定期的に見直しを行い、常に最新の状況を反映します。

  • 重要な変更が生じた場合は、このページにて告知します。
  • 法令・ガイドライン(経済産業省「AI事業者ガイドライン」等)の改訂に合わせて内容を更新します。
  • 社員のAIリテラシー向上に継続的に取り組み、適切かつ安全な活用を組織全体で推進します。

制定日:2025年4月1日
最終改訂日:2026年4月1日

対象:株式会社ディバータ 全業務

改訂履歴
2026年4月1日:内容見直し(サービス追加・AI利用範囲・データ取り扱いの明確化)

お問い合わせ

本ポリシーに関するご質問は、以下の窓口までご連絡ください。
support@diverta.co.jp