「ChatGPTを使っていいのか、社内でまだ決まっていない」——そういう状況の会社は、今も珍しくありません。
禁止するのは簡単ですが、それでは生産性向上のチャンスを逃します。かといって「自由に使っていい」だけでは、意図しない情報漏洩が起きるリスクがあります。
社内SEとして現場でよく見るのは、ルールがないまま各自が使い始めているという状態です。この記事では、そうした状況に対して実際に使えるガイドラインの骨格と、そのまま転用できるテンプレートを紹介します。
なぜAI利用ガイドラインが必要か
生成AIを業務で使うとき、主に3つのリスクがあります。
機密情報の外部流出、誤情報(ハルシネーション)の利用、著作権・コンプライアンスの問題です。
特に社内SEは、システム構成・ユーザーアカウント・業務データなど、他の職種より機密性の高い情報に触れる機会が多い。だからこそ、ルールを自分たちで整備しておく必要があります。
社内SEが注意すべき3つのリスク
① 情報漏洩
AIに入力した内容は、そのままAPIを通じて外部サービスに送信されます。ChatGPTの無料プランや企業向けでないプランでは、入力内容がモデルの学習に使われる可能性があります。
絶対に入力してはいけない情報の例:
- 顧客の氏名・メールアドレス・連絡先
- 社内のネットワーク構成図・IPアドレス体系
- パスワード・APIキー・認証情報
- 未公開の業務データや経営情報
② 誤情報の利用(ハルシネーション)
生成AIはもっともらしい文章を生成しますが、内容が正確とは限りません。存在しないコマンド・古い仕様・間違った手順を堂々と出力することがあります。
特に注意が必要なのは技術情報です。「動いた」と思ったら意図しない動作をしていた、というケースは社内SEの業務では致命的になり得ます。コード・設定手順・仕様説明は必ず自分で検証してください。
③ 著作権・コンプライアンスの問題
生成された文章やコードが、既存の著作物に類似する内容を含む可能性があります。社外向けのドキュメントや公開するコードに生成AIの出力をそのまま使う場合は、確認が必要です。
やってはいけない使い方(禁止事項)
社内ルールとして明確に禁止すべき事項をまとめます。
■ 禁止事項
・顧客情報(氏名・連絡先・取引情報)をそのまま入力する
・社内ネットワーク構成・サーバー情報を入力する
・パスワード・APIキー・認証情報を入力する
・未公開の業務データ・経営情報を入力する
・生成された内容を確認せずそのまま外部に公開する
安全に使うための4つのルール
① 情報は必ず抽象化して入力する
実際のデータを使わなくても、目的は達成できます。
❌ NG:
「顧客Aの売上データを分析して」
✅ OK:
「以下のような構造の売上データを分析する場合、どんな手順が考えられますか?
列:日付、商品名、数量、単価、合計金額」
構造や条件を抽象化して伝えることで、実データなしに有用な回答を引き出せます。
② ダミーデータを使う
Excelの関数やVBAを試したいときは、実データではなくサンプルデータを使ってください。ChatGPTに「サンプルデータを生成して」と依頼すれば、テスト用のデータをすぐに作れます。
③ 出力内容は必ず確認する
AIの出力は「叩き台」です。そのまま使えるケースもありますが、特に以下は確認必須です。
- 技術情報・コマンド:実際に動作するか検証する
- 数値・仕様・手順:公式ドキュメントと照合する
- 社外向けドキュメント:内容の正確性・表現を自分でレビューする
④ AIは”下書き生成ツール”として使う
「AIが作った=完成品」ではありません。問い合わせ対応の返信文・手順書・報告書など、どれも最終確認は人間が行う前提で使ってください。
実務での安全な使い方|具体例
問い合わせ対応
- よくある質問への返信文の下書き生成
- エラーメッセージの説明文を平易な言葉に変換
- 対応手順のステップ整理
実データは不要です。「VPNに接続できないというユーザーへの返信文を書いてください」のような形で使えます。
ドキュメント作成
- 手順書の初稿生成(実際の設定値はあとで自分で入れる)
- マニュアルの構成案作成
- 議事録の整形・要約
コード生成
- VBA・PowerShellスクリプトの叩き台作成
- エラーメッセージの原因調査
- 既存コードのリファクタリング案の検討
いずれも、実データを渡さなくても有用な出力が得られます。
関連記事:ChatGPTでExcel業務を自動化する方法|社内SEが使える関数・VBA活用例
そのまま使える社内ルールテンプレート
以下をコピーして、社内Wiki・Notionページ・PDF等に貼り付けてご利用ください。
━━━━━━━━━━━━━━━━━━━━
【生成AI(ChatGPT等)利用ルール】
制定:20XX年XX月
━━━━━━━━━━━━━━━━━━━━
■ 禁止事項
・顧客情報(氏名・連絡先・取引情報)の入力
・社内ネットワーク構成・サーバー情報の入力
・パスワード・APIキー・認証情報の入力
・未公開の業務データ・経営情報の入力
・出力内容を確認せずそのまま外部公開すること
■ 利用ルール
・入力情報は必ず抽象化・匿名化する
・テスト・検証にはダミーデータを使用する
・出力内容は必ず自分でレビューしてから使用する
・技術情報(コマンド・設定手順)は必ず動作確認する
■ 利用可能な用途
・文章の下書き生成・整形
・業務手順の整理・構成案の作成
・コード生成(検証・修正を行った上で使用すること)
・社内向けドキュメントの初稿作成
■ 利用ツールの範囲
(自社で承認されたツールを記載してください)
例:ChatGPT Enterprise、Microsoft Copilot(社内ライセンス)
━━━━━━━━━━━━━━━━━━━━
社内導入時の運用ポイント
小さく始める
いきなり全社展開するのではなく、まずIT部門やパイロット部門に限定して運用するのがおすすめです。問題が起きたときの影響範囲を小さくできます。
利用状況を把握する
企業向けプラン(ChatGPT Enterprise、Microsoft Copilot等)では、管理者が利用ログや利用者を確認できる機能があります。「誰がどう使っているか」を把握することで、ルール違反の早期発見や、活用が進んでいる部門のノウハウ共有につながります。
NG例を共有して教育する
「禁止」だけ伝えてもルールは浸透しません。「これをやるとどうなるか」という具体的なNG例を、部門ミーティングや社内Wikiで共有することが効果的です。
まとめ
生成AIを安全に業務で使うために、社内SEとして最低限整備しておきたいのはこの3点です。
- 何を入力してはいけないかを明文化する
- 出力内容は必ず確認するという文化を作る
- ルールを定期的に見直す(AIツールの仕様は頻繁に変わります)
「使わせない」より「安全に使わせる」方が、組織にとって長期的にはプラスです。まずはこの記事のテンプレートをベースに、自社に合わせたガイドラインを作ってみてください。

