「勝手にAI使ってた」では済まない——警視庁も注意喚起、中小企業が今すぐ整えるべきAI利用ルールの3つの柱

公開日: 2026年05月13日
カテゴリ: 社内推進
経営者の方へ
社員が会社に無断でAIツールを使い始めており、情報漏えいや法的トラブルのリスクが静かに積み上がっています。
「うちは大丈夫」と放置すると、顧客情報の流出や取引先との信頼損失につながる可能性があります。
まず今週中に「うちの会社でのAIの使い方ルール」を1枚の紙にまとめることを試してみてください。AI推進担当者の方へ
社内のAI管理は「教えて使わせる」段階から「どう使わせるかを決める」段階へ移っています。
今月中に「社内で使っていいAIツールのリスト」と「入力してはいけない情報のリスト」を作成して共有しましょう。
経営層への説明では「警視庁が注意喚起を出した」という事実を起点にすると話を進めやすくなります。
この記事でわかること
- 社員がこっそりAIを使っていたら、会社にどんな問題が起きるのか
- 中小企業がまず整えるべきAI利用ルールとは何か
- 今日から社内で実践できる3つの柱の具体的な内容
- 「うちの会社はどこから手をつければいいか」を自分で判断できる基準
- 明日から動けるルール整備の最初の一歩
まず一言で言うと
社員が会社の許可なくAIツールを使うことを「シャドーAI」と呼びます。要は「会社のルールなしに、個人の判断でAIを使っている状態」のことです。飲食店で例えると、アルバイトが厨房のルールを知らないまま勝手に新しい調理器具を使い始めているようなもの。便利かもしれませんが、何かあったときに会社が困ります。警視庁が「それは危ない」と正式に注意を呼びかけたのが、この記事のきっかけです。
読む前に確認しておきたい言葉
| 言葉 | 一言で言うと | 身近な例え |
|---|---|---|
| シャドーAI | 無断でAIを使うこと | 会社のルールなしに私物スマホで業務連絡するのと似ている |
| ハルシネーション | AIがウソをつく現象 | 自信満々に間違いを言う新入社員のようなもの |
| 情報漏えい | 社外に情報が出てしまうこと | 会議室の話し声が廊下に筒抜けになっている状態 |
| 著作権侵害 | 他者の創作物を無断で使うこと | 他の店のメニューをそのままコピーして使うようなもの |
| ChatGPT | OpenAIが提供するAI会話ツール | 質問に答えてくれる高性能な文章作成アシスタント |
| Gemini | Googleが提供するAI会話ツール | ChatGPTと似た機能を持つGoogle版のアシスタント |
なぜ今これが問題になっているのか
2025年ごろから、ChatGPTというAI会話ツールやGeminiというAI会話ツールが急速に普及しました。使い方は簡単で、スマホやパソコンから誰でも無料で使い始められます。
その結果、会社がルールを作る前に、社員が「便利だから」という理由で業務にこっそり使い始めるケースが増えています。
これが「シャドーAI」と呼ばれる状態です。
2026年5月、警視庁はこのシャドーAIについて正式に注意喚起を発表しました。具体的には次の3つのリスクを示しています。
- 情報漏えい:顧客データや社内情報をAIに入力すると、AIサービスの学習データとして使われる可能性があります
- 著作権侵害:AIが生成した文章や画像には、他者の著作物が含まれることがあります
- ハルシネーション:AIが自信満々に間違った情報を出力することがあります
中小企業でもこれは他人事ではありません。社員10人でも1人が顧客情報をAIに入力すれば、リスクは同じです。
柱①「使っていいAIツール」を会社として決める
シャドーAI対策の第一歩は、「使っていいAIツールのリストを作る」ことです。
禁止するのではなく、「会社として認めたツール」を先に決めるのがポイントです。禁止だけだと、社員は隠れて使い続けます。
具体的なステップ
ステップ1:現状を把握する(1週間)
まず社内で「AIツールを使っている人はいますか?」とアンケートを取ります。Googleフォームという無料の回答収集ツールなどで5分で作れます。
ステップ2:使っていいツールを1〜2本に絞る(1週間)
たとえば「Google workspaceを会社として契約し、Geminiのみ使用する」という形にすると、会社側でアカウントを管理でき、社員が個人アカウントで使うリスクを減らせます。
製造業の例: 金属加工業の会社で、現場リーダーが個人スマホアプリのChatGPTで「設備トラブルの対処法」を調べていたケース。回答に誤りがあっても気づかず作業してしまうリスクがありました。会社公認のツールを決め、「AIの回答は必ず自分で確認する」というルールを1枚紙で配布したことで、安心して活用できる環境が整いました。
柱②「入力してはいけない情報」を明文化する
AIツールを使う上で最もリスクが高いのは、「何をAIに渡すか」です。
会社のルールとして「これはAIに入力しない」という情報の種類を、社員が見てすぐわかる形で示しましょう。
入力を禁止すべき情報の例
| カテゴリ | 具体例 |
|---|---|
| 顧客情報 | 顧客の氏名・住所・電話番号・購買履歴 |
| 社内機密 | 取引先との契約金額・未発表の新製品情報 |
| 個人情報 | 社員の給与・健康診断結果 |
| 財務情報 | 未公表の決算数字・資金繰り計画 |
このリストを「AI利用ガイドライン」という1枚の紙にまとめて、社員に配布するだけで十分です。最初から完璧である必要はありません。
小売業の例: アパレルの小売店で、店長がClaudeを使って「今月の売上データを分析して」と入力していたケースがあります。売上の数字そのものは問題ないように見えますが、顧客ごとの購買データや個人名が含まれていると情報漏えいになる可能性があります。「数字だけなら入力してよい、名前は消す」というルールを決めるだけで、リスクは大きく下がります。
柱③「AIの回答をそのまま使わない」習慣を作る
警視庁が指摘した3つのリスクの中で、現場で最も起きやすいのが「ハルシネーション」です。
AIは「知らないことは知らない」とは言いません。それらしい文章で間違いを出力することがあります。
業務で危険なシーンの例
- 法律や税務に関する質問でAIの回答をそのまま使う
- 製品の仕様やスペックをAIに確認してそのまま見積もりに使う
- AIが作成した契約書の文面を確認せず使用する
士業(税理士事務所)の例: 補助金の申請要件をChatGPTに確認したところ、古い情報をもとにした回答が返ってきたケースがあります。「2025年度の要件は〜」と書いてあっても、実際の最新情報とは異なっていました。AIの回答は「たたき台」として使い、必ず公式サイトや専門家で確認するという手順を社内で決めることが重要です。
フィノジェンの見解:自社のAIルール整備、今どの段階にいるかチェック表
以下の問いに答えて、今の自社の状態を確認してください。
ステップ確認チェック
| チェック項目 | はい | いいえ |
|---|---|---|
| 社内でAIツールを使っている社員がいるか把握している | ✅ | 🔲 |
| 会社として使っていいAIツールを決めている | ✅ | 🔲 |
| 入力してはいけない情報のルールを文書で示している | ✅ | 🔲 |
| 社員に「AIの回答は必ず確認する」と伝えている | ✅ | 🔲 |
| AI利用に関して困ったときの相談窓口を決めている | ✅ | 🔲 |
判断の目安
「いいえ」が4〜5個の場合
→ まず現状把握から始めましょう。社内アンケートで「誰が何のAIツールを使っているか」を把握することが最初の一歩です。
「いいえ」が2〜3個の場合
→ ルールの文書化が次のステップです。「入力禁止リスト」と「使っていいツールのリスト」を1枚紙にまとめましょう。
「いいえ」が0〜1個の場合
→ 基本的な整備はできています。次は「AIをどう業務改善に活かすか」の具体的な活用計画に進めます。
行動プラン
今週中にできること(お金ゼロ・1時間以内)
- Googleフォームという無料ツールで「社内でAIを使っていますか?」という5問程度のアンケートを作り、全社員に送る
- 「入力してはいけない情報リスト」の草案をメモ帳に書き出す(顧客の名前・住所・契約金額など、思いつくものでOK)
今月中にできること
- 「社内AI利用ガイドライン」をA4一枚にまとめて全社員に配布する(使っていいツール・禁止事項・確認ルールの3項目だけでOK)
- 社内で一番AIを使っている社員に声をかけ、「どう使っているか」を15分ヒアリングする
3か月後の理想像
「誰が何のAIツールを使っているか」が把握できており、社員が安心してAIを使える環境が整っています。情報漏えいへの不安がなくなり、AIをうしろめたく使う状態が解消されています。担当者が「AIで文章を作る」「定型業務の下書きをAIに任せる」といった活用が週に数回行われており、1人あたり週2〜3時間の作業時間が短縮されている状態を目指しましょう。
よくある不安・疑問
Q1. ルールを作るのに法律の知識が必要では?
最初は難しく考えなくて大丈夫です。「顧客の個人情報はAIに入力しない」「回答はそのまま使わず確認する」という2行だけでも立派なルールです。法的な整備は後から専門家に相談しながら充実させていけばOKです。
Q2. ルール作りにお金はかかりますか?
現状把握と文書作成だけなら費用ゼロです。Googleの無料ツールでアンケートを作り、WordやGoogleドキュメントでガイドラインを書けば、追加費用はかかりません。会社としてAIツールを契約する場合でも、ChatGPTの有料版は月額3,000円程度から始められます。
Q3. ルールを作っても社員が守らなかったら?
いきなり厳しい禁止ルールを作ると守られにくくなります。最初は「入力禁止リスト」だけ伝える、というシンプルな形から始めると浸透しやすいです。禁止より「安全な使い方の見本」を示すほうが効果的です。
Q4. うちは社員が少ないので関係ないのでは?
社員が5人でも3人でも、1人が顧客情報をAIに入力すれば情報漏えいのリスクは同じです。むしろ小規模な会社のほうが、1件のトラブルが会社全体の信頼に直結します。小さいうちにルールを作るほうが、修正も簡単にできます。
Q5. どのAIツールを選べばいいかわからない
最初はChatGPTというAI会話ツールかGeminiというAI会話ツールの無料版で試してみることをおすすめします。どちらも無料で使え、アカウント登録だけで始められます。ツールの選び方について詳しくは、[ChatGPT・Gemini・Copilotどれを選ぶ?中小企業がAIツールを選ぶときに最初に確認すべき3つのポイント]もご覧ください。
参考文献
- 警視庁によるシャドーAI注意喚起記事 - https://www.itmedia.co.jp/aiplus/articles/2605/12/news144.html
- OpenAI、企業導入支援の新会社を設立 - https://www.itmedia.co.jp/aiplus/articles/2605/12/news064.html
- AIが攻撃コードと開発環境を直接狙う段階へ - https://www.itmedia.co.jp/aiplus/articles/2605/12/news147.html
- DeepSeek、初の外部資金調達へ - https://www.businessinsider.jp/article/2605-insidechina-deepseek-funding/
- 個人情報保護委員会「個人情報の保護に関する法律についてのガイドライン」 - https://www.ppc.go.jp/personalinfo/legal/guidelines_tsusoku/
- 経済産業省「AI時代の知的財産権検討会」中間とりまとめ - https://www.meti.go.jp/press/2023/07/20230704001/20230704001.html
- 総務省「AIの利活用に関する倫理指針」 - https://www.soumu.go.jp/main_sosiki/joho_tsusin/d_syohi/ai_network.html
- 内閣府「AI戦略会議」資料 - https://www8.cao.go.jp/cstp/ai/index.html
この記事を書いたフィノジェンについて
フィノジェンは、AIを業務で使いこなしたい中小企業の経営者・推進担当者を支援しています。「理屈ではなく、今週から使える情報」をお届けすることを大切にしています。
