ChatGPTをはじめとする生成AIツールが、中小企業の日常業務に急速に浸透しています。しかし、セキュリティ対策がその速度に追いついていない企業が大半です。本記事では、自社のAI利用を今すぐ点検できる30項目のチェックリストを、6つのカテゴリに整理してお届けします。
なぜ今、中小企業にAIセキュリティが必要か
IPA(情報処理推進機構)の「情報セキュリティ10大脅威2024」では、ランサムウェアが4年連続1位を維持し、生成AIを悪用した新たな攻撃手法も注目分野として取り上げられています。警察庁の統計でも、ランサムウェア被害企業の半数以上が中小企業です。
「うちは大企業ではないから大丈夫」と思う経営者も多いですが、実態は逆です。セキュリティ体制が手薄な中小企業こそが格好の標的です。AIを使った攻撃は自動化・低コスト化が進んでいるため、業種や規模を問わず誰でも被害者になりえます。
- シャドーIT:従業員が無許可で個人用AIツールを業務利用している
- 機密データ流出:顧客情報や社内資料を無意識にAIへ入力してしまう
- ベンダー依存:評価なしにAI SaaSを契約し、契約条件を把握していない
- ハルシネーション被害:AI生成の誤情報を確認せずに社外へ発信してしまう
国内の製造業(従業員約300名)で、営業担当者が顧客の個人情報をAIチャットに貼り付けて提案書を作成。無料プランでは入力データが学習に利用される設定が初期値になっており、個人情報保護法上のリスクが後から発覚したケースがあります。
チェックリストの全体像と使い方
このチェックリストは「できている/できていない/未確認」の3段階で評価します。完璧を目指す必要はありません。まず現状を可視化し、「できていない」「未確認」の項目を洗い出すことが目的です。
点検後は、重要度と対応コストで優先順位をつけます。全項目を一度に対策しようとすると挫折しやすいため、まず最もリスクの高い5〜10項目に集中する進め方を推奨しています。
「できている」が21〜30項目:良好な水準です。11〜20項目:改善が必要な状態です。10項目以下:今すぐ優先対応が必要です。まず正直に現状を採点することから始めましょう。
カテゴリ1・2|ガバナンスとデータ保護(項目1〜12)
ガバナンスとデータ保護は、AIセキュリティの根幹です。「何のAIをどう使うか」を会社として決め、「どんなデータを入力してはいけないか」を明文化することが出発点になります。ルールのない状態でAIを使うのは、鍵のかかっていない金庫に社員を自由に出入りさせるようなものです。
- □ 1. AI活用ポリシーを文書化し、全社員に周知している
- □ 2. 承認済みAIツールのリストを管理・定期更新している
- □ 3. シャドーIT(無許可のAI利用)を定期的に確認している
- □ 4. AI生成コンテンツに人間のレビュープロセスを設けている
- □ 5. AIの利用目的を役職・役割ごとに定義している
- □ 6. 個人情報・機密情報をAIへ入力しないルールがある
- □ 7. AIツールが入力データをどこに保存するか把握している
- □ 8. 学習オプトアウトの設定を確認・適用している
- □ 9. 顧客データをAIで処理する場合、利用規約上の同意を取得している
- □ 10. データが国外サーバーに送信される事実を認識している
- □ 11. 社内情報の機密区分(公開・社内限・極秘)を定義している
- □ 12. RAGやAI学習用データを匿名化・クレンジングしている
ChatGPTの無料プランは、初期設定でユーザーの入力がモデル改善に利用される場合があります。業務利用にはAPIプランまたは有料プランのオプトアウト設定を必ず確認してください。チームで使う場合は「ChatGPT Team」プランが推奨されています。
カテゴリ3・4|アクセス制御とベンダー管理(項目13〜22)
AIツールへのアクセスを「誰でも使える状態」にしていませんか?退職者のアカウントが削除されないまま残るだけで、外部からの不正アクセスリスクが生まれます。銀行口座を退職した元従業員と共有し続けているようなものです。
ベンダーとの契約条件も、後から確認して驚くケースが非常に多い領域です。特に「データ処理契約(DPA)」を締結していない場合、個人情報保護法やGDPRへの違反リスクを抱えたまま運用していることになります。

- □ 13. AIツールへのMFA(多要素認証)を全アカウントに適用している
- □ 14. 退職・異動時にAIアカウントを即時削除するフローがある
- □ 15. APIキーをソースコードや共有ドキュメントに書き込んでいない
- □ 16. AIシステムへのアクセスを最小権限(必要な人だけ)で管理している
- □ 17. AIツールの利用ログ・監査証跡を一定期間保存している
- □ 18. 利用中のAIサービスとデータ処理契約(DPA)を締結している
- □ 19. AIベンダーのセキュリティ認証(SOC2・ISO27001等)を確認している
- □ 20. AIサービスが停止した場合の業務継続策がある
- □ 21. モデルのバージョンアップによる挙動変化に対応できる体制がある
- □ 22. 契約終了時のデータ削除条件を確認・合意している
カテゴリ5・6|インシデント対応と従業員教育(項目23〜30)
「AIが絡んだ事故が起きたとき、誰が何をすべきか」を定めていない企業がほとんどです。火災報知器はあっても避難訓練をしていない状態に似ています。インシデント対応と従業員教育は後回しにされがちですが、実際の被害を最小化するうえで最も重要なレイヤーです。
- □ 23. AIを起因とするインシデントの対応計画(IR)を策定している
- □ 24. AIのハルシネーション(誤情報生成)による被害を報告するフローがある
- □ 25. AIが関係した情報漏洩を検知する仕組みがある
- □ 26. インシデント訓練にAIシナリオ(ディープフェイク詐欺等)を含めている
- □ 27. AI利用に関するセキュリティ研修を定期的に実施している
- □ 28. プロンプトインジェクション攻撃の手口を従業員が理解している
- □ 29. AI悪用フィッシング・ボイスクローン詐欺の手口を教育している
- □ 30. AI生成コンテンツ(ディープフェイク・フェイク文書)の見分け方を教育している
2024年、国内の中堅商社(従業員数百名規模)で、経営幹部の声を模倣したAI音声を使った振り込め詐欺が発生。担当者が本物と信じて送金手続きを開始した事例が報告されています(匿名化済み)。AIを悪用した社会工学攻撃は、中小企業にとっても身近なリスクです。
スコアリングで優先順位をつける方法
30項目すべてを同時に対策するのは現実的ではありません。「できていない」「未確認」の項目を洗い出した後、次の3段階で優先順位をつけましょう。限られたリソースを最もリスクの高い箇所に集中させることが重要です。
- 最優先(今月中):データ漏洩・アクセス制御に直結する項目 → 6・7・8・13・14・15
- 中優先(3ヶ月以内):ガバナンス文書化・ベンダー評価・IR計画 → 1・2・18・19・23
- 計画的対応(半年以内):教育プログラム・定期訓練・ログ整備 → 17・26・27・28・29・30
まず今週できる3ステップ
チェックリストを眺めて終わりにしないために、今週中に着手できるアクションを3つに絞りました。どれも特別なシステム導入や費用は不要です。
- STEP 1:社内で使われているAIツールをすべて洗い出す(各部門長・IT担当者に確認)
- STEP 2:個人情報・社外秘をAIに入力しないルールを1枚ペーパーで全社周知する
- STEP 3:使用中AIサービスのプライバシー設定(学習オプトアウト)を確認・変更する
AIセキュリティの整備に、大掛かりなシステム導入は必要ありません。まず「自社のAI利用を見える化する」ことが、すべての起点です。
Liberta Structureでは、中小企業向けのAIセキュリティ診断サービスをご提供しています。本記事の30項目を使った採点から、優先対応計画の策定まで、まずはお気軽にご相談ください。
AIセキュリティ診断を無料で相談する
お問い合わせ