「ChatGPTのアカウントを業務で使っているが、セキュリティ設定は何もしていない」——そんな企業が今も少なくありません。OpenAIは、フィッシング耐性のある認証方式・強化されたアカウント回復・機密データ保護を含む「高度なアカウントセキュリティ(Advanced Account Security)」を公式に発表しました。
AIツールが業務の中核を担う今、OpenAIアカウントの乗っ取りは単なる不便では済みません。機密プロンプト・APIキー・業務上のやり取りが外部に流出するリスクを伴います。本記事では発表内容を解説し、情シス担当者・CTOが今すぐ取れる対策を整理します。

なぜ今、AIアカウントのセキュリティが急務なのか
OpenAIアカウントは、攻撃者にとって「宝の山」です。ログインできれば、その企業が蓄積した業務プロンプト・カスタムGPT・APIキーに一気にアクセスできます。特にAPIや社内システムと連携している場合、被害はインフラ全体に波及しかねません。
- 流出したAPIキーによる不正課金・サービス悪用(数十〜数百万円規模に達することも)
- 業務プロンプトに含まれる機密情報(顧客データ・設計書など)の漏洩
- 社内AIシステムへの不正アクセスの「踏み台」化
- 乗っ取ったアカウントを使ったなりすましメール・詐欺コンテンツの生成
実際、AIサービスの普及に伴い、フィッシングでAIプラットフォームのログイン情報を盗む攻撃が増加しています。情報窃取マルウェアで大量の認証情報を盗み、ダークウェブで売買する手口も確認されており、国内企業も対岸の火事ではありません。
OpenAI APIキーをソースコードに直書きしてGitHubにコミットしてしまう事故は後を絶ちません。公開リポジトリのスキャンは自動化されており、数分以内に第三者に発見・悪用されるケースも報告されています。シークレット管理の見直しも急務です。
OpenAI「高度なアカウントセキュリティ」3つの柱
今回OpenAIが発表した「Advanced Account Security」は、主に3つの機能強化で構成されています。それぞれが互いを補い合い、アカウント乗っ取りに対する多層防御を実現する設計です。
- ① フィッシング耐性のある認証:パスキー・ハードウェアセキュリティキーによるログイン強化
- ② 強化されたアカウント回復:不正なパスワードリセット・回復フローの悪用を防止
- ③ 機密データ保護:APIキーや会話データへのアクセス制御と異常通知の強化
パスキーとは何か|フィッシングが「原理的に」通用しない理由
「パスキー」を初めて聞く方も多いかもしれません。一言で言えば「パスワードを使わず、デバイスと生体認証でログインする仕組み」です。スマートフォンの指紋認証や顔認証で銀行アプリにログインする感覚に近いものです。
従来のパスワードは、偽のログインページに入力させる「フィッシング」で盗まれます。一方パスキーは、登録時に特定サービスのURLと紐づいた暗号鍵を生成します。たとえ本物そっくりの偽サイトに誘導されても、URLが異なるため鍵が一致せずログイン自体が成立しません。
パスキーはApple・Google・Microsoftが共同推進するFIDO2規格に準拠しています。OpenAI以外にもGitHub・Google・Apple IDなど主要サービスが採用を拡大しており、今後の「パスワードレス時代」の主流となる技術です。ハードウェアキー(YubiKeyなど)も同規格に対応しています。
企業でOpenAIを安全に運用する|今すぐできる設定ステップ
「機能が発表されたのはわかったが、実際に何を設定すればいいのか」——情シス担当者が最も知りたい部分です。組織として取るべき設定を優先度順に整理しました。
- 【最優先】全アカウントへのMFA必須化(管理者コンソールから強制設定可能)
- 【優先高】パスキーまたはハードウェアセキュリティキー(YubiKeyなど)の登録
- 【優先高】APIキーの棚卸し・不要キーの削除・定期的なローテーションの実施
- 【推奨】アカウント回復メールを信頼できる組織アドレスに設定・確認
- 【推奨】不審なログインの通知アラート設定と対応フローの整備
- 【推奨】退職・異動時のアカウント権限変更を即時対応するルールの策定
コスト削減のため、部署内で1つのOpenAIアカウントを共有している企業があります。この運用では誰がいつアクセスしたか追跡できず、退職者のアクセスも遮断できません。ChatGPT TeamまたはEnterpriseプランへの移行と個人アカウント発行を強く推奨します。
アカウント乗っ取りが発生したら何が起きるか|リスクシナリオを整理する
「自社はまだ大丈夫」と思っていても、被害は予告なく起きます。過去には、大手テクノロジー企業のAIサービスアカウントが情報窃取マルウェアにより大量に不正アクセスを受け、ダークウェブで売買されていた事例が複数報告されています。
- APIキー不正利用による数十〜数百万円規模の不正課金
- カスタムGPTや業務プロンプトの内容漏洩・競合情報への流出
- 乗っ取りアカウントを踏み台にした社内システムへの侵入試行
- 取引先へのなりすまし連絡・フィッシングメールの送信悪用
特に怖いのは「気づきにくさ」です。APIキーの不正利用は、請求額が急増するまで発見されないケースが多く、発覚時にはすでに大量のデータが処理されていることもあります。リアルタイムの利用量モニタリングと、閾値超過時の自動アラートが不可欠です。
AI活用と企業セキュリティガバナンス|ゼロトラストの文脈で捉える
今回のOpenAIの発表は、単一サービスのセキュリティ改善にとどまりません。AI活用が広がる中、「社員が使うSaaSの認証をどう管理するか」というゼロトラストセキュリティの根幹に関わる問いです。
ゼロトラストの原則は「信頼しない、常に検証する」。OpenAIのような外部SaaSも例外ではなく、IDプロバイダー(IdP)による一元管理・条件付きアクセスポリシー・定期的な認証情報の監査が求められます。
- SSOとIdPによる一元認証管理(Okta・Microsoft Entra IDなど)
- MFAの全社強制化とフィッシング耐性MFAへの段階的移行計画
- AI利用ポリシーの策定とツール利用申請・承認フローの整備
- 四半期ごとのアクセス権限レビューと退職者対応手順の明文化
ChatGPT Enterpriseプランでは、SAML SSOおよびSCIM(ユーザー自動プロビジョニング)が利用できます。既存のIdP(Okta・Microsoft Entra IDなど)と連携すれば、入退社管理とAIアカウント管理を一元化でき、ガバナンスの工数を大幅に削減できます。
AIツールの導入スピードがセキュリティ整備を上回ってしまっている企業が多い現状です。今回のOpenAIの機能強化は、自社のAIガバナンスを見直す絶好の機会です。設定変更は数時間でできますが、放置したリスクの収束には数ヶ月かかることもあります。今が動くタイミングです。
貴社のAIセキュリティ設定を無料で診断する
お問い合わせ