ハッカーが ChatGPT を悪用してマルウェアを作成: OpenAI レポート

人気の AI チャットボット ChatGPT を開発する OpenAI は、2024 年の初め以来、イランと中国の国家支援ハッカーに関連するネットワークを含む、世界中で 20 以上の業務と欺瞞的なネットワークを妨害したことを明らかにしました。

水曜日に発表されたレポート、ジェネレーティブAI(GenAI)企業によると、これらの操作にはAIを活用したチャットボット「ChatGPT」を使用したマルウェアのデバッグ、Webサイトの記事の作成、偽のペルソナがソーシャルメディアアカウントに投稿するコンテンツの生成、選挙関連の偽情報の拡散などが含まれていたという。

このレポートを執筆した研究者のベン・ニモ氏とマイケル・フロスマン氏によると、攻撃者はキャンペーンの中間段階でAIを活用したという。

「脅威アクターは、インターネット アクセス、電子メール アドレス、ソーシャル メディア アカウントなどの基本ツールを取得した後、ソーシャル メディアなどの「完成した」製品を導入する前に、活動の特定の中間段階でタスクを実行するために当社のモデルを使用することが最も多かったです。インターネット上の投稿やマルウェアの可能性がある」と研究者らは報告書に書いている。

しかし、サイバー攻撃や影響力キャンペーンへのAIの関与にもかかわらず、その実際の影響はこれまでのところ限定的であると強調した。

AIが新たな高度なマルウェアの作成に貢献したり、偽情報の取り組みを大幅に改善したりする証拠は見つかっていない。

OpenAI レポートは、サイバー攻撃を促進するために ChatGPT を悪用した 3 つの主要な脅威グループを強調しています。

スイートスペクター: 中国関連グループの SweetSpectre は、偵察、脆弱性調査、スクリプト作成サポート、異常検出回避、および開発に ChatGPT を使用しました。

また、悪意のある添付ファイルを含むスピア フィッシング メールが一部の OpenAI 従業員の企業および個人のメール アカウントに送信されたが、標的の受信箱に届く前にブロックされたことも判明しました。

サイバーアベンジャーズ:イランのイスラム革命防衛隊(IRGC)と関連のあるこのグループは、水道システム、製造、エネルギーシステムで使用される産業用制御システム(ICS)やプログラマブルロジックコントローラー(PLC)に対する破壊的な攻撃で知られています。

このグループは ChatGPT モデルを使用して、脆弱性を調査し、コードをデバッグし、通常はイスラエル、米国、またはアイルランドに関連するインフラストラクチャをターゲットとするスクリプトのアドバイスを求めました。

STORM-0817: イランを拠点とする別の脅威アクターである STORM-0817 は、AI モデルを使用してハッカーが公的に特定されたのは初めてであると OpenAI は考えています。

このグループは、ChatGPT を使用して、マルウェアのデバッグ、Instagram スクレイパーなどのツールの作成、LinkedIn プロフィールのペルシア語への翻訳、Android マルウェアの実装におけるデバッグとコーディングのサポート、およびサポートされるコマンド アンド コントロール インフラストラクチャの使用を試みました。

さらに、OpenAI のチャットボットを利用して攻撃者が提供したプロンプトで作成されたコード スニペットは、マルウェアが連絡先、通話記録、インストールされているパッケージ、外部ストレージの中央値、スクリーンショット、デバイスの IMEI とモデル、閲覧履歴、緯度/経度、外部ストレージからのファイル (PDF、Excel ドキュメント)、および外部ストレージにダウンロードされたコンテンツ (WhatsApp や IMO などの安全なメッセージング アプリによって送信されたファイルを含む)。

「並行して、STORM-0817 は ChatGPT を使用して、侵害されたデバイスからの接続を処理するために必要なサーバー側コードの開発をサポートしました」と Open AI レポートには記載されています。

「これにより、このマルウェアのコマンド アンド コントロール サーバーが WAMP (Windows、Apache、MySQL、PHP/Perl/Python) セットアップであり、テスト中にドメイン Stickhero[.]pro が使用されていたことがわかりました。」

これらのグループが ChatGPT を悪用しようとした一方で、OpenAI は、AI はマルウェア開発のための重要な新機能を提供しなかったと強調しました。ハッカーは、AI を活用していない公的に利用可能なツールを通じてすでに達成できていた段階的な利点しか得ることができませんでした。

AI のサイバー攻撃への関与は憂慮すべきことですが、OpenAI はこれらの悪意のある活動を特定し阻止するための措置を講じています。

「私たちは将来に目を向け、情報、調査、セキュリティ研究、政策チーム全体で協力し続け、悪意のある攻撃者が危険な目的のために高度なモデルをどのように使用するかを予測し、適切な執行手順を計画していきます。当社は引き続き調査結果を社内の安全・セキュリティチームと共有し、主要な関係者に教訓を伝え、同業他社やより広範な研究コミュニティと連携してリスクを先取りし、集団的な安全・セキュリティを強化していきます」と同社は結論づけた。