サイバー犯罪者は、ChatGPT、Google Bard、Claude などの言語モデルに基づいたチャットボットを使用して、悪意のある活動を促進します。彼らは、これらの AI を操作するための正確なリクエストを使用することで、セキュリティ対策や制限を回避することに成功しています。 FBI は、犯罪コミュニティによる言語パターンの大量使用について警鐘を鳴らしています。
オープンソース モデル、ハッカーが好むツール
ハッカーは、企業が管理する AI モデルではなく、無料でカスタマイズ可能なオープンソース AI モデルを使用することを好みます。これらのオープンソース モデルはインターネット上で誰でも利用でき、違法なコンテンツの生成に使用される可能性があります。さらに、この分野の大手企業が開発した大型モデルよりも軽量で、必要な計算能力も少なくなります。したがって、コンピュータ上またはスマートフォン上でもローカルで使用できるため、開発者やサイバー犯罪者にとっては利点となります。
犯罪者は、他のハッカーが開発したカスタム AI モデルも使用します。ダークウェブには、マルウェアなどの違法なコンテンツを生成するためにハッカーによって設計されたチャットボットが多数存在します。最近、犯罪行為専用の 2 つのチャットボット、WormGPT と FraudGPT が闇市場に出現しました。これらは、説得力のあるフィッシングメールの作成、ランサムウェアなどのウイルスのエンコード、攻撃の調整に使用されます。これらのチャットボットはダークウェブで高額で販売されています。
サイバー犯罪者による AI のさまざまな用途
ハッカーはさまざまな方法で AI を使用して違法な活動を実行します。特に、彼らは AI を使用して、公式プラットフォームのインターフェイスを模倣したフィッシング ページを設計します。さらに、生成 AI の機能を利用して多態性ウイルスを作成するため、従来のウイルス対策ソフトウェアの検出がより複雑になります。
詐欺師はディープフェイク技術を利用して被害者から金銭を強要することもあります。彼らは、標的を危険な状況に陥らせる偽の画像やビデオを生成します。その後、このコンテンツをソーシャル ネットワークやポルノ サイトに投稿することで、被害者を嫌がらせるために利用します。さらに、ハッカーは音声クローン AI を躊躇なく使用して、電話で被害者を操作し、愛する人の声を真似てお金を渡すよう説得します。
AIとハッキングの未来
FBI は、AI テクノロジーがより広く利用可能になるにつれて、AI の犯罪利用が増加すると予測しています。したがって、ハッカーによる AI の悪意のある使用に対抗するための予防および保護戦略を開発することが不可欠です。これには、オープンソース AI モデルを保護し、改ざんを防ぐためのより堅牢なセキュリティ対策を実装することが含まれます。多くの分野で社会に利益をもたらす可能性を秘めた AI を、責任を持って倫理的に使用することが重要です。