AIパッケージ幻覚’別名’AIパッケージ・ハルシネーション’と呼ばれる攻撃戦略は、人工知能の’幻覚’という特性を攻撃者が悪用する現象を指します。ここで言う’幻覚’とは、人工知能が虚偽の情報を作り出し、まるでその情報が真実であるかのようにふるまう状態を意味します。攻撃者はこの特性を利用し、ChatGPTなどのAIチャットボットに対し、邪悪なコードパッケージを推奨させることで攻撃を行います。この攻撃手法は、VulcanCyber社の研究チームにより明らかにされ、その後メディアによって報道されました。
AIパッケージ幻覚とは
- AI, VulcanCyber, ハッキング手法, 人工知能