cacus19’s diary

日々の日記帳。スマブラを開発した桜井さんの「きょうの一枚」を見て真似してみようと思って手を出しました。

9月28日 ~情報安全確保支援士_復習2~

今日の1%

試しに調べてみたら大分奥が深そうだった

トピックス

  • Adversarial example攻撃

Adversarial example攻撃

Adversarial の意味を調べると「敵対的な」とあったので何に対して?と疑問に思っていたけど、AIに対してだったと理解したら大分イメージしやすくなった。

参考URLで紹介されていた論文にもあったけど、実例があると特に分かりやすい

図1. ノイズを加えたことによってパンダが手長猿に分類される

出所:Ian J. Goodfellow et al. “Explaining and Harnessing Adversarial Examples,” International Conference on Learning Representations (ICLR), 2015. https://research.google/pubs/pub43405/

 

上の論文の例とかだと、人間が見る分にはどっちも変わらないパンダなのに数学が根拠となってるノイズを加えると誤分類されるのがちょっとゾッとする。

特にXとかYoutubeとか、AIでフィルタリングされている(らしい)ところとか、この攻撃で幾らかフィルタリングすり抜けられそうな気もする。

対策とかも幾らかありそうだけど、それはまた別の機会に調べようと思います(沼に嵌りそう)

気になる人は下記の記事とか分かりやすかったので読んでみてください。

www.nri-secure.co.jp