【AI】女性の写真を裸にしてしまうアプリケーション「DeepNude」に批判殺到

1
:IDCAP_USER
[bq title=”女性の写真を1クリックで裸にしてしまう「DeepNude」が登場 – GIGAZINE” url=”https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/”]女性の写真を1クリックで裸にしてしまう「DeepNude」が登場 
2019年06月27日
GigaZiNE

※ソース閲覧注意

【科学(学問)ニュース+】

 AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。

 DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・Motherboardは、「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。

 フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。

 DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。

AI Powered X-Ray App | DeepNude
https://www.deepnude.com/

 リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」と語っています。

 メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」と語っています。加えて、「本物の陰部が写っているわけではありません。 しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」 と述べています

 DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようですしかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなりますこの「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと

 Motherboardはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしていますMotherboardによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのことなお、Motherboardはうまく裸に変換できた事例として、テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています

 ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです

 MotherboardはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功アルベルトさんは2年前の2017年にGANsなどの技術を知り勉強を始め、カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っていますアルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています

 アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っていますひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと

■■以下略、続きはソースをご覧ください [/bq]

2
:IDqLyBCj8F
AIはみんなを幸せにする
5
:IDLezNUCp5
卒業アルバム!!!!!!
7
:IDJ/5sO36Y
アクセスしたらnot foundで草
33
:ID495juYsv
今は404だけど公式ツイッターみたら事情でサーバー落としてるらしいね
2,3日で復活宣言してる
8
:IDBgF12wSf
こんなもの女性差別でしかないだろ?
しょーもない
9
:IDbO2J7w7p
昔からやってるコラだろ
10
:ID495juYsv
>女性の写真のみ変換可能で

男性の写真をベースに変換したら・・・ゴクリ

13
:IDd9Js1IHK
なんだもかんでもAI
14
:IDK61bElCk
いやぁ、AIってほんっとにいいもんですね
18
:IDmXPlZHQO
じゃあ、ゆりあんで www
21
:IDoNmHL/pA
こま送りで一枚一枚処理できれば動画にも使えるのか


22
:IDuQWsvMnh
でもすぐ飽きる
23
:IDuQWsvMnh
猫を写すとライオンやトラになる
29
:IDnxJe8rx1
記事内でこういうソフトに対して否定的な見解を語ってる人も
これが「裸体映像を着衣映像に変換するソフト」ならたぶん反対しないと思われるところが偽善だわ
やってる事は同じであってネットに流通する画像はフェイクであると皆が悟ればなんつーこと無いんだよな
実際にプリクラやインスタには原型を留めないフェイクが結構流れてるってみんな分かってるでしょ
34
:ID495juYsv
写真や映像1つ1つにデジタル署名のようなものを付与する時代がくるのかもね
正真正銘加工してませんというオフィシャルなものがあって
それ以外はフェイクの可能性
という世界観
39
:IDvQrh35rO
男でできないのかよ!差別!!
40
:IDvtaBfQjE
物の発達にはいつもエロが必要
42
:IDU0ZaXiWB
インターネットもエロで普及した。AIもかな。
44
:ID1u6ckTxT
最後にAIが勝つ
52
:IDmzgwa1vm
リベンジポルノの効力がなくなるだろ
流失してもコラだって言い張ればいい
59
:IDhO9olBra
有名人の顔をくっつけたコラ写真も一時期流行っていたけど
脳が「フェイク」と認定するとチンコ反応しないんだよなあ

結局、写真の背景にある情報を推察して「フェイク」と
判定するから意味ないような…

[dfads params=’groups=3297′]
63
:IDn9NoreqK
氾濫して飽和したら逆にリベンジポルノなくなるやん。
69
:IDCqO84xcM
AIが或いはソフトがある一定のデータから作ってくれるのか
なんか人間もここまで落ちぶれると可笑しさや悲しさが入り交じる感
人間の劣化を感じざるを得ないアホソフト
70
:IDjoSg+7T7
ドラえもんの世界だな
のび太もエロくなったもんだぜ
72
:ID7v5crNlR
もうちょっと凄いAI作れんのかね
みんなが幸せになる方法を考えるAIとか
未知の科学技術を生み出すAIとか
73
:IDZVY1Iue5
本人のものじゃなけらば意味がない
コラと一緒
74
:IDZVY1Iue5
でもエロは技術革新を加速させるから
そういう意味では無駄ではないのかも
75
:IDUEzTrI8g
乳房の形や大きさと乳首の形や大きさの遺伝子は別なので
たとえAIであっても完全推定は不可能
82
:IDhMSrcK2/
十数年前にアイコラブームあったなぁ
広末とか、かわいそうやった
83
:ID0GzOvBym
ワンクリックで体操着姿に変換してくれるほうが助かる
85
:IDvOrgLzaF
今の科学なら昔怪しげな通販で売ってたモザイク除去装置も完成してるのかな
102
:IDse1u7gy4
これ裸の写真につかったらどうなるんだろ
肉体が変わるのだろうか
104
:IDvgP+sVoD
もう誰も裸に興味示さなくなって
かえってよかったにならない?
115
:ID/3lsdLZJ
これが普及すれば、写真なんかどうせフェイクだっていうの当たり前になるだけだろ

ピックアップニュース








コメントする