2019年06月27日
GigaZiNE
※ソース閲覧注意
【科学(学問)ニュース+】
AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。
DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・Motherboardは、「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。
フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。
DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。
AI Powered X-Ray App | DeepNude
https://www.deepnude.com/
リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」と語っています。
メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」と語っています。加えて、「本物の陰部が写っているわけではありません。 しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」 と述べています
DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようですしかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなりますこの「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと
Motherboardはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしていますMotherboardによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのことなお、Motherboardはうまく裸に変換できた事例として、テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています
ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです
MotherboardはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功アルベルトさんは2年前の2017年にGANsなどの技術を知り勉強を始め、カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っていますアルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています
アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っていますひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと
■■以下略、続きはソースをご覧ください [/bq]
2,3日で復活宣言してる
しょーもない
男性の写真をベースに変換したら・・・ゴクリ
これが「裸体映像を着衣映像に変換するソフト」ならたぶん反対しないと思われるところが偽善だわ
やってる事は同じであってネットに流通する画像はフェイクであると皆が悟ればなんつーこと無いんだよな
実際にプリクラやインスタには原型を留めないフェイクが結構流れてるってみんな分かってるでしょ
正真正銘加工してませんというオフィシャルなものがあって
それ以外はフェイクの可能性
という世界観
流失してもコラだって言い張ればいい
脳が「フェイク」と認定するとチンコ反応しないんだよなあ
結局、写真の背景にある情報を推察して「フェイク」と
判定するから意味ないような…
なんか人間もここまで落ちぶれると可笑しさや悲しさが入り交じる感
人間の劣化を感じざるを得ないアホソフト
のび太もエロくなったもんだぜ
みんなが幸せになる方法を考えるAIとか
未知の科学技術を生み出すAIとか
コラと一緒
そういう意味では無駄ではないのかも
たとえAIであっても完全推定は不可能
広末とか、かわいそうやった
肉体が変わるのだろうか
かえってよかったにならない?