1:
http://gigazine.net/news/20160427-facial-recognition-misuse/

SNSにアップロードされたバラバラの写真の中から同一人物の写真を探し、SNS上での友達作りに役立てるための
サービスとして開発された顔認識システム「FindFace」は、顔認識技術が犯罪などに悪用される恐れがあると報じられていました。
そんな中、FindFaceを使ってSNS上の女性の写真とアダルトビデオをマッチングさせ、AV女優の身元を特定するという悪事が発生しています。


ソフトウェアエンジニアのAndrei Mimaさんは、6年前の2010年にロシア・サンクトペテルブルクの路上で女性2人の
写真を撮影したものの、お互いの連絡先を交換しなかったため、6年間写真を渡せずにいたとのこと。FindFaceの登場を知って、
Mimaさんは2016年3月にロシアのSNS「Vkontakte」上でFindFaceを使って女性2人と連絡をとることに成功し、FindFaceは一躍注目を集めることとなりました。
同時に、写真から個人の身元を特定できることから、FindFaceにプライバシーの問題が投げかけられました。

そこで、FindFaceの顔認識技術が悪用される危険性がいかに高いかを示すため、2016年4月前半に若手アーティストのEgor Tsvetkovさんが、
サンクトペテルブルクで地下鉄の利用者をランダムに盗撮し、FindFaceを使ってVkontakte上の画像とマッチングさせて個人ページを見つけるという
活動を実施。なんと70%の確率で本人を特定することに成功したとのこと。


Tsvetkovさんは、「連続殺人鬼や貸金業者が、ターゲットを追い詰めるためにFindFaceを悪用する可能性がある」と、
顔認識技術の危険性について言及していました。Tsvetkovさんの懸念通りと言うべきか、ロシアのネット掲示板Dvachで「匿名のAV女優の身元を暴く」
という運動が2016年4月9日から始まりました。


Dvachユーザーは、FindFaceにアップロードされた写真とアダルトビデオの画像を使って、AV女優の本名などの個人情報を特定していき、
Vkontakteのプロフィールページを保存して女性の家族や友人に送りつけるという行為に出ました。
女性のヌードが写ったアダルトビデオの画像を元にして……

この運動では、AV女優だけでなく、売春サービスを提供するIntimcityというサイトもターゲットとなったとのこと。
運動に参加したDvachユーザーは、「運動のモチベーションは道徳的な怒りだ」とコメントしているとのこと。さらに運動はDvachだけにとどまらず、
Tsvetkovにコミュニティが作成され、万が一女性がプロフィールページを消してしまった場合に備えて情報を保存するため、
プロフィールページの画像がアップロードされていたとのこと。
しかし、反性差別主義コミュニティからの苦情を受けて、Tsvetkov上のAV女優特定コミュニティは即座に閉鎖されたそうです。
記事作成時点では、コミュニティのページにアクセスすると、「このコミュニティはVkontakteのページまたはコミュニティに対する攻撃を計画していたため、
現在ブロック中です」と表示されるようになっています。


FindFaceを開発したMaxim Perlin氏は、今回の運動に関して、「FindFaceをTsvetkov上で悪用して、AV女優の身元を暴くなどの悪用を、
開発陣が防ぐ手立てはない」と語っています。Perlin氏は、ポルノ作品を違法にアップロードする行為はロシアでは重罪であると言及していて、
「悪意に満ちた行為からVkontakteのユーザーを守るため、我々はあらゆる努力を尽くしています。
今回のコミュニティ作成に関わったユーザーを見つけるための情報提供が必要ならば、いつでも準備はできています」ともコメントしています。

引用元: http://anago.2ch.sc/test/read.cgi/bizplus/1461810885/


人気ブログランキングへ

にほんブログ村 2ちゃんねるブログ 2ちゃんねる(芸能)へ
にほんブログ村

NewTopics

13:
>>1
>FindFaceを使ってSNS上の女性の写真とアダルトビデオをマッチングさせ、AV女優の身元を特定するという悪事が発生しています。

まさに、某週刊誌ネタにヒットしてしまいそうな感じだね。

53:
>>51
>>1の顔認識はどうやってるかわからないが、セキュリティ関係の顔認識だと、
瞳と瞳とあとどこかの位置を特定し、その三角の角度とか比率とかを測定するような方法をとっている。
双子ですら別人と見分ける。
メイクで誤魔化せるレベルではない。

126:
>>1
盗撮された一般女性なら可哀想
そうでなければ自業自得

5:
最近話題のあの人、どうなのこれ。

6:
それ以上いけない

7:
「別人です!私の乳首はあんなに黒くありません!」

29:
>>7
年取ってる方が色は薄い

8:
SNS等のインターネットに顔写真や個人情報を載せるって、頭がおかしいのではないか?

10:
整形したらわからんやろ

139:
>>10
整形しても、目と目の間隔とか耳との位置関係など、
変更が困難なものがいくつかある
整形方法によっては、認識率が下がるかも知れないが
候補の中に入ったら逃れるのは難しい

142:
>>139
似たような顔の奴は被害半端ないことになりそうだな
いわゆるガチそっくりさん
双子並みに同じにはならないだろうけど
ケンコバとキムニーなら間違えそう

11:
荒稼ぎした後整形するもんだと思ってたわ

12:
歯並びと耳の形で特定されてる人多いよね

14:
googleで出来たら楽やな
類似画像検索とは違うのかな?

24:
>>14
類似検索ではあるけど人間の顔の特徴に特化した検索アルゴリズムなんでしょ

23:
監視カメラの動画から目的の人物を探し出す技術があるんだよな
もう悪いことはできない時代なのかも

30:
後先考えずにインターネッツにプライベート晒す自意識過剰な奴らは仕方ないけど意図せず晒されてる場合もあるだろうしなあ
怖い怖い

39:
今の監視カメラの制度なら、費用にもよるけど、20~30メートル先のほくろなんてのも簡単に見える
その気になれば、どっかの海外空港見れば、ほくろの位置に、身長・体重・体格で、誰かわかるぐらいにはなってるでしょ
AV女優なんて、裸出てるし、芸能人や有名人なんて、写真と画像データが出回ってるから、資本と需要が見つかれば、判別システムで、誰かなんて、簡単にわかるね・・
体感だけど・・・
5.000~10.000円に付き、1メートルぐらいの距離の顏のほくろぐらいなら判別できるぐらいかね?
監視カメラいじったことあるけど・・・今凄いよね・・・追跡機能だってあるし、買った日時と時間に、人物統計もできる
警察の人が、たまーに、来てたことあったけど、警察もあまりのパネルとボタンの数に、カメラの精度を、物珍しそうに、いじっているのは、はたから見てると、ボタン押すごとにびっくりしてるみたいで意外と面白かったよ('Д')

51:
ギャルメイクでAV出てたら、普通のメイクだと顔認識されないんじゃないの

77:
かわいい子がAVに出なくなっちまうな


Pickup