「黒人の顔を晒すよりも白いマスクをした方がカメラは認識する」なぜアルゴリズムは人を肌の色で区別してしまうのか
'A white mask worked better': why algorithms are not colour blind by theguardian.com" Joy Buolamwini氏は顔認識システムに黒人である自分の顔をそのまま見せるよりも白いマスクを着用した時の方が顔をよりよく認識したことを発見し、その問題を解決する必要性を感じた。 "
彼女はミシシッピで育ち、世界で最も権威のある奨学金の 一つであるローズ奨学制度やフルブライト・プログラム、宇宙飛行士奨学金基金、女性がコンピュータとテクノロジーの分野でリーダーとして活躍することを目的にしたGoogleアニタ・ボルグなどから研究のための奨学金を得てきた。
彼女はコンピューターのプログラム上で行われる差別の問題解決への取り組みが評価され、 今年の初めには2016年にアメリカ合衆国で公開された伝記映画 『ドリーム 私たちのアポロ計画』(原題:Hidden Figures)の製作者から5万ドルの奨学金を獲得した。
「あなたの仕事の多くは顔認識技術に関係していますが、あなたはどのようにしてその分野に興味を持ちましたか?」
私はコンピュータサイエンスの学部生の頃に人間とロボットの関係性を研究するソーシャルロボティクスを研究していました。ロボットは相対した人間を検出するためにコンピュータビジョンを使用していますが、私はロボットの前に立っても肌の色が明るい人と比較してロボットが中々私を認識してくれないことを発見しました。当時、私はこれがその研究室にあった顔認識システムだけの問題であり、いずれ誰かがそのバグを解決するだろうと考えていました。
後に私は香港で開かれた起業家を支援するイベントに出席したのですが、そこで出展されていた人間とコミュニケーションをとるロボットを試してみたところ、同様の問題に遭遇したのです。
私が開発者に使用したプログラム・コードについて尋ねたところ、顔検出用に同じオープンソースコードを使用していたことが判明しました。それが"無意識の偏見"が私たちが作成するテクノロジーに注ぎ込まれているのかもしれないと感じ取った最初の出来事でした。ですがその時もまた、いずれ誰かがそのバグを解決するだろうと考えていました。
なので私は5年ほど後に大学院生としてMITメディアラボに入った時に、まったく同じ問題に遭遇したことに非常に驚きました。
色々と検証してみた所、ロボットは私が白いマスクを身に着けていた方が私の実際の顔を使うよりもうまく認識することが分かりました。
それがきっかけでした。顔認識システムにこのような問題があることにはっきりと気付き、これはきっと声を上げるべきなのだろうと自覚したのです。
「この問題はどうして起こるのですか?」
顔認識技術を扱うコミュニティには様々なアルゴリズムのパフォーマンスを計る際に使われる人の顔を比較するためのベンチマーク用のデータセットがあります。そしてベンチマークでうまく顔認識ができればそのアルゴリズムは精度が高いと見なす傾向にあります。しかし我々はそのベンチマーク用のデータセットの代表性に疑問を持ってこなかったのです。そのベンチマークでうまく実行できるということは顔認識システムに誤った概念を与えることであり、誤った進歩をさせるということになります。
「これらのベンチマークを組み立てた人々はいかに自分達が多様性というものを認識していないかを自覚していない、信じられないような話ですね。」
なぜこのような歪みが生まれたのかはなんとなく分かります。研究室での仕事は常に締め切りに追われており、素早くまとめてしまわなくてはならなかったのでしょう。データ収集、特に多様なサンプルを必要とするデータ収集は簡単ではありませんから。「研究室の中でさえそうなのですから、研究室の外で人々がアルゴリズムによって差別されていると判断する事はかなり難しいのではありませんか?」
ええ、その通りです。我々Algorithmic Justice Leagueはアルゴリズムに偏見が存在していないかを特定する努力を行っていますし、 "無意識の偏見"が実際に確認できた事例を人々に伝えるとともに、システムの作成者がアルゴリズムの偏りを確認するためのツールも開発しています。我々としては顔認識システムがデータセットの人間の顔を98%以上の確率でうまく認識できるかではなく、実際にさまざまな人種のグループでどれくらいうまく機能しているかを知りたいのです。
仮に肌の色の明るい人々の顔を認識する訓練を積んだシステムがあるとしましょう。それによって最も影響を受けるのは肌の色の暗めな人々です。そのシステムの使用が公正な結果をもたらすでしょうか?
ジョージタウン大学が発表した研究によると、アメリカの成人の半分の顔写真が政府のデータベースに登録されFBIの犯罪捜査に利用されており、しかもそのアルゴリズムの精度は高くなく、特に白人に比べ黒人で間違いが多く発生するといいます。
「顔認識の他に、どの分野でアルゴリズムで問題が起こる可能性がありますか?」
近年台頭するオートメーションではアルゴリズムが重要視されていますし、不確実性の高い分野でのアルゴリズムへの依存が高まっています。保険に加入させるかどうかの判断、ローンに不履行を起こす可能性があるのかの判断、再犯を犯す可能性があるかどうかの判断など です。そしてそれらには注意を払う必要があるでしょう。入学の決定さえも自動化され始めており、私たちの子どもたちがどの学校に行くかにも影響を与えています。
私たちが無意識の偏見という問題を意識しなければ、過去となったはずの構造的な不平等が再びこの国の人々を縛る可能性があるのです。
「アルゴリズムに用いられるデータが古いデータに基づいている場合、現状の悪い面を維持し続けてしまう危険性はありませんか?」
その通りです。例えば最近行われたGoogleの広告に関する調査では、女性の求職者は男性の求職者よりも高い給与を保障した求人広告を表示される頻度が低いことが判明しました。もしあなたが選挙で候補者のどちらに投票するか判断しようとする際、候補者の過去のデータしか判断材料がなかったとしたらどうでしょう?
私たちは過去に社会がどれだけ不平等であったかを知っています。より公平な未来を創り出すためには指標を常に最適化し続けなければなりません。
「そのためにはアルゴリズムの透明性を高める事、オープンソース化が必要と思われますが、それに対する反論はありませんか? 企業の機密情報の開放は反対が多いでしょうし、オープンソース化にはハッカーによる操作や改ざんが危惧されると思うのですが。」
企業が自社のアルゴリズムを社外に出したくないと考えるのは当然です、それは競争上の優位性を生み出していますから。ですがその入力データと出力結果の開示は可能なはずです。企業秘密は守ったままでかまわない、ですが入力されたデータに、アルゴリズムが下した決定に、性差や人種の差に影響された偏りがないかを我々は知らなければなりません。海外の反応
Youtubeのコメント欄より: ソース
mc1ronny
顔認識プログラムが顔の細部を登録する方法がシワや皮下脂肪によるふくらみ、陰影などであるとしたら、黒い皮膚のためコントラストが低く、そのせいで検出するのが困難になっているとか?
こういった考えは人種差別的ではないと思うけど、もしそうならごめんなさい。
Kess そりゃそうでしょ。顔認識ソフトウェアが暗い顔を扱うことはより困難になることは明らかだ。まぁ人種差別的だと指摘してくる連中が出て来るだろうが。
VotingSensibly お止め。君はあまりにも合理的な答えを言っている。
Finisterre その可能性はある。だがその一方で黒い顔の検出率が悪い理由の1つは、十分なデータが集められていないことでもある。この問題はずいぶん前から知られていたがほとんど何も対応されてこなかった、これが深刻な結果を生み出す可能性がありながらね。
mc1ronny
問題が暗い皮膚によってコントラストを検出することが難しくなっている事にあるのは確かだろう。でもその問題が長年放置されているのは無意識の偏見の結果であると言えるのかもしれない。
私たちは皆
肌の黒い人たちを識別できているのだから十分に進歩したコンピュータにそれができないという理由はないと思う。
dxirma サンプリングデータが適切なものかどうかは統計/機械学習において最も重要な要素でしょうが。黒人や特定の人種に関するデータが欠けていればアルゴリズムは精度が落ちる、それだけのことだよ。
Teefa 私はモーショントラッキングをするための視覚効果ソフトウェアを使用しているけどこれは被写体を検出するのにコントラストに依存しているから顔認識システムも同じなんじゃないかな。
abc987
この問題は顔認識システムが黒人の顔に対して反応しないという技術的なものじゃない、要はシステムの限界を認識しそれを改善する必要があるということだ。この記事はその問題に対処できなければ様々な悪影響が及ぶ可能性があることを警告している。
米国人口の半分が警察の顔認識データベースに載っていてFBIがそれを利用しているが黒い顔が効果的に認識できないとしたら明白な問題があるといえるだろう。本物の犯罪者を見逃し、罪のない人を誤って特定する可能性がある。
この黒人女性の研究者はこの種の技術の開発時に、テスト時に、運用時にバイアスがある可能性を認識することの重要性を強調している。それは合理的かつ科学的なアプローチだ。
だがどういうわけかコメント欄はやれ人種差別だのそうじゃないだの、記事は人種差別問題を訴えているだのと見当違いな告発が起きている。
額面通りにしか受け取れないのもまた偏見がゆえなのかもしれない。
確かに肌が黒いと冤罪が増えるってことだから問題だよな
返信削除全てをカメラで監視しようという時代だからこそ情報リテラシーが重要になってくるな
センサーっていうかカメラの性能の問題だと思うがね
返信削除俺の知り合いは荷物と間違われてたぞw。
返信削除荷物ワロタ
削除松崎しげるは認識されないのか
返信削除赤外線とかで常時フラッシュ状態で認識させるとかできないん?
返信削除白人と国人を一枚の写真に撮ろうとすると、うまくいかないそうだ。
返信削除白人に露出を合わせると国人が真っ黒、黒人に合わせると白人が真っ白。
で、そういうときは黄色のフィルターを使うとか。
結構有名な昔の女流カメラマン(隻眼の人だったと思う)の記事より。
もっと色調が広い良いカメラを使いなさい
返信削除肉眼で見たって難しいもん
返信削除月夜じゃ完全に保護色になるからなw
削除画像ソフト使ってみれば判るよ。黒人は補正なんか手の施しようがない
返信削除【新説】黒人の研究者が少ないから黒人方面の研究が進まない
返信削除これが黒人のだめなところだよ
返信削除このプログラムを作った人が黒人以外だったんだろ
誰だって自分や自国民の顔を基準にするから自分の顔が認識されなくて不満なら自分でもっといいものを作れ
>>ロボットは私が白いマスクを身に着けていた方が私の実際の顔を使うよりもうまく認識することが分かりました。
返信削除これ、明度が低いと細部の差異を検証しづらいってだけで、システム側の問題じゃないんじゃね?
それは人間の目だってそうだし、現場の照明の明るさの問題では
懐中電灯で顔をライトアップしてみなはれ
なんか台湾か東南アジアの国で指名手配犯の顔と普通の観光客が一致して誤認逮捕されたり、
返信削除パスポート写真でアジア系アメリカ人が撮られたらAIが「目を開けて下さい」と言われたらしい
それを見た白人が「黄色人種は同じ顔で目が小さいから不便だな」と笑っていた
科学技術の未熟な部分を差別だと騒がれるとなんかキツいわ
返信削除未熟なのに実用化してトラブル起こしているわけだから、今の段階では機械に頼りすぎない方が良いんだろうね