「黒人の顔を晒すよりも白いマスクをした方がカメラは認識する」なぜアルゴリズムは人を肌の色で区別してしまうのか

'A white mask worked better': why algorithms are not colour blind by theguardian.com

スポンサードリンク

" Joy Buolamwini氏は顔認識システムに黒人である自分の顔をそのまま見せるよりも白いマスクを着用した時の方が顔をよりよく認識したことを発見し、その問題を解決する必要性を感じた。 "

Joy Buolamwini氏はMIT(米国マサチューセッツ工科大学)メディアラボの大学院研究者であり、意思決定ソフトウェアの偏見の問題に取り組む組織Algorithmic Justice Leagueの創設者である。

彼女はミシシッピで育ち、世界で最も権威のある奨学金の 一つであるローズ奨学制度やフルブライト・プログラム、宇宙飛行士奨学金基金、女性がコンピュータとテクノロジーの分野でリーダーとして活躍することを目的にしたGoogleアニタ・ボルグなどから研究のための奨学金を得てきた。

彼女はコンピューターのプログラム上で行われる差別の問題解決への取り組みが評価され、 今年の初めには2016年にアメリカ合衆国で公開された伝記映画 『ドリーム 私たちのアポロ計画』(原題:Hidden Figures)の製作者から5万ドルの奨学金を獲得した。


「あなたの仕事の多くは顔認識技術に関係していますが、あなたはどのようにしてその分野に興味を持ちましたか?」

私はコンピュータサイエンスの学部生の頃に人間とロボットの関係性を研究するソーシャルロボティクスを研究していました。ロボットは相対した人間を検出するためにコンピュータビジョンを使用していますが、私はロボットの前に立っても肌の色が明るい人と比較してロボットが中々私を認識してくれないことを発見しました。

当時、私はこれがその研究室にあった顔認識システムだけの問題であり、いずれ誰かがそのバグを解決するだろうと考えていました。

後に私は香港で開かれた起業家を支援するイベントに出席したのですが、そこで出展されていた人間とコミュニケーションをとるロボットを試してみたところ、同様の問題に遭遇したのです。

私が開発者に使用したプログラム・コードについて尋ねたところ、顔検出用に同じオープンソースコードを使用していたことが判明しました。それが"無意識の偏見"が私たちが作成するテクノロジーに注ぎ込まれているのかもしれないと感じ取った最初の出来事でした。ですがその時もまた、いずれ誰かがそのバグを解決するだろうと考えていました。

なので私は5年ほど後に大学院生としてMITメディアラボに入った時に、まったく同じ問題に遭遇したことに非常に驚きました。

色々と検証してみた所、ロボットは私が白いマスクを身に着けていた方が私の実際の顔を使うよりもうまく認識することが分かりました。

それがきっかけでした。顔認識システムにこのような問題があることにはっきりと気付き、これはきっと声を上げるべきなのだろうと自覚したのです。



「この問題はどうして起こるのですか?」

顔認識技術を扱うコミュニティには様々なアルゴリズムのパフォーマンスを計る際に使われる人の顔を比較するためのベンチマーク用のデータセットがあります。そしてベンチマークでうまく顔認識ができればそのアルゴリズムは精度が高いと見なす傾向にあります。

しかし我々はそのベンチマーク用のデータセットの代表性に疑問を持ってこなかったのです。そのベンチマークでうまく実行できるということは顔認識システムに誤った概念を与えることであり、誤った進歩をさせるということになります。

「これらのベンチマークを組み立てた人々はいかに自分達が多様性というものを認識していないかを自覚していない、信じられないような話ですね。」

なぜこのような歪みが生まれたのかはなんとなく分かります。研究室での仕事は常に締め切りに追われており、素早くまとめてしまわなくてはならなかったのでしょう。データ収集、特に多様なサンプルを必要とするデータ収集は簡単ではありませんから。

「研究室の中でさえそうなのですから、研究室の外で人々がアルゴリズムによって差別されていると判断する事はかなり難しいのではありませんか?」

ええ、その通りです。我々Algorithmic Justice Leagueはアルゴリズムに偏見が存在していないかを特定する努力を行っていますし、 "無意識の偏見"が実際に確認できた事例を人々に伝えるとともに、システムの作成者がアルゴリズムの偏りを確認するためのツールも開発しています。

我々としては顔認識システムがデータセットの人間の顔を98%以上の確率でうまく認識できるかではなく、実際にさまざまな人種のグループでどれくらいうまく機能しているかを知りたいのです。

仮に肌の色の明るい人々の顔を認識する訓練を積んだシステムがあるとしましょう。それによって最も影響を受けるのは肌の色の暗めな人々です。そのシステムの使用が公正な結果をもたらすでしょうか?



ジョージタウン大学が発表した研究によると、アメリカの成人の半分の顔写真が政府のデータベースに登録されFBIの犯罪捜査に利用されており、しかもそのアルゴリズムの精度は高くなく、特に白人に比べ黒人で間違いが多く発生するといいます。

「顔認識の他に、どの分野でアルゴリズムで問題が起こる可能性がありますか?」

近年台頭するオートメーションではアルゴリズムが重要視されていますし、不確実性の高い分野でのアルゴリズムへの依存が高まっています。保険に加入させるかどうかの判断、ローンに不履行を起こす可能性があるのかの判断、再犯を犯す可能性があるかどうかの判断など です。そしてそれらには注意を払う必要があるでしょう。

入学の決定さえも自動化され始めており、私たちの子どもたちがどの学校に行くかにも影響を与えています。

私たちが無意識の偏見という問題を意識しなければ、過去となったはずの構造的な不平等が再びこの国の人々を縛る可能性があるのです。

「アルゴリズムに用いられるデータが古いデータに基づいている場合、現状の悪い面を維持し続けてしまう危険性はありませんか?」

その通りです。例えば最近行われたGoogleの広告に関する調査では、女性の求職者は男性の求職者よりも高い給与を保障した求人広告を表示される頻度が低いことが判明しました。

もしあなたが選挙で候補者のどちらに投票するか判断しようとする際、候補者の過去のデータしか判断材料がなかったとしたらどうでしょう?

私たちは過去に社会がどれだけ不平等であったかを知っています。より公平な未来を創り出すためには指標を常に最適化し続けなければなりません。

「そのためにはアルゴリズムの透明性を高める事、オープンソース化が必要と思われますが、それに対する反論はありませんか? 企業の機密情報の開放は反対が多いでしょうし、オープンソース化にはハッカーによる操作や改ざんが危惧されると思うのですが。」

企業が自社のアルゴリズムを社外に出したくないと考えるのは当然です、それは競争上の優位性を生み出していますから。ですがその入力データと出力結果の開示は可能なはずです。企業秘密は守ったままでかまわない、ですが入力されたデータに、アルゴリズムが下した決定に、性差や人種の差に影響された偏りがないかを我々は知らなければなりません。

スポンサードリンク

海外の反応

Youtubeのコメント欄より: ソース

mc1ronny 顔認識プログラムが顔の細部を登録する方法がシワや皮下脂肪によるふくらみ、陰影などであるとしたら、黒い皮膚のためコントラストが低く、そのせいで検出するのが困難になっているとか?

こういった考えは人種差別的ではないと思うけど、もしそうならごめんなさい。

Kess そりゃそうでしょ。顔認識ソフトウェアが暗い顔を扱うことはより困難になることは明らかだ。まぁ人種差別的だと指摘してくる連中が出て来るだろうが。

VotingSensibly お止め。君はあまりにも合理的な答えを言っている。

Finisterre その可能性はある。だがその一方で黒い顔の検出率が悪い理由の1つは、十分なデータが集められていないことでもある。この問題はずいぶん前から知られていたがほとんど何も対応されてこなかった、これが深刻な結果を生み出す可能性がありながらね。

mc1ronny 問題が暗い皮膚によってコントラストを検出することが難しくなっている事にあるのは確かだろう。でもその問題が長年放置されているのは無意識の偏見の結果であると言えるのかもしれない。

私たちは皆 肌の黒い人たちを識別できているのだから十分に進歩したコンピュータにそれができないという理由はないと思う。

dxirma サンプリングデータが適切なものかどうかは統計/機械学習において最も重要な要素でしょうが。黒人や特定の人種に関するデータが欠けていればアルゴリズムは精度が落ちる、それだけのことだよ。

Teefa 私はモーショントラッキングをするための視覚効果ソフトウェアを使用しているけどこれは被写体を検出するのにコントラストに依存しているから顔認識システムも同じなんじゃないかな。

abc987 この問題は顔認識システムが黒人の顔に対して反応しないという技術的なものじゃない、要はシステムの限界を認識しそれを改善する必要があるということだ。この記事はその問題に対処できなければ様々な悪影響が及ぶ可能性があることを警告している。

米国人口の半分が警察の顔認識データベースに載っていてFBIがそれを利用しているが黒い顔が効果的に認識できないとしたら明白な問題があるといえるだろう。本物の犯罪者を見逃し、罪のない人を誤って特定する可能性がある。

この黒人女性の研究者はこの種の技術の開発時に、テスト時に、運用時にバイアスがある可能性を認識することの重要性を強調している。それは合理的かつ科学的なアプローチだ。 だがどういうわけかコメント欄はやれ人種差別だのそうじゃないだの、記事は人種差別問題を訴えているだのと見当違いな告発が起きている。

額面通りにしか受け取れないのもまた偏見がゆえなのかもしれない。

スポンサードリンク