顔認識技術と人種差別。

 下記の記事を読んだ。

非白人の顔を識別するパフォーマンスが低いことを、長い間批判されてきている

 「誤ちを犯すAI、なぜ男性や白人を“ひいき”してしまうのか」でも書いたが、つい数年前まで黒人とゴリラを判別できなかったのに、もう犯罪予測に使おうかというのは急ぎすぎ。

 統計の解釈から生じる差別というテーマにおいて、「イスラム教徒の大半はテロリストではないが、テロリストの大半がイスラム教徒である」という言葉をよく見聞きする。

 この統計データは事実のようだが、「だったらイスラム教徒をマークしておけばいいってことよね?」という話になると解釈に問題があるし人種差別が生まれる。

 「イスラム教徒の大半はテロリストではない」ので、「イスラム教徒をマークする」という考え方では限りなく100%に近い確率でハズレることになるし、イスラム教徒でないテロリストを見逃してしまう。

 が、統計データでは「テロリストの大半はイスラム教徒だ」とも結論が出ているので、「結局はイスラム教徒をマークすべきってことよね」と逆戻りしてしまう。いわゆるバイアス。

 例えば(仮に)、「オタクの98%はストーカーではないが、ストーカーの98%はオタクである」という統計データがある場合、一般的にヒトはオタクを警戒する(=98%ハズレる)。それと同じ。

 同様に、「日本人・韓国人男性の大半は盗撮しないが、盗撮者の大半は日本人・韓国人男性である」という統計データがあるとし、なおかつ「だから日本と韓国で販売されているiPhoneのシャッター音は消せないように作られているんだ」と言われると、日本人・韓国人の男性が世界中の女性の目の敵にされ、盗撮が起きやすい場所で日本人・韓国人男性を厳重に警戒(顔認識モニタリング)しようという流れが生じる。

 更には、そこから蓄積されたデータで学習するAIや、事情を引き継がれていない次の世代の担当者が過去の監視データを参照すると、いずれも日本人・韓国人男性ばかりが映っているため、盗撮防止=日本人・韓国人男性の取り締まりと勘違いしてしまう。

 蓄積されたデータが日本人・韓国人男性ばかりの場合、そこから横断検索された交通違反や過去の犯罪歴なども当然に日本人・韓国人男性ばかりとなるため、偏見が増幅されやすい材料が揃ってしまう。

 (アメリカにおいて)「ほとんどの黒人は暴動を起こさないが、暴動を起こした者はほとんどが黒人だ」という統計データにも同じ事が言える。

 白人優位環境で蓄積されたデータを元にAIが学習すると、白人を中心に置いた差異から「正常/異常」を判断するため、少しでも文化的に異なる者は要注意人物と見なされやすくなる。

 こういった偏りとは珍しいことではなく、iPhoneに絵文字が搭載された際、日本人が作った黒い髪の毛に黄色人種カラー1色だったが、その後白人や黒人、褐色などが追加された。すなわち「肌色」とは何色かという問題。ヒトは自分を中心に物事を考えるという代表例だ。

 顔認識によって過去の犯罪歴と照らし合わせるという使い方はいい。人の目より圧倒的に早いから混雑する場所で合理的だ。海外ならフーリガン対策などに用いられる。

 しかし「犯罪予測」となるとまだその段階ではない。