「飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス [ChatGPT]:朝日新聞デジタル」

AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で知られていた。

 研究しなくてもわかることなんだが。

 AIは膨大なデータ(すなわち既知の情報)から学習するので、「沢山の本・文献を読んだ人」と同じ状態にある。現代ではSNSも情報源に含まれる。

 よってSNSのプロフィール欄に「看護師、女性」という人(の割合)が多ければ多いほど、看護師とは女性の仕事だと学習する。

 同じように「飛行士」というキーワードで男性名が出てくる割合が多ければ、それもそのまま学習する。

 これを「差別や偏見を生み出す」と懸念するのはわからなくもないんだが、現時点での大方の事実を反映しているという現実も重要。

 実際、私は男性看護師とまだ会ったことがないし、報道等で看護師が出てくるとほぼ全員が女性。日本は特に。

 飛行士も同じで、ロシアの宇宙飛行士テレシコワ(チャイカ)を除いて、記憶にある女性飛行士がいない。

 ヒトは新しいものに対し理想やあるべき姿を求めすぎる傾向がある。

 ChatGPTにしてみれば、「本当のことを言って何が悪い」という話だろう。機械なんだから今ある情報から学ぶしかない。

 例えば現状の日本において、歯科衛生士とかエステティシャンについて、あたかも男女均等な仕事であるかのような意識高い系の回答をしようものなら事実誤認を誘発する。

 で、空気が読めない男達が面接に行ってもなぜ採用されないかがワカラナイ的な。

 男女雇用機会均等法ができても、婦人下着売場に男性販売員がいないのは現実であり、男女均等であるべきだと主張する意味合いがほとんどない。

 2010年頃、アメリカでフェミニズムが台頭し男女対等が強く意識された際、刑事ドラマで160cmの女性警官が190cmの大男を片手チョップ1発で倒し逮捕するというシーンが非常にしばしば見られた。

 ※さすがにヨーロッパのドラマではそんなシーンは見かけなかった。米国産フェミニズムの産物。

 それを見て育った女の子達は、男に襲われたらチョップで倒せるものだと学習するが、実際はプロの警官でも兵士でも、男と接近戦で対峙すると為す術も無くということがほとんど。

 最近もイギリスの警官がパリのエッフェル塔付近で男に襲われたという報道を見た。

 ナイフを出されちゃしょうがないにしても、アメリカ(の2010-2017年頃)のドラマや映画における女性警官はスルリと身をかわし、チョップや回し蹴りで男を制圧するものとして描かれている。

 そこで女の子達に「何で女のオマワリサンは男の人をやっつけなかったの?」と真顔で質問されると親達は返答に困る。

 権利としてあるべき平等と、何もかも対等であることとは意味が異なり、トランスジェンダー男性が女性側でオリンピックに出ることを全力拒否している女性アスリートを見れば、力や能力に「差」があることが現実だと知る。

 女性の方が向いている仕事もあれば、その反対もある。

 ということから、あんまり意識高い系の理想の回答を求めすぎると、「でも実際そんなの見たことないよね」というギャップが生じるので、既知のデータから学ぶ(≒偏りが生じる)ものだという教育・周知が先じゃないかというのが私の見解。

 AIとは、既知の情報から学ぶ力のない多くの人よりも賢くなれる可能性を秘めている代物であっても、その情報自体が偏っていたり、あるべき姿に沿っているか否かまで判定しジャッジを下す神のような存在になり得るものではないということ。

 文明の利器をつかいこなすために、ヒト側の学習が必要な段階。