2029年に汎用型人工知能は登場するのか。

 2045年に、人工知能がヒトの知能を超えるシンギュラリティ(技術的特異点)が訪れるという説がある。まだ25年先なので、仮に実現しようとも日々の傾向を見ながら適応できるつもりでいるが、その前に2029年にはついに汎用型人工知能(AGI)が登場すると言われている。

 9年後。

 現在は顔認識、音声認識、翻訳、ゲームなど特定の思考・処理を行う特化型人口知能。汎用型は大凡「人間っぽい」ことができるもの。

 今のところ人間で言う視覚(カメラ)と聴覚(マイク)入力系ばかりなので、あと9年で嗅覚や触覚に該当する能力も身につけるのかと思うと厳しい気もするが、特化型では既に人間よりも遙かに能力が高いため、五感に対応するそれぞれの人工知能が1つになったものを想像すれば、多くの領域で敵うはずもナイことは確定している。

 ただし、嗅覚に関してはまだ「鼻」の代わりとなる入力装置さえ手軽なものがない。理論だけで言えば、業務用のガスクロマトグラフィーでは全ての芳香成分を検出できるので、この成分はどんな香り、この成分とこの成分がこの割合で組み合わさるとこんな香りという具合に、パフューマーらを教師とした教師あり学習ですぐに一般人を超えることはできるだろう。一方で機械学習をさせるには香りデータがなさ過ぎる。香りについてはオンラインを参照できないから。よって視覚・聴覚分野と比べるとAIの成長に非常に時間がかかる。

 出力(芳香プリンタ)まで実現できた時点で、インターネット越しに香りを伝えることができるようになる。ただし香りの出力は難しい。色のようにRGB、YMCKと3種・4種のシンプルな組み合わせで表現できず、“インク”に該当する芳香カートリッジの数が多すぎて、小型化・低価格化には相当な時間がかかる。調香自体はカクテルと同じなんだが。

 人間の約400種の嗅覚受容体そのものをコード化するのはそれほど難しくないだろう。難関は、五感がどのように相互作用し情報を補完しあっているのか、それがどのように統合されるのかというところ。

 例えば、目が見えない人は聴覚が発達する。後天的に(事故など)目が見えなくなった人は、音を聴くと脳の視覚野も反応する(視覚記憶を参照する)ことが確認されている。その反対も。

 耳で見聞きし、目で見聞きしている状態。

 先天的な場合は目で見たことがない(或いは耳で聴いたことがない)ので、ニューロン自体が結合されていかないため、これは生じない。よって遺伝と努力は境界線がある。

 それに対し嗅覚はまだ解明されていないことも多い。唯一大脳辺縁系(本能)につながっていて、知覚を統合する上で恐らくは最も特殊な存在であり特別な役割を果たしていると考えられる。

 入出力装置の小型化・低価格化が難しいこと、そして全体像の解明が遅かったことも含め、ヒトの知能を再現しようとする人工知能にとって、嗅覚の再現は最後の大仕事だと言える。

 ※味覚の8割は嗅覚なので、嗅覚をクリアすれば大凡味覚も付いてくる。

 ということを踏まえて予測すると、2029年の汎用型人工知能は、現行の視覚・聴覚系の汎用型だろう。入力系統が限られた汎用型

 「ムーアの法則」(18ヶ月2倍速)から見てみよう。

 9年後、現在最新のパソコンから見て性能は何倍になっているか。

 (A)18ヶ月=1.5年だから、1.5年後に2倍、3年後に4倍、4.5年後に6倍、6年後に8倍、7.5年後に10倍、9年後に12倍となるだろうか。

 そうではない。

 (B)常にその時点から見て1.5年後に2倍になるのだから、1.5年後に2倍、3年後に4倍、4.5年後に8倍、6年後に16倍、7.5年後に32倍、9年後に64倍になる。

 (A)の線形的推移では、現在計算に12日かかるところ、9年後には1日で済むようになると予想されるが、実際は(B)の指数関数的推移で、現在64日かかる処理が9年後には1日で済むようになる。

 今の64倍というと、できないことがないというくらいの処理能力だ。

 ムーアの法則はかれこれ10年ちょっと「もう無理、終わり」と言われながらも持ちこたえてきた。さすがにウイルスよりも小さい7-14nm(ナノメートル)というプロセス(配線)に到達している現状、継続的に小さくしていくのは難しいかもしれない。

 小さくせずにコア数を増やしていけば性能自体は上げられる。ただし消費電力と発熱の問題がある。

 消費電力を下げるという考え方は、電気代をベースにしたコストパフォーマンス(すなわちワットあたりにもたらされるもの)の考え方だから、裏を返せば仕事の生産性が上がれば電気代の許容値も上がる。言い換えると所得が低い人はその恩恵が受けられなくなる。

 或いは消費電力を下げられないなら、電気代(発電コスト)を下げる方法を考えようという話になり解決する気がしている。

 発熱問題の方が手こずるかもしれない。

 実際この10年ちょっとの間、膨大な消費電力+発熱量のデータセンターを寒くて電気代の安い北欧諸国に移しているので、場合によっては「コンピューターを使うのに適した国」という大移動が始まるかもしれない。

 見方を変えると、知的労働者の国、単純労働者の国と分かれていく可能性がある。そうすれば国の中では格差がないことになる。

 話は戻って、人工知能も空気が読めるようになりつつある。顔認識に留まらず微表情から機嫌が読み取れるようになってきているし、音声認識も声色から感情を読み取れるようになってきていて、空気が読めないヒトが増えている現代人と比べると逆行している。

 ココに何らかの答えがある。空気が読めない人が増えているから、ヒトは空気が読める人工知能を育てているのか。はたまた人工知能がやってくれそうだから、空気を読む必要がないとヒトは退化していっているのか。

 ヒトが人工知能に覚えさせようとしている内容を観察することで、本質的に求められている能力は何かが読み取れる。