私はシンギュラリティは滅多なことでは来るもんじゃないとは思うのですが、それでも今あるAIだけでも相当に色々なことが出来るので、バカにしたもんじゃないと楽観的に捉えています。
それを悪用すれば、ドナルド・トランプの選対コンサルがフェイスブックのデータを悪用して世論操作したように、あるいはロシアの諜報機関が西側SNSで世論操作をしているように、地球規模の悪いことももちろん出来る。その威力も凄まじい。
でもAIを人間社会から排除するのはもう無理ですからね。それがある、それは進化を続けるという前提は逃げようがない。それを過度に恐れたりバカにしたりするのが一番危ないです。
という前提を置いた上で最近思うのは、今のAIの設計ロジックでは多分実現出来ないことで、人間ならば可能なことの一つに
「詭弁や詐欺を見分ける」
というものがあるのではと感じています。
例えば、綺麗に洗われたデータセットを使って
「こんなデータがあるので、こういう行動を取ればあなたは得しますよ」
というプレゼンをする爽やかなあんちゃんが現れたとしましょうか。データが綺麗だったらそっからロジックで導ける答えは一本道でこれと決まります。
が、そのデータセットがそもそも不都合な部分を洗い落としてあったとしたら?
私の場合、なんかこれ綺麗過ぎないか? ロジックがフラット過ぎて気持ち悪いぞと思ったりする。
綺麗ではないデータセットを目の前にして、そこから何を読み取るか、どんな意味を与えるか、どんな決断をすべきかに迷い、悩み、逡巡している人の気配が無いものには、危うさを感じる。
プレゼン資料だけではないです。本でも論文でもツイートでも。綺麗過ぎるものは怪しい。
例えば、
「AIは日本の国立難関大の入試は突破しづらいが、私大ならば上位校でも合格可能性80%を叩き出すところまで来ている。AIが苦手なのは長く複雑な文章を読み解くことだ。だから読解力を鍛えればAIに仕事を奪われないで済む。」
というプレゼンがあったとしましょうか。
ヘイ、ちょっと待てよ。日本の国立難関大の入試をクリアする能力と、仕事で価値を生み出す能力はイコールじゃないぜ? 仕事の話をするなら仕事の話におけるAIと人間の関係を分析しなくちゃダメだろう? ユーは詐欺師かい?
ということに気づけるかどうか。
AIと人間が相互に補完しあえるポイントが幾つかあるとしたら、この部分、詭弁や詐欺や、小手先で作られた(でも見栄えだけは綺麗にワックスかけてある)プレゼン資料を見抜くというところではないでしょうかね。