更新日 2019/11/9
かつてAIは考える機械を目ざしていた。しかし、現在のAIは考えているわけではない。脳で言えば従来のAIは左脳的な論理思考を追究していたが、今、急速に普及しつつあるのは右脳的な直観処理のように思う。
右脳は主に目、耳、鼻、皮膚から入力された映像、音、臭い、触感の情報をパターン認識で処理していると考えられる。現在のAIはセンサーで収集した情報を蓄積→蓄積したデータベース情報を参照→分類・比較・整理・抽出→データベースから結論(似たパターン)の選択というパターンマッチング処理を行っているだけのようだ。パターンマッチングは質の高いデータ量が多い程、精度が高くなるから質の高いビックデータを集めることが重要になる。
現在のAIのレベルはディープラーニングというアルゴリズムを使ったパターンマッチングをしているだけでその問題点が次のように指摘されている。
現在のAIはデータの量が多い程精度が高くなるパターンマッチング処理だけだから処理速度が速い。一方、従来のコンピューターは左脳的だから処理速度が遅い。人間は右脳と左脳で協調しながら情報を処理して判断している。だから、現在のAIは極めて不完全な人工的な知能だと言える。
システムは最終的な結論を人間が選べるように設計されていなければならないと思う。データベースから選択された結論はデータの質と量が保証されているなら精度が高いかもしれないが、望ましい結論かどうかは人間が判断する必要がある。なぜなら結論の責任の所在が不明確になるからだ。今のAIは説明責任を果たせないし、責任を取れない。
最近、性能が急速に向上している機械翻訳もパターンマッチング技術にすぎない。決してコンピューターが論理的に翻訳している訳ではない。人間も多言語を流暢に話す人は他言語をネーティブ言語に逐次変換している訳ではない。脳に蓄積されたパターンを右脳で処理して左脳に伝達しているのではないだろうか。
機械翻訳の性能向上は必要なハードウエアとネットワークのコストの低下と普及という背景がある。従来はコストの問題で試すことができなかった理論を実現できる環境が整備されたことが機械翻訳の精度向上につながっていると考えられる。つまり、低廉で大容量の記憶装置を高速のネットワークを使って利用することができるようになり、データ量が増える程、精度が増すパターンマッチングが機械翻訳を実用レベルまで引き上げたということだろうと思う。コンピューターが言葉を理解している訳でないという認識が必要だと思う。
自動運転もパターンマッチング技術に過ぎず、自動運転が人間の生命の危険に直結するだけに安易な導入はするべきではないと思う。しかも、自動車に限らず、機械には耐用年数がある。自動運転の車両について安全のための点検やセンサー等の部品の交換基準すら定められていない。しかも、自動運転のベースはAIという目に見えないソフトウエアだから事故が起きたときの原因究明は極めて難しい。
自動運転車は電気がなければ動かない。電気がなければ動かなくなるのは原発だけではない。法的な問題についてはほとんど研究が進んでいない。これまでも規制緩和や未知の技術の導入の結果起こった事故について国も事業者も責任を取っていない。想定外という説明は責任逃れに過ぎない。小泉進次郎のようにリスクを取らなければと主張する輩を信用してはいけない。ピンチがチャンスだった試しはない。福島の原発事故も国立競技場の問題も責任の所在があいまいなまま風化しつつある。言葉遊びはやめて欲しい。進次郎の主張には根拠もなければ結果も伴っていない。40近くなっても若造だからと親から擁護されるているような人に自己責任を言われたくない。 おしまい