実際のところはホワイトボックスだけど、なぜそうなのか理解しようとするとブラックボックスになる。
膨大なデータからAIは独自に法則性、関連性を見出すに過ぎないのだが、なぜそうなるかは教えてくれない。
しかし実のところ人間も同じようなことをしていると思う。
特定分野のエキスパートなんかは、それはそれは感覚的に物事を見ている事が多い。
それまでに接してきた膨大な情報から、ピンとくる、勘のようなものを頼りにすることが多いのだが、
なぜそうなんだと聞かれると、経験からこのパターンにはこうなんだよ。としか答えない。
特に感性で生きてる人間は説明が超下手な場合も多いし。
で結局その背後にどんな理論が隠れているのかと言うと、エキスパートなりの仮説くらいしか存在しない。
しかし仮説でも説明されると人間はなんとなくふ〜んと納得してしまう。
今のところ仮説を立て、説明を試みるのは人間特有のことかもしれないが。
そういう意味で経験則に基づく判断では人間もAIも大差無いように思う。
いやむしろデータ量と処理速度ではAIに分がある。
そもそもディープラーニング自体が人間の脳を参考にして実現された技術だし。
返信する