実際のところはホワイトボックスだけど、なぜそうなのか理解しようとするとブラックボックスになる。 
 膨大なデータからAIは独自に法則性、関連性を見出すに過ぎないのだが、なぜそうなるかは教えてくれない。   
 しかし実のところ人間も同じようなことをしていると思う。 
 特定分野のエキスパートなんかは、それはそれは感覚的に物事を見ている事が多い。 
 それまでに接してきた膨大な情報から、ピンとくる、勘のようなものを頼りにすることが多いのだが、 
 なぜそうなんだと聞かれると、経験からこのパターンにはこうなんだよ。としか答えない。 
 特に感性で生きてる人間は説明が超下手な場合も多いし。   
 で結局その背後にどんな理論が隠れているのかと言うと、エキスパートなりの仮説くらいしか存在しない。 
 しかし仮説でも説明されると人間はなんとなくふ〜んと納得してしまう。 
 今のところ仮説を立て、説明を試みるのは人間特有のことかもしれないが。   
 そういう意味で経験則に基づく判断では人間もAIも大差無いように思う。 
 いやむしろデータ量と処理速度ではAIに分がある。 
 そもそもディープラーニング自体が人間の脳を参考にして実現された技術だし。
 返信する