読者です 読者をやめる 読者になる 読者になる

人工知能してみる

人工知能の中の人が機械学習とかデータドリブン的なことを勉強します

機械学習で理由も説明させる

こんにちはGrahamianです。

こんなニュースがありました。
www.gizmodo.jp

要約するとdeep learningの結果に対して結果の理由を添えてくれる、というもの。

単層パーセプトロンのようなシンプルなものはまだ理由が考えやすかった。
これはインプットに直接重みが与えられるためである。
インプットベクトルのi番目の重みが大きいから、なるほどこの項が重要なんだな。とか。
なので上手くいかないときの修正がそこそこ容易だし、モデルとデータの関係も把握できた。

ところが深層学習ではデータを圧縮して計算に使う。
そのため計算途中で何がエフェクティブなのかわからなくなってしまっている。
(word 2 vecの論文で「なぜか分からないが上手くworkする」と書かれているのは有名)

これは運用中にヘンな結果になったとき何を変えればいいのかわからなくなってしまう。
もちろん、システムを考えればなんとなく何が重要なのかは分かるけど、それは"カン"でしかない。
特に最近流行りのめちゃくちゃ深い深層学習とか複数のセルを組み合わせたものはもう分からない。
なのでこういうシステムの需要はとても大きかった。

っていうのが記事中の研究の意義ですかね。
これの面白いところって複数の解析結果を組み合わせて表現できるってとこですね。
中間言語のようなものができているのでしょうか?
「バットを持っている人」の写真の圧縮ベクトルから「バットを持っている人」という文字列を生成できる訳ですから。
これはある種のsemantic分析(意味分析)ができているとも言えるのでは?
マシンに「バットをもっている人」という共通のベクトルを持たせることに成功していると仮定したらですが。

これを発展させれば、今までは1対1で学習させていたものを汎用的に使えるようになります。
今後に期待ですね。