第17回情報論的学習理論ワークショップ (IBIS2014) に参加しました (original) (raw)

金子です。11月17日から19日まで名古屋大学で開催された IBIS2014 のワークショップに行ってきました。

各発表の内容については神嶌先生のまとめページなどを読んでいただくとして、以下では個人的に特に面白かった発表について簡単に感想を書きたいと思います。

多腕バンディット問題の理論とアルゴリズム

最近は広告や検索結果の最適化などにも使われているバンディット問題ですが、その代表的な2つのアルゴリズム UCB (Upper Confidence Bound) と Thompson Sampling について、基本的な考え方から理論的な性能評価までを知ることができ大変参考になりました。

大規模言語データに基づく自然言語処理とその応用

ウェブページや Twitter のデータを分析して報道に利用する事例(データジャーナリズム)などが紹介されました。自然言語処理に関わる人間として、「憲法9条」と「憲法96条」の区別が難しいとか、ジョーク(「饅頭こわい」)が認識できないといった、ある意味泥臭い部分に大変共感を覚えました。

モンテカルロ木探索の理論と実践

コンピュータ囲碁の話がメインでしたが、後半のマリオAIの動画が面白かったです。

上は最適なプレイを学習するのにモンテカルロ木探索を使った結果、下は A* アルゴリズムを使った結果です。 A* アルゴリズムの方は敵の隙間を最短で駆け抜けるような非人間的な動きをするのに対し、モンテカルロ木探索の方は人間のように慎重に敵を倒しながら進んで行くというように、動き方にはっきりとした違いが現れています。

おわりに

今回が初参加でしたがとても刺激になりました。特にポスターセッションでは短時間で様々な研究を見ることができ、その中には現在自分たちが抱えている課題のヒントになりそうなアイデアもいくつか見つけることができました。参加して良かったです。

(用語説明)

多腕バンディット問題とは、複数のスロットマシンがあったときに限られたコインを使って得られる報酬を最大化するような問題です。それぞれのスロットマシンの当たりの確率が事前には分からないので、「探索」と「活用」という2種類の行動を使い分ける必要があります。

モンテカルロ木探索とは、プレイアウト(乱数を用いて終局までプレイすること)を用いて局面評価を行う原始モンテカルロに多腕バンディットを組み合わせた探索アルゴリズムです。

Date:2014-11-20 Posted in:イベント Text by:Nozomu Kaneko