AISTATS2010の論文読んだ

やはり研究者たるもの論文を毎日読まないと!(注:読めてません
ということでAISTATS2010(AI & Statistics 2010)の論文を読んでみた。面白そうなのをピックアップしておく。斜め読みなので誤解があるかも。それとポスターセッションはまだチェックしてないのであとで読む。

http://www.aistats.org/schedule.php

  • Modeling annotator expertise: learning when everybody knows a bit of something (PDF)
<アノテータのラベル付けにノイズが乗っていたり、複数のアノテータが一つのデータセットに対してラベル付けをするような状況を確率モデルで表している。アノテータの付けたラベルyとデータxの間に潜在変数として真のラベルzを導入している。>
  • Dirichlet process mixtures of generalised linear models (PDF)
<一般化線形モデルに対するディリクレ混合過程。一般化線形モデルというのは回帰モデルを一般化したものらしい(参考)。要するにノンパラメトリックな回帰モデルを提案するよ、ということらしい。そもそも私はノンパラの勉強をサボってきたため、よくわかってない部分が多い。。この機会に勉強しようかな。>
  • Learning the structure of deep sparse graphical models (PDF)
  • Exploiting feature covariance in high-dimensional online learning (PDF)
<最近話題のCW(Confidence Weighted)やAROWな人たちの新ネタ。CWで用いる共分散を低次元に圧縮して計算量を抑えた、というような話。>
  • Convex structure learning in log-linear models beyond pairwise potentials (PDF)
<対数線形モデルによる構造学習。従来の手法がpairwise potentials(品詞接続コストみたいな二点間の素性のこと?よくわかってないです。。)までしか考慮していなかったのに対して、overlapping group L1正則化という方法で高次のpotentialsも扱えるよ、という感じらしい。(自信ない)>

以上。歯切れの悪い説明で申し訳ない。ちゃんと勉強しないと・・!