あけましておめでとうございます。
新年早々初詣にも行かず、4ヶ月滞ってたブログを更新するのが僕です。
ということで、今更ながらピックアップしてたICML2012の論文を読んでみました。
タイトルの通り3行で概要を書いていこうと思います。
Multiple Kernel Learning from Noisy Labels by Stochastic Programming
Dimensionality Reduction by Local Discriminative Gaussians
Adaptive Regularization for Weight Matrices*1
Discriminative Probabilistic Prototype Learning
Learning Task Grouping and Overlap in Multi-task Learning
- 各タスクのパラメータがタスク数より少ない基底ベクトルの線形和(:は基底ベクトルを列ベクトルにとった行列)で表されるとしたマルチタスク学習手法
- 各のノルム正則化項とのフロベニウスノルム正則化項を損失関数に加えた目的関数を解くことにより実現
- のノルム正則化項の作用によって、はスパースになり無関係なタスク同士は共通する基底ベクトルを持たなくなる
以上、5本の論文を紹介しました。
3行でまとめるのは難しいですね。
かなり無理やりやってるので、1行が長文になってしまいました。
ということで、今年もよろしくお願いします。