甲斐性なしのブログ

うどんくらいしか食べる気がしない

マルチ○○学習まとめ

機械学習の分野では、マルチ○○学習という名付けられた枠組み・手法が色々提案されています。僕は、接頭辞が共通だと、すぐごっちゃになって何が何だか分からなくなってしまうので、ちょっと整理したいと思っていました。ということで、今回は「マルチカーネ…

動的計画法でテキストセグメンテーション

いやいや、お久しぶりです。 実に半年以上も更新が滞ってました。 ちゃんと生きてます。以前、動的計画法によるシーケンシャルデータのセグメンテーションという記事を書きましたが、 今回はそれを応用して、テキストセグメンテーションを行おうと思います。…

NIPS2012自棄読み その2

なんやかんやで前回から1ヶ月以上たってしまいました。 こりゃいかんということで、NIPS2012 part2いきます。 前回は機械学習の基礎的な手法を提案した論文を紹介しましたが、今回は応用よりの論文を2本取り上げてみました。 Learning Image Descriptors wit…

NIPS2012自棄読み その1

気が付いたら3月も中旬です。昨年末に27歳の誕生日を迎えたばかりだと思っていたら、もう3ヶ月経ってしまいました。このまま、あっという間に三十路を迎えるのでしょう。時の流れは早くて残酷です。生え際の後退もかなり進行してきました。悲しいです。昔の…

【Python】動的計画法によるシーケンシャルデータのセグメンテーション

学生の頃、表題のアルゴリズムを研究に応用しようとしていましたが、すっかり忘れているので、思い出すために改めてPythonで実装してみました。当時は、matlabでfor文を回して実現していましたが、今回は、勉強がてらラムダ式やら再帰呼び出しやらを駆使して…

ICML2012の論文をいくつか3行程度で紹介する

あけましておめでとうございます。 新年早々初詣にも行かず、4ヶ月滞ってたブログを更新するのが僕です。 ということで、今更ながらピックアップしてたICML2012の論文を読んでみました。 タイトルの通り3行で概要を書いていこうと思います。 Multiple Kernel…

【Python】Heat Kernel行列をfor文を使わずに求める

ふと、過去の記事を眺めていたら、ESFSの記事でこんな記述があるのを発見。 高速化のためには、for文で計算している部分を行列計算になおすなど、 繰り返し構文をなるべく使わない工夫が必要になります。 実際にどのように実装したかは、気が向いたら書こう…

エンベデッドシステムスペシャリスト試験合格発表

以前の記事でエンベを受験してきたことを報告しましたが、その合格発表が6月15日にありました。結果は合格ということで一安心。 ただ、午後1,2ともに、自己採点の点数より思いのほか低く、合格ラインぎりぎりだったので少し焦りました。 たぶん、自分が「模…

NIPS2011斜め読み part2

ICML2012もアクセプトされた論文のタイトルとアブストが公開され、 いよいよ盛り上がってまいりましたが、でも僕はNIPS2011! 懲りずに斜め読み第2弾いきます。 間違って理解している可能性も大いにあり得るので、 それを発見した際には、指摘していただけれ…

NIPS2011斜め読み

NIPSは毎年12月頃に開催される機械学習関連の国際会議です。 Proceedingsはweb上に公開されているので、 今回は昨年末に開催されたNIPS2011の中から、 興味を惹かれた論文を何本か適当にチョイスして読んでみました。 斜め読みした程度なので、かなり理解が…

エンベデッドシステムスペシャリスト試験

お久しぶりです。 4月15日、エンベデッドシステムスペシャリスト試験を受験してきました。 ブログの更新が滞ってたのは、これの試験勉強に励んでいたため・・・ というわけではないです。ただ単に面倒くさかっただけです。受験の理由ですが、仕事で工場設備…

BPRで遊んだよ!

前回の記事の実装編です。前回ちょっとだけ述べた、last.fmのデータがここに転がってたので、 こいつで、BPRアルゴリズムを試してみることにしました。 使用したのは、usersha1-artmbid-artname-plays.tsvファイルのデータのみです。 usersha1-profile.tsvは…

情報推薦の論文

明けましておめでとうございます。ブログ開設当初は、月1ペースの更新を目標にしてたんですが、 案の定、2ヶ月以上放置。 気がつけば年が明けてました・・・ こんな感じで、今年もテキトーにやっていこうと思うので、 よろしくお願いします。というわけで、…

Eigenvalue Sensitive Feature Selection

クラスタリングや分類などを行う際、なるべく冗長となる特徴量は取り除いてから 行った方が精度や実行時間の観点で有効だとされています。 この「冗長となる特徴量を取り除く」方法は特徴選択と呼ばれ、 これまでに多数の手法が提案されています。 というこ…

Principal Anglesの日本語訳って何?

と、タイトルからいきなり疑問形なわけですが・・・ 先日の記事で書いたGrassman Discriminant Analysisの論文内に このPrincipal Anglesについて記述されていたので疑問に思ったわけです。 線形代数をきちんと学んだ人にとっては常識なのかもしれませんが、…

Grassmann Discriminant Analysisの論文を読む

ときどき、学生のころ勉強していたこと(機械学習など)が懐かしくなって、 それに関連しそうな論文を探したり読んだりするんですが、 今日はその論文の1つを紹介しようかなと思います。J. Hamm and D. D. Lee. Grassmann Discriminant Analysis: a Unifying…