ゆるふわめも

東京か京都にいます。

機械学習

気になる実装

torchMoji TensorFlow C++ and Python Image Recognition Demo CycleGAN and pix2pix in PyTorch YOLOv2 in PyTorch python-topic-model BanditLib さいきんコード書いてないので読みながら勉強したい。 torchMoji DeepMojiのpytorchでの実装。 LSTM周りを自…

matplotlibでの散布図・プロット・アニメーションなどのサンプル集

マルチラベルデータのプロット プロットするデータの作成 二次元で可視化 三次元で可視化 三次元で可視化してそれを回転させるアニメーションを作成 分類問題データのプロット Isomapで次元削減したものを可視化 プロットのマーカを変える+ランダムに色を生…

種々の決定木・ランダムフォレストの拡張についての資料集

決定木(Decision Tree) ノード分割のルール Cost-sensitive decision tree ランダムフォレスト(Random Forest) Extremely Randomized Trees Alternating decision tree Decision Jungles Mondrian Forests Boosted Random Forest Canonical Correlation Fore…

Hyperoptなどのハイパーパラメータチューニングとその関連手法についてのメモ

ハイパーパラメータの定義 探索手法 Random Search Manual coordinate descend Grid Search Particle Swarm Optimization Genetic Algorithm Sequential Model-Based Optimization(SMBO) Tree-structured Parzen Estimator(TPE) Sequential Model-Based-opti…

強化学習関係のMOOCs(オンライン講座)のメモ

CS 598 LAZ: Cutting-Edge Trends in Deep Learning and Recognition CS 294: Deep Reinforcement Learning, Spring 2017 UCL Course on RL Sutton本 CS294をいつか見たいけれども、朝になった。 次はTree-structured Parzen Estimatorとかを調べる予定。 CS…

論文メモ:Learning Hidden Features for Contextual Bandits

元論文 まとめると 背景 Contextual Bandit 既存手法の問題点 Latent Factor Model 座標降下(Coordinate Descent)法 問題設定 アルゴリズム 実験 ベースライン 実験結果 課題 バンディット系のメモです。かなり適当です、すいません。 元論文 Learning Hidde…

論文メモ:The Limits of Popularity-Based Recommendations, and the Role of Social Ties

まとめると モデル 推薦システムが利用されていない市場のモデル 推薦システムが利用されている市場のモデル Market distortion 実験 利用データ super-node 結果 感想など コード 参考文献など “The Limits of Popularity-Based Recommendations, and the R…

推薦システムに関する資料集とメモ

推薦システム 定義 評価指標 講義・解説スライドなど 推薦システムの分類 個人化による分類 アルゴリズムにて用いるデータによる分類 アルゴリズムによる分類 類似度 行列分解 ベイズ推定 バンディット Deep Learning xxx2vec Web上における推薦システム デ…

画像に含まれる色をクラスタリングして自動的に抽出する

できたもの 実装内容 仕組み 改善点 おまけ 今後の課題 クラスタリング数を動的に変更する ワンポイントの色の抽出 クラスタリングについてのメモ クラスタリングするアルゴリズムの分類 階層的なクラスタリング手法 繰り返し割り当てを変えていく手法 その…

Zero-shot / One-shot Learningに関する資料集

定義 Zero Shot Learning one shot learning 関連研究・スライド 2008年 Zero-data Learning of New Tasks 2009年 Zero-Shot Learning with Semantic Output Codes Learning To Detect Unseen Object Classes by Between-Class Attribute Transfer 2013年 Ze…

CNNを用いたテクスチャ合成(Texture Synthesis)の仕組みのメモ

問題設定と評価指標 既存の手法 ノンパラメトリックな手法 パラメトリックな手法 提案手法 概要 詳細 ステップ1 ステップ2 これを基にした画風変換 参考文献 自分の研究が画像処理系の機械学習と関係ないのでやや適当です。 問題設定と評価指標 [Gatys2015]…

画風変換をtensorflowで実装し、最適化の項を変化させた時の出力画像の変化を見る

Neural Style Transfer VGGネット 訓練済みモデルのダウンロード モデルの定義 モデルを宣言 中間層での画像特徴量の抽出 プロット用の関数 中間層の画像の可視化 最適化問題 損失関数の計算 出力結果 画風変換に関する論文一覧 学会に参加してるのですが、…

学会発表のスライドの準備・練習のための参考動画のメモ

テンプレート はじめに 背景・研究の動機 提案手法(Proposed method) 実験(Experimental settings) 結果・考察 終わりに その他 参考動画 15~25分 Topic Models with Power-Law Using Pitman-Yor Process Psychological Advertising: Exploring Consumer Psy…

ディープラーニングのパラメータ設定・更新方法に関するメモ

パラメータの初期化 Xavier Initialization He Initialization Glorot initialisation パラメータ更新の手法 Vanilla update Momentum Nesterov Momentum Nadam AdaGrad AdaDelta Adam(Adaptive Moment Estimation) RMSprop Eve その他多数 自分で定義した目…

機械学習のベストプラクティスの資料のメモ(Best Practices for ML Engineering)

Rules of Machine Learning: Best Practices for ML Engineering Reliable Machine Learning in the Wild Google researchの Martin Zinkevich氏の資料です。 Reliable Machine Learning in the Wild(NIPS 2016)での招待講演のもの。 Rules of Machine Learn…

XGBoostで自分で設計した目的関数(objectiveを自分で定義)で回帰を行う

やること Quantile Regression イメージ scikit-learnのGradientBoostingでの実装 XGBoostの目的関数を変更する 目的関数 結果 他の目的関数 やること xgboostの目的関数を定義済みのものから自分で定義したものに変える。 回帰は常に 正解ラベル=予測の平…

損失関数・評価指標のめも

scikit-learnのモデル評価に関するドキュメント 回帰(Regression)問題 Hinge loss 平均絶対誤差(Mean absolute error) Mean Squared Error ニクラス分類(Binary Classification)問題 F1 score MAP(Mean average precision) マルチラベル分類(Multi-Label Cla…

Maximum Mean Discrepancyに関する資料集

大阪大学講義資料 ICONIP 2006 Multi-kernel Maximum Mean Discrepancy MMD-critic これもメモのみ。 去年9月頃から家のゴタゴタを引きずってて全然作業出来てない。 春休みに確認したいところ。MMD!=MikuMikuDance。 大阪大学講義資料 大阪大学大学院・基…

人工知能の研究に利用できる1 人称視点の3Dゲーム環境、DeepMind Lab

3Dでの機械学習(この言葉は使いたくないですが)の研究に利用できる環境をオープンソースで公開したそうです。 github 元論文 [1612.03801] DeepMind Lab

メモ:Value Iteration Networksのtheano, tensor-flow, chainerでの実装

概要 実装 theano tensor-flow chainer NIPS-16のBest Paper AwardであるTamar, Aviv, Sergey Levine, and Pieter Abbeel. "Value Iteration Networks." arXiv preprint arXiv:1602.02867 (2016).のtensor-flowでの実装が公開されました。 概要 エージェント…

新しいGradient Boostingベースの予測モデルLightGBM

概要 インストール Python(2.7, 3.4) C++ インストール時のエラー エラー解決法 関連手法の元文献 XGBoost FastBDT 概要 ツリーベースのアンサンブル手法は時系列順に Random Forest Gradient Boosting XGBoost FastBDT などとありますがここに新しくLightGB…

バンディットアルゴリズムの復習5:Combinatorial bandits

前回 matroid bandit やりたいこと Matroid Augmentation property Modular Function Maximum-weight basis of the matroid アルゴリズム:Optimistic Matroid Maximization 問題設定 アルゴリズム詳細 元論文 その他関連論文 書きかけ、後ほど各アルゴリズ…

バンディットアルゴリズムの復習4:Contextual Bandit

前回 Contextual Bandit スライド 説明 各アルゴリズム外観 EXP4 Epoch-Greedy LinUCB Thompson sampling for Contextual Bandits HyperTS・HyperTSFB 次回 書きかけ、後ほど各アルゴリズムの説明や実験など追加予定。 →水曜夜あたり→土日あたり 前回 UCB,そ…

バンディットアルゴリズムの復習3:UCB(Upper Confidence Bound)

前回 UCB(Upper Confidence Bound) UCBの説明 理論的な説明 UCBのアルゴリズム アームの定義 Arm0: ベルヌーイ Arm1: 適当に作った分布 実験 Arm0: ベルヌーイ Arm1: 適当に作った分布 次回 参考文献 前回 ε-Greedy+softmaxについてやった。 UCB(Upper Confi…

バンディットアルゴリズムの復習2:softmax

前回 Softmax Softmaxによるアーム選択 Boltzmann分布(Gibbs 分布) Softmaxのコード アーム選択部分 実験 アームの定義 Arm0: ベルヌーイ Arm1: 適当に作った分布 実験結果 Arm0: ベルヌーイの場合 Arm1: 適当に作った分布の場合 次回:UCB 参考文献 前回 ε-G…

バンディットアルゴリズムの復習1:epsilon-Greedy

A/B テスト epsilon-Greedy アルゴリズム 説明 epsilon-Greedy アルゴリズムコード 実験(ベルヌーイ分布のアーム) アームの定義 実行結果 実験(ペナルティが大きいアームがあるケース) アームの定義 実験結果 実験(アームの分布が時間によって変化する場合) …

強化学習の資料メモ3:マルコフ決定過程

Agent–Environment Interface 強化学習におけるagent-environmentの相互作用 Markov Decision Process 定義 講義動画 Markov Decision Processes I Markov Decision Process II RL Course by David Silver(Deepmind) 有限マルコフ決定過程(Finite Markov De…

強化学習の資料メモ2:多腕バンディット問題

基本の内容 各種定式化 Exploration/Exploitation Dilemma Stationary Problem(定常なケース) Action-Value Methods 行動選択の戦略 greedy(貪欲) ε-Greedy Soft-max action selection Non-stationary Problem(非定常なケース) アームの行動戦略 Gradient-Ba…

強化学習の資料メモ1:基本

強化学習の基本 Introduction to Reinforcement Learning with Function Approximation Temporal-Difference Learning Bellman expectation equation off-policy Function approximation ε-greedy policy Model-based reinforcement learning 活用と探索のジ…

Richard S. Suttonら著の強化学習本のドラフト版が公開

pdf サンプルコード 講義資料等 このドラフト版の前の本 Sutton, Richard S., and Andrew G. Barto. Reinforcement learning: An introduction. Vol. 1. No. 1. Cambridge: MIT press, 1998. で有名なRichard S. Sutton氏による新しい強化学習本のドラフト版…