いぬいぬいぬい

逆から読んでみてください

2020-02-01から1ヶ月間の記事一覧

論文のIntroを淡々と和訳する - 5. Transfer Learning for Sequences via Learning to Collocate

今回は以下の論文のイントロを和訳します。 Transfer Learning for Sequences via Learning to Collocate (ICLR 2019) (併置学習による系列の転移学習) 著者:Wanyun Cui, Guangyu Zheng, Zhiqiang Shen, Sihang Jiang, Wei Wang (上海財経大学、復旦大学) …

論文のIntroを淡々と和訳する - 4. Unsupervised learning of video representations using LSTMs

今回は次の論文のイントロを和訳しました。 Unsupervised learning of video representations using LSTMs (LSTMを用いた動画表現の教師なし学習, ICML 2015) 著者: Nitish Srivastava, Elman Mansimov, Ruslan Salakhutdinov (トロント大学) AI関連の多くの…

論文のIntroを淡々と和訳する - 3. Capacity and Trainability in Recurrent Neural Networks

今回は以下の論文のイントロを和訳します。 Capacity and Trainability in Recurrent Neural Networks (再帰型ニューラルネットワークの容量と学習可能性) 著者: J.Collins, J.Sohl-Dickstein, D.Sussillo (Google Brain) RNNの研究と応用は最近数年間で爆発…

論文のIntroを淡々と和訳する - 2.Learning Longer-term Dependencies in RNNs with Auxiliary Losses

こんばんは。 今回は次の論文のイントロを和訳しました。 Learning Longer-term Dependencies in RNNs with Auxiliary Losses (追加の損失でRNNの長期依存性を学習) 著者: Trieu H. Trinh, Andrew M. Dai, Minh-Thang Luong, Quoc V. Le (Google Brain) ICLR…

論文のIntroを淡々と和訳する - 1. TopicRNN: A Recurrent Neural Network with Long-Range Semantic Dependency

第一回目は以下の論文を和訳していきます。 TopicRNN: A Recurrent Neural Network with Long-Range Semantic Dependency 著者: A.B.Dieng (Columbia Univ.), C.Wang (MS research), J.Gao (MS research), J.Paisley (Columbia Univ.) ICLR 2017 文書を読む…

機械学習の論文のIntroを淡々と和訳する - 0. 宣言

とても久しぶりの投稿になります。 前の記事までで読んでた本は、その後もちょこちょこ読んではいましたがアウトプットは三日坊主となってしまいました。 今は仕事上色々機械学習の勉強をしていて、論文をもっと読んでいかないとなという状態です。 そこでこ…