profile image

About Me

名前: 奥野彰文(おくのあきふみ)

所属機関: 理化学研究所革新知能統合研究センター(AIPセンター)数理統計学チームでテクニカルスタッフをしています.京都大学人工知能研究ユニットの民間等共同研究員も拝命しています.

学歴: 下平英寿先生の下で数理統計学を学んでいます(阪大基礎工で2014年に学士,2016年に修士).下平先生の転任に伴い,2017年4月に京大情報学研究科へ転入学し2017年4月-2019年3月には日本学術振興会特別研究員(DC2)をしていました.最近は主に統計的機械学習の理論的側面に興味を持ち,博士号取得を目指しています.

履歴書(英語)

研究の興味: 最近まで主に関係学習に興味を持っていて,特にニューラルネット(NN)を用いたグラフ埋め込みと相関分析など特徴量学習を研究していました.NNを用いたグラフ埋め込みの表現能力を調べ,AISTATS2019とIJCAI2019では高い表現能力を持つモデルを提案しその証明を与えました.別の研究ではより一般の関係学習の枠組みを考え,より複雑な関係性(ハイパーリンク)を扱うための理論的な整備を進めています(Neural Networks 2020, arXiv:1908.02573). 最近はノンパラ推定などにも興味が移りつつあり,ノンパラでの関係学習の理論的性質(IBIS2019優秀プレゼンテーション賞)や近傍法の収束レートの改善(arXiv:2002.03054)など研究しています.詳しくは出版物過去の発表 Google Scholar Research Gate DBLP arXiv 読んだ論文の記録(Tumblr) などをご覧ください.

E-mail: oknakfm [at] gmail.com
住所: 〒606-8317 京都府京都市左京区吉田本町 京都大学(吉田キャンパス)15号館 111号室.

Name: Akifumi OKUNO

Affiliation: I work as a Technical Staff I of Mathematical Statistics team, RIKEN center for Advanced Intelligence Project (AIP) in Japan. I am also a collaborative researcher of Kyoto University AI Research Unit.

Education: I studied mathematical statistics in my bachelor's (2014, B. Eng., Osaka Univ.) and master's (2016, M. Eng., Osaka Univ.) under the supervision of Professor Hidetoshi Shimodaira. In 2017, I moved to the doctoral course in Kyoto University with my supervisor Prof. Shimodaira, and I worked as a JSPS research fellow (DC2) from Apr. 2017 to Mar. 2019. I am currently studying theoretical aspects of statistical machine learning towards doctoral degree.

Download CV

Research Interest: I am mainly interested in relational learning, especially neural network (NN)-based graph embedding (GE) and correlation analysis. I developed universal approximation theorems for the NN-based GE; my recent studies (AISTATS2019a, IJCAI2019) provided theoretically-guaranteed highly expressive GE models. Another study of mine provided a more general framework for relational learning (AISTATS2019b), and it is extended to hyper-relational learning (Neural Networks 2020, arXiv:1908.02573). Nowadays, my attention is partially drawn to nonparametric statistics, including nonparametric relational-learning (IBIS2019) and optimal nearest neighbour (arXiv:2002.03054). For details, please see my publications, past presentations, and Google Scholar Research Gate DBLP arXiv. I have also recorded my reading history of papers in Tumblr.

E-mail: oknakfm [at] gmail.com
Address: Room #111, Research Building 15, Kyoto University (Yoshida-Campus), Yoshida-Honmachi, Sakyo-ku, Kyoto, Japan. Postal code: 606-8317.

Recent Activities

  • New paper entitled "Stochastic Neighbor Embedding of Multimodal Relational Data for Image-Text Simultaneous Visualization" (joint work with M. Mizutani, G. Kim and H. Shimodaira) has been published on arXiv:2005.00670. (May 5th, 2020)
  • Tips page (in Japanese) has been released.
  • Our paper entitled "Hyperlink Regression via Bregman Divergence" (joint work with H. Shimodaira) has been published online in Neural Networks! (Apr. 13th, 2020)
  • New paper entitled "Extrapolation Towards Imaginary 0-Nearest Neighbour and Its Improved Convergence Rate" (joint work with H. Shimodaira) has been published on arXiv:2002.03054. (Feb. 7th, 2020)
  • Our poster presentation entitled "Nonparametric link regression and its theoretical properties" (joint work with K. Yano and H. Shimodaira) got IBIS2019 presentation award! and 3 other joint works were also presented there. (Nov. 25th, 2019)

Publications

Preprints
  1. Morihiro Mizutani, Akifumi Okuno, Geewook Kim and Hidetoshi Shimodaira. "Stochastic Neighbor Embedding of Multimodal Relational Data for Image-Text Simultaneous Visualization," submitted. 20 pages.
    arXiv:2005.00670
  2. Akifumi Okuno and Hidetoshi Shimodaira. "Extrapolation Towards Imaginary 0-Nearest Neighbour and Its Improved Convergence Rate," submitted. 31 pages.
    arXiv:2002.03054

Journal Paper (Refereed)
  1. Akifumi Okuno and Hidetoshi Shimodaira. "Hyperlink Regression via Bregman Divergence," Neural Networks, June 2020, Volume 126, pages 362-383.
    Paper arXiv:1908.02573

Conference Papers (Refereed)
  1. Geewook Kim, Akifumi Okuno, Kazuki Fukui, and Hidetoshi Shimodaira. "Representation Learning with Weighted Inner Product for Universal Approximation of General Similarities," Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI), 2019, pages 5031-5038.
    Proceedings arXiv:1902.10409
  2. Akifumi Okuno and Hidetoshi Shimodaira. "Robust Graph Embedding with Noisy Link Weights." 22nd International Conference on Artificial Intelligence and Statistics (AISTATS), Okinawa, Japan, 2019, PMLR 89:664-673.
    Proceedings arXiv:1902.08440
  3. Akifumi Okuno, Geewook Kim, and Hidetoshi Shimodaira. "Graph Embedding with Shifted Inner Product Similarity and Its Improved Approximation Capability," 22nd International Conference on Artificial Intelligence and Statistics (AISTATS), Okinawa, Japan, 2019, PMLR 89:644-653.
    Proceedings arXiv:1810.03463
  4. Akifumi Okuno, Tetsuya Hada, and Hidetoshi Shimodaira. "A probabilistic framework for multi-view feature learning with many-to-many associations via neural networks," 35th International Conference on Machine Learning (ICML), Stockholm, Sweden, 2018, PMLR 80:3888-3897.
    Proceedings arXiv:1802.04630 (selected for long talk)
  5. Kazuki Fukui, Akifumi Okuno, and Hidetoshi Shimodaira. "Image and tag retrieval by leveraging image-group links with multi-domain graph embedding," Proceedings of the 2016 IEEE International Conference on Image Processing (ICIP), Phoenix, AZ, USA, 2016, pp. 221-225. doi: 10.1109/ICIP.2016.7532351.
    Paper
IJCAI, AISTATS, and ICML are selected as priorized 21 international academic conferences in Google AI Talent Report 2019.

Workshop Paper (Refereed)
  1. Akifumi Okuno and Hidetoshi Shimodaira. "On representation power of neural network-based graph embedding and beyond," ICML 2018 workshop on Theoretical Foundations and Applications of Deep Generative Models. 13 pages.
    Accepted Papers (14.) arXiv:1805.12332

Misc. (Non-refereed short papers, in Japanese)
  1. 水谷守裕, 奥野彰文, 福井一輝, Kim Geewook, 下平英寿. グラフと近傍グラフの確率的同時埋め込みを用いたマルチモーダル関連性データの可視化, 人工知能学会全国大会(JSAI) 2020. 6月. 4pages.
    論文
  2. Kim Geewook, 奥野彰文, 下平英寿. 擬ユークリッド空間への単語埋め込み. 言語処理学会第25回年次大会論文集.日本言語処理学会,2019年3月.4 pages.
    論文
  3. 福井一輝, 奥野彰文, 下平英寿. マッチング相関分析を用いた画像-マルチタグ間の相互検索. 電子情報通信学会和文論文誌D. 研究速報 (レター), 電子情報通信学会, 2016年8月号. 4 pages.
    研究速報 (レター)

Presentations

Invited talks are also listed in my CV. In the following lists, ◯ represents the presenter, and my name is underlined. The following lists exclude above publications.

Upcoming Talks
  1. ◯奥野彰文,下平英寿. 仮想的な0近傍への外挿とその収束レートについて.(Extrapolation Towards Imaginary 0-Nearest Neighbour and Its Improved Convergence Rate) 日本統計関連学会連合大会, 富山.
  2. ◯Akifumi Okuno. Nonparametric Link Regression and Its Theoretical Properties (invited, joint work with K. Yano and H. Shimodaira), EcoSta 2020, July, Yonsei University, South Korea. (postponed due to COVID-19)

International Conferences and Meetings
  1. ◯Akifumi Okuno. Bregman Hyperlink Regression and Its Expressive Power (invited, joint work with H. Shimodaira and G. Kim), at ACML 2019 Workshop on Statistics and Machine Learning Researchers in Japan, Nagoya, Japan, in Nov., 2019. Oral.
  2. ◯Akifumi Okuno. Hyperlink Regression via Bregman Divergence. (joint work with H. Shimodaira), at RIKEN-AIP workshop, Genoa, Italy. September, 2019. Poster.
  3. ◯Akifumi Okuno. Graph Embedding with Shifted Inner Product Similarity and Its Improved Approximation Capability. (invited, joint work with H. Shimodaira and G. Kim) Workshop on Functional Inference and Machine Intelligence, Tokyo, Japan. March, 2019. Oral.
  4. ◯Akifumi Okuno and Hidetoshi Shimodaira. Leveraging local data structure for multi-view analysis with many-to-many associations, Conference of the International Federation of Classification Societies (IFCS), Tokyo, Japan. August, 2017. Poster.
  5. ◯Tetsuya Hada, Akifumi Okuno and Hidetoshi Shimodaira. Deep Multi-view Representation Learning Based on Adaptive Weighted Similarity, First International Workshop on Symbolic-Neural Learning (SNL), Nagoya, Japan. August, 2017. [Abstract] Oral.
  6. ◯Akifumi Okuno and Hidetoshi Shimodaira. Statistical consistency of multi-view correlation analysis with many-to-many associations, Joint Statistical Meeting (JSM), Baltimore, USA. August, 2017. [Abstract] Poster.
  7. ◯Akifumi Okuno and Hidetoshi Shimodaira. Robust Multi-view Graph Embedding, International Conference on Robust Statistics (ICoRS), Wollongong, Australia. July, 2017. [slides] Oral.
  8. ◯Akifumi Okuno and Hidetoshi Shimodaira. Robust cross-domain matching: Analyzing multi-domain data vectors under mismatched associations. Machine Learning Summer School 2015, Kyoto University, Kyoto, Japan. August, 2015. Poster.

Domestic Conferences and Meetings
  1. ◯奥野彰文, 矢野恵佑, 下平英寿. "ノンパラメトリックなリンク回帰とその理論的性質について" (1-073), at IBISML2019, 名古屋, 2019年11月. (優秀プレゼンテーション賞)
  2. ◯前田篤刀, 奥野彰文, 伊森晋平, 下平英寿. "深層ニューラルネットを用いたマルチタスク距離学習の理論解析" (1-024), at IBISML2019, 名古屋, 2019年11月.
  3. ◯田中卓磨, 奥野彰文, 福井一輝, Kim Geewook, 下平英寿. "マルチスケールk-近傍法を用いた画像のタグ推定" (1-115), at IBISML2019, 名古屋, 2019年11月.
  4. ◯水谷守裕, 奥野彰文, 福井一輝, Kim Geewook,金沢朋実, 白石友一, 岡田眞里子, 下平英寿, "グラフと近傍グラフの確率的同時埋め込みによるマルチモーダルデータの可視化" (1-120), at IBISML2019, 名古屋, 2019年11月.
  5. 奥野彰文, Kim Geewook, 下平英寿. "ニューラルネットワークを用いたグラフ埋め込みの表現能力とその拡張". 統計関連学会連合大会2019. 彦根, 2019年9月. [Abst]
  6. 奥野彰文, 下平英寿. "Hyperlink Regression via Bregman Divergence". 統計関連学会連合大会2019. 彦根, 2019年9月. [Abst]
  7. ◯奥野彰文. グラフ埋め込みの確率モデルとその性質. (招待,京都大学 下平英寿教授との共同研究). RIMS研究集会「高次元量子雑音の統計モデリング」, 京都, 2018年11月.
  8. ◯奥野彰文, 下平英寿. ロバストなグラフ埋め込み. 情報論的学習理論と機会学習ワークショップ2018, 札幌, 2018年11月.
  9. ◯奥野彰文, Geewook Kim, 下平英寿. ニューラルネットワークを用いたグラフ埋め込みの表現定理とその拡張. 情報論的学習理論と機会学習ワークショップ2018, 札幌, 2018年11月.
  10. ◯田中卓磨, 奥野彰文, 下平英寿. グラフ埋め込みの次数補正とその応用. 情報論的学習理論と機会学習ワークショップ2018, 札幌, 2018年11月.
  11. ◯奥野彰文, 下平英寿. ニューラルネットワークを用いた異種データのグラフ埋め込み. 2018年度統計関連学会連合大会, 中央大学, 2018年9月. [Abst]
  12. ◯奥野彰文, 羽田哲也, 下平英寿. 属性ベクトルとニューラルネットワークを用いた異種データ間のリンク構造の最尤推定. 情報論的学習理論と機会学習ワークショップ2017, 東京大学, 2017年11月.
  13. ◯奥野彰文, 下平英寿. Cross-view link prediction with attribute vectors and its information criterion (英語口頭発表). 2017年度統計関連学会連合大会, 南山大学, 2017年9月. [Abst]
  14. ◯奥野彰文, 下平英寿. 多対多対応を扱う相関分析の一致性について. 第11回日本統計学会春季集会, 政策研究大学院大学, 2017年3月. (優秀発表賞)
  15. ◯奥野彰文, 下平英寿. マッチング相関分析の一致性についての考察. JST CRESTシンポジウム「ビッグデータ利活用のための基盤構築とその応用」, 名古屋工業大学, 2017年2月.
  16. ◯奥野彰文, 下平英寿. 多対多対応を利用したマッチング相関分析の一致性について. 2016年度統計関連学会連合大会, 金沢大学, 2016年9月.
  17. ◯奥野彰文, 下平英寿. 反復重み付けによるロバストなマッチング相関分析. データ科学シンポジウム, 大阪大学, 2016年1月.
  18. ◯奥野彰文, 下平英寿. ロバストなマッチング相関分析の提案と画像認識への応用. 情報論的学習理論と機会学習ワークショップ2015, 筑波, 2015年11月.
  19. ◯奥野彰文, 福井一輝, 下平英寿. 多ドメインでのマッチング相関分析のロバスト化とその応用. 2015年度統計関連学会連合大会, 岡山大学, 2015年9月.
  20. ◯奥野彰文, 下平英寿. Density Power Divergenceを用いたロバストな情報量規準の提案とその応用. 2014年度統計関連学会連合大会, 東京大学, 2014年9月. [Abst]

Other Domestic Seminars and Meetings
  1. ◯奥野彰文 "Universal Approximation of Similarities and Its Application to Representation Learning" (joint work with G. Kim and H. Shimodaira), 情報系WINTER FESTA Episode 5, 国立情報学研究所(東京), 2019年12月.
  2. ◯奥野彰文 "Hyperlink Regression via Bregman Divergence" (joint work with H. Shimodaira), 統計サマーセミナー, 福岡, 2019年8月.
  3. ◯奥野彰文, Geewook Kim, 下平英寿. ニューラルネットワークを用いたグラフ埋め込みによる表現学習.ICT13, 京都, 2019年2月. (優秀研究賞)
  4. ◯奥野彰文. ニューラルネットワークを用いたグラフ埋め込みの近似定理とその拡張. 九州大学 統計科学セミナー, 福岡, 2018年12月. [Abst]
  5. ◯奥野彰文, 下平英寿. Neural Network-Based Graph Embedding: Its Properties and Extensions. NTT CS研 セミナー, 京都, 2018年10月.
  6. ◯奥野彰文, 下平英寿. グラフ埋め込みの確率モデルとその性質について. 統計サマーセミナー, 岐阜, 2018年8月.
  7. ◯奥野彰文, 羽田哲也, 下平英寿. 異種データ間の複雑な対応付けを表現する確率モデルの提案とその応用. 広島大学数理統計講座 金曜セミナー, 広島, 2018年1月. [Abst]
  8. ◯福井 一輝, 羽田 哲也, 奥野 彰文, 押切 孝将, 下平 英寿. 2016. クロスドメインマッチング相関分析とその応用. 情報系 WINTER FESTA Episode2, 国立情報学研究所 (東京), 2016年12月.
  9. ◯奥野彰文, 下平英寿. 多対多対応を利用したマッチング相関分析の一致性について. 統計サマーセミナー, 千葉, 2016年8月.
  10. ◯奥野彰文, 下平英寿. 多ドメインでのマッチング相関分析のロバスト化とその応用. 統計サマーセミナー, 山口, 2015年8月.

Awards

  • Nov. 2019. Excellent Presentation Award from IBISML2019.
  • Feb. 2019. Excellent Research Award from ICT-13 held in Kyoto Unviersity.
  • May 2017. Full Repayment Exemption of JASSO Type-I Scholarship (2,000,000JPY≈20,000USD) for Students with Excellent Grades from Japan Student Services Organization (JASSO).
  • Mar. 2017. Excellent Presentation Award from Japan Statistical Society.
  • Mar. 2016. Graduate School of Engineering Science Award (Graduated Top of the List) from the Divison of Mathematical Science, Osaka University.
  • Mar. 2014. Engineering Science Department Award (Graduated Top of the List) from Mathematical Science Course, Osaka University.
  • Mar. 2010. Kimura Award from Ritsumeikan Academy.
  • Dec. 2007. Asahi Shimbun Award from JSEC2007.