Publications

(2024). Tree-Planted Transformers: Unidirectional Transformer Language Models with Implicit Syntactic Supervision. Findings of the Association for Computational Linguistics: ACL 2024 (acceptance rate: ??%).

Preprint

(2024). Dissociating Syntactic Operations via Composition Count. Annual Meeting of the Cognitive Science Society (oral presentation acceptance rate: 19%).

(2024). Targeted Syntactic Evaluations on the Chomsky Hierarchy. Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING) (acceptance rate: 44%).

PDF Cite

(2024). 工学的性能と人間らしさの関係はトークン分割に依存する. 言語処理学会第30回年次大会.

PDF

(2024). どのような言語モデルが不可能な言語を学習してしまうのか?---語順普遍を例に---. 言語処理学会第30回年次大会.

PDF

(2024). Tree Planted Transformer: 統語的大規模言語モデルの構築に向けて. 言語処理学会第30回年次大会.

PDF

(2023). Localizing Syntactic Composition with Left-Corner Recurrent Neural Network Grammars. Neurobiology of Language.

PDF Cite DOI

(2023). 統語的構成や自己注意を持つ言語モデルは「人間らしい」のか?. 言語処理学会第29回年次大会.

PDF

(2023). 極小主義に動機づけられた統語的教示に基づく言語モデル. 言語処理学会第29回年次大会.

PDF

(2023). 左隅型再帰的ニューラルネットワーク文法による日本語 fMRI データのモデリング. 言語処理学会第29回年次大会.

PDF

(2023). チョムスキー階層とニューラル言語モデル. 言語処理学会第29回年次大会.

PDF

(2023). CCGによる日本語文処理のモデリング. 言語処理学会第29回年次大会.

PDF

(2022). Composition, Attention, or Both?. Findings of the Association for Computational Linguistics: EMNLP 2022 (acceptance rate: 36%).

PDF Cite URL

(2022). チョムスキー階層とニューラル言語モデル. NLP若手の会第17回シンポジウム(YANS2022).

(2022). トランスフォーマー文法. 言語処理学会第28回年次大会.

PDF

(2022). Learning Argument Structures with Recurrent Neural Network Grammars. Proceedings of the Society for Computation in Linguistics (oral presentation acceptance rate: 47.4%).

Cite DOI

(2021). Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (acceptance rate: 17.9%).

PDF Cite

(2021). Lower Perplexity is Not Always Human-Like. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (acceptance rate: 21.3%).

PDF Cite DOI

(2021). 再帰的ニューラルネットワーク文法による人間の文処理のモデリング. 言語処理学会第27回年次大会.

PDF

(2021). 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第27回年次大会.

PDF

(2021). 予測の正確な言語モデルがヒトらしいとは限らない. 言語処理学会第27回年次大会.

PDF

(2020). 再帰的ニューラルネットワーク文法によるヒト文処理のモデリング. 日本言語学会第161回大会.