Publications

(2025). Investigating Psychometric Predictive Power of Syntactic Attention. To appear in CoNLL 2025.

(2025). Derivational Probing: Unveiling the Layer-wise Construction of Syntactic Structures in Neural Language Models. To appear in CoNLL 2025.

(2025). If Attention Serves as a Cognitive Model of Human Memory Retrieval, What is the Plausible Memory Representation?. To appear in ACL 2025.

Preprint

(2025). Developmentally-plausible Working Memory Shapes a Critical Period for Language Acquisition. To appear in ACL 2025.

Preprint

(2025). 自然言語における冪則と統語構造の関係の再考. 言語処理学会第31回年次大会.

PDF

(2025). 作業記憶の発達的特性が言語獲得の臨界期を形成する. 言語処理学会第31回年次大会.

PDF

(2025). アテンションが記憶想起の認知モデルたりうるならば、記憶の表現としては何が妥当か?. 言語処理学会第31回年次大会.

PDF

(2025). Derivational Probing:言語モデルにおける統語構造構築の解明. 言語処理学会第31回年次大会.

PDF

(2025). BCCWJ-MEG:日本語脳磁図データの構築. 言語処理学会第31回年次大会.

PDF

(2024). Tree-Planted Transformers: Unidirectional Transformer Language Models with Implicit Syntactic Supervision. Findings of the Association for Computational Linguistics: ACL 2024 (acceptance rate: 43.4%).

Cite DOI URL Preprint

(2024). Emergent Word Order Universals from Cognitively-Motivated Language Models. Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (acceptance rate: 21.3%).

Cite DOI URL

(2024). Dissociating Syntactic Operations via Composition Count. Annual Meeting of the Cognitive Science Society (oral presentation acceptance rate: 19%).

(2024). Targeted Syntactic Evaluations on the Chomsky Hierarchy. Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING) (acceptance rate: 44%).

PDF Cite

(2024). 工学的性能と人間らしさの関係はトークン分割に依存する. 言語処理学会第30回年次大会.

PDF

(2024). どのような言語モデルが不可能な言語を学習してしまうのか?---語順普遍を例に---. 言語処理学会第30回年次大会.

PDF

(2024). Tree Planted Transformer: 統語的大規模言語モデルの構築に向けて. 言語処理学会第30回年次大会.

PDF

(2023). Localizing Syntactic Composition with Left-Corner Recurrent Neural Network Grammars. Neurobiology of Language.

PDF Cite DOI

(2023). 統語的構成や自己注意を持つ言語モデルは「人間らしい」のか?. 言語処理学会第29回年次大会.

PDF

(2023). 極小主義に動機づけられた統語的教示に基づく言語モデル. 言語処理学会第29回年次大会.

PDF

(2023). 左隅型再帰的ニューラルネットワーク文法による日本語 fMRI データのモデリング. 言語処理学会第29回年次大会.

PDF

(2023). チョムスキー階層とニューラル言語モデル. 言語処理学会第29回年次大会.

PDF

(2023). CCGによる日本語文処理のモデリング. 言語処理学会第29回年次大会.

PDF

(2022). Composition, Attention, or Both?. Findings of the Association for Computational Linguistics: EMNLP 2022 (acceptance rate: 36%).

PDF Cite URL

(2022). チョムスキー階層とニューラル言語モデル. NLP若手の会第17回シンポジウム(YANS2022).

(2022). トランスフォーマー文法. 言語処理学会第28回年次大会.

PDF

(2022). Learning Argument Structures with Recurrent Neural Network Grammars. Proceedings of the Society for Computation in Linguistics (oral presentation acceptance rate: 47.4%).

Cite DOI

(2021). Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (acceptance rate: 17.9%).

PDF Cite

(2021). Lower Perplexity is Not Always Human-Like. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (acceptance rate: 21.3%).

PDF Cite DOI

(2021). 再帰的ニューラルネットワーク文法による人間の文処理のモデリング. 言語処理学会第27回年次大会.

PDF

(2021). 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第27回年次大会.

PDF

(2021). 予測の正確な言語モデルがヒトらしいとは限らない. 言語処理学会第27回年次大会.

PDF

(2020). 再帰的ニューラルネットワーク文法によるヒト文処理のモデリング. 日本言語学会第161回大会.