Interface2025年1月号別冊付録 第5章の参考文献

Interface誌2025年1月号別冊付録に再掲したChatGPT開発偉人伝(2023年11月号特設記事)の参考文献です.

(1)アルフレッド W クロスビー 著,小沢 千恵子 訳;数量化革命,紀伊國屋書店,2003年.
(2)ジョン・ダービーシャー;代数に惹かれた数学者たち,日経BP 社,2008年.
(3)R. Descartes,La Geometrie;Leyde.1637.
(4)木村 俊一;基幹講座 数学 線型代数,東京図書,2018年.
(5)ファン デル ヴェルデン 著,銀林 浩 訳,時枝 正 解説;現代代数学1,東京図書,2018年.
(6)J. v. ノイマン;量子力学の数学的基礎,みすず書房,1957年.
(7)高橋 昌一郎;フォン・ノイマンの哲学 人間のフリをした悪魔,講談社現代新書,2021年.
(8)フェルディナン ド ソシュール 著,町田 健 訳;新訳 ソシュール 一般言語学講義,研究社,2016年.
(9)G. K. Zipf;The Unity of Nature,Least-Action,and Natural Social Science,Sociometry,5(1),pp.48-62,1942.
(10)F. J. Newmeyer;The politics of linguistics,The University of Chicago Press,1986.
(11)M. Thomas;Fifty Key Thinkers on Language and Linguistics,Routledge,2011.
(12)Z. Harris;Distributional Structure. Word. 10(2/3),pp.146-62,1954.
(13)奥村 学;言語処理のための機械学習入門,コロナ社,2010年.
(14)J. R. Firth;A synopsis of linguistic theory,Selected Papers of J R Firth 1952-1959,pp.1-32,1957.
(15)井上 和子,原田 かづ子,阿部 泰明;生成言語学入門,大修館書店,1999年.
(16)岩波データサイエンス刊行委員会編;岩波データサイエンス Vol.2.岩波書店,2016年.
(17)クロード E シャノン 著,植松 友彦 訳;通信の数学的理論,ちくま学芸文庫,2009年.
(18)C. Shannon;Prediction and Entropy of Printed English,Bell System Technical Journal,v.30,pp.50-64,1951.
(19)田崎 晴明;「悪魔」との取り引き– エントロピーをめぐって,日本物理学会誌 Vol.66,No.3,pp.172-173,2011年.
(20)甘利 俊一;情報理論,ちくま学芸文庫,2011年.
(21)瀧 保夫;情報論Ⅰ,岩波書店,1978年.
(22)荒木 雅弘;フリーソフトでつくる音声認識システム,森北出版,2007年.
(23)C. M. ビショップ 著,元田 浩他 監訳,赤穂 昭太郎 他 訳;パターン認識と機械学習 上,丸善出版,2012年.
(24)浅川 真一;ディープ・ラーニング,ビッグデータ,機械学習.新曜社,2015年.
(25)山田 育矢,鈴木 正敏,山田 康輔;大規模言語モデル入門,技術評論社,2023年.
(26)鈴木 炎;エントロピーをめぐる冒険,講談社,2014年.
(27) W. S. McCulloch,W. Pitts;A logical calculus of the ideas immanent in nervous activity,The bulletin of
mathematical biophysics 5(4),pp.115-133,1943.
(28) F. Rosenblatt;The perceptron:a probabilistic model for information storage and organization in the brain;
Psychological review 65(6),p.386,1958.
(29) D. E. Rumelhart,G. E. Hinton, & R. J. Williams;Learning representations by back-propagating errors,nature
323(6088), 533(1986).
(30) G. E. Hinton,R. R. Salakhutdinov.“Reducing the dimensionality of data with neural networks.”science 313(5786),
pp.504-507,2006.
(31) M. Nakamura,K. Shikano;A study of English word category prediction based on neural networks,Proc.
ICASSP,pp.731-734,1989.
(32)Y. Bengio et al.;A neural probabilistic language model, J. Mach. Learn. Res. 3,pp.1137-1155,2003.
(33)Y. LeCun,Y. Bengio,& G. E. Hinton;Deep learning,nature 521(7553),pp.436-444,2015.
(34) S. Amari;Learning patterns and pattern sequences by self-organizing nets of threshold elements,IEEE
Transactions. C(21),pp.1197-1206,1972.
(35)S.Hochreiter,J. Schmidhuber;Long short-term memory,Neural Computation. 9(8),pp.1735-1780,1997.
(36)T. Mikolov,et al.;Efficient Estimation of Word Representations in Vector Space,ICLR2013,2013.
(37)T. Mikolov,et al.;Recurrent neural network based language model,INTERSPEECH,2010.
(38) T. Mikolov;Statistical Language Models Based on Neural Networks,Ph.D. thesis in Bruno University of
2025年1月号別冊付録 73
第5章 ルーツは500年前から…ChatGPT開発偉人伝
technology,2012.
(39)A. Vaswani,et al.;Attention Is All You Need,ArXiv:1706.03762,2017.
(40) D. Bahdanau,K. Cho,Y. Bengio;Neural Machine Translation by Jointly Learning to Align and Translate,
arXiv:1409.0473,2014.
(41) J. Jumper,et al.;Highly accurate protein structure prediction with AlphaFold.Nature 596(7873),pp.583-589.
2021.
(42)D. P. Kingma,M. Welling;Auto-Encoding Variational Bayes,arXiv:1312.6114,2014.
(43)I. J. Goodfellow,et al.;Generative Adversarial Networks,arXiv:1406.2661,2014.