DSpace Repository


Show simple item record

dc.contributor.author 踊堂 憲道 ja
dc.contributor.author 伊藤 克亘 ja
dc.contributor.author 鹿野 清宏 ja
dc.contributor.author 中村 哲 ja
dc.date.accessioned 2012-07-05T07:00:35Z en
dc.date.available 2012-07-05T07:00:35Z en
dc.date.issued 2001-02 en
dc.identifier.issn 1882-7837 en
dc.identifier.uri http://hdl.handle.net/10061/7764 en
dc.description.abstract 人間の発話を文字に変換する大語彙連続音声認識(ディクテーション)技術は, キーボード入力の省力化や, 様々な環境下における人間とコンピュータ間の音声インタフェースの実現のために必要不可欠な技術であり, 活発に研究が行われている.認識システムには, 人間の言語知識の役割を果たす言語モデルが組み込まれており, 一般的には統計的言語モデルであるN-gramが用いられている.しかし, 数千語〜数万語を対象とする場合, N-gramモデルのパラメータが指数関数的に増大し, システム構築に際して, 大きな障害が生じることになる.本稿では, これまでに提案された種々のN-gramモデルのパラメータ削減手法の比較を行う.また, 我々が提案する削減手法を(N-1)-gramに適用するための予備実験を行ったので, その結果について報告する. ja
dc.description.abstract Large vocabulary continuous speech recognition (LVCSR), which is simply called as dictation, is an essential technology for the realization of voice typing and interface between human being and a computer in various conditions. An LVCSR system reduces search space using language models, where statistical N-gram models are generally used. However, they need a huge number of parameters that grow exponentially with N and the vocabulary size. Especially in the task with large vocabulary (from a few thousand of words to several ten thousands of words), their huge memory requirement results in the system implementation difficulty. In this paper we compare algorithms for reducing the number of parameters of an N-gram model. Preliminary experiments on the augmentation of our compression algorithm to deal with (N-1)-gram are carried out. en
dc.language.iso ja en
dc.publisher 情報処理学会 ja
dc.rights Copyright (C) 2001 情報処理学会. ja
dc.rights ここに掲載した著作物の利用に関する注意: 本著作物の著作権は(社)情報処理学会に帰属します。本著作物は著作権者である情報処理学会の許可のもとに掲載するものです。ご利用に当たっては「著作権法」ならびに「情報処理学会倫理綱領」に従うことをお願いいたします。 ja
dc.rights Notice for the use of this material: The copyright of this material is retained by the Information Processing Society of Japan (IPSJ). This material is published on this web site with the agreement of the author(s) and the IPSJ. Please be complied with Copyright Law of Japan and the Code of Ethics of the IPSJ if any users wish to reproduce, make derivative work, distribute or make available to the public any part or whole thereof. en
dc.title N-gramモデルのエントロピーに基づくパラメータ削減に関する検討 ja
dc.title.alternative A Study on Entropy-based Compression Algorithms for N-gram Parameters en
dc.type.nii Journal Article en
dc.textversion publisher en
dc.identifier.ncid AA12317677 en
dc.identifier.jtitle 情報処理学会論文誌 ja
dc.identifier.volume 42 en
dc.identifier.issue 2 en
dc.identifier.spage 327 en
dc.identifier.epage 333 en
dc.identifier.NAIST-ID 73296626 en
dc.relation.isIdenticalTo http://ci.nii.ac.jp/naid/110002725740 en

Files in this item

This item appears in the following Collection(s)

Show simple item record

Search DSpace

Advanced Search


My Account