研究課題/領域番号 |
19K12127
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 東京電機大学 |
研究代表者 |
大野 誠寛 東京電機大学, 未来科学部, 教授 (20402472)
|
研究期間 (年度) |
2019-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
4,420千円 (直接経費: 3,400千円、間接経費: 1,020千円)
2022年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2021年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
2020年度: 780千円 (直接経費: 600千円、間接経費: 180千円)
2019年度: 780千円 (直接経費: 600千円、間接経費: 180千円)
|
キーワード | 言語生成 / 整形処理 / 言い換え / 構文解析 / 係り受け解析 / 話し言葉処理 / 読点挿入 / 語順整序 / 改行挿入 / 字幕生成 / 助詞推定 / 文字列予測 / 自然言語処理 |
研究開始時の研究の概要 |
本研究では、議事録や科学技術論文、製品マニュアル、ビジネスメール等における作文支援技術として、話し言葉や即興で生成された書き言葉に頻出する読みにくい文を読みやすく整形する手法を開発する。その特徴は、整形処理の中心に語順整序を置き、読みやすい位置への読点挿入や適切な助詞への言い換えを、語順整序と同時実行する点にある。また、その際に、RNN言語モデルを有効活用する点にある。
|
研究実績の概要 |
本研究では、議事録や科学技術論文、製品マニュアル、ビジネスメール等における作文支援技術として、話し言葉や即興で生成された書き言葉に頻出する読みにくい文を読みやすく整形する手法を開発する。令和5年度は以下の4項目を実施した。 (1)Shift-Reduce法に基づいて係り受け解析・語順整序・読点挿入を同時実行する手法の開発を推進した。具体的には、各時点の操作選択においてBERTを用いた分類モデルを導入するとともに、処理途中で非文が生成されることを回避すべく、従来の拡張Shift-Reduceアルゴリズムにおいて、同じ文節に係る2文節間でのみ語順入替を許すように変更することにより、精度向上を図った。 (2)話し言葉を読みやすい字幕に整形するための要素技術として、漸進的係り受け解析と残存文長推定に基づく逐次的な改行挿入手法の開発を行った。文節が入力されるごとに、改行挿入判定と残存文長推定をBERTを用いて同時実行し、その際の改行挿入判定において、漸進的係り受け解析から得られる構文情報を用いることにより,逐次的な改行挿入における精度向上を図った。 (3)読みやすい位置での逐次的な改行挿入等への応用を目的に、漸進的係り受け解析技術の開発を推進した。具体的には、話し手の発話の予測手法の開発に取り組むとともに、発話の予測を考慮しつつ漸進的係り受け解析を行う手法の開発に取り組んだ。 (4)読みやすい文への整形を実現するための基盤技術として、各文節における適切な助詞列を推定する手法の開発に取り組んだ。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
研究実施計画に従って、従来の語順整序手法にBERTを組み込んだ手法の開発を推進し、一定の成果を得ることができた。また、読点挿入・語順整序・係り受け解析を同時実行するアルゴリズムの開発に前倒して取り組み、2種類のアルゴリズムの考案と実装及び評価実験まで実施した。助詞換言手法を検討するため、各文節における適切な助詞列を推定する手法の開発を推進した。これら各手法に対する詳細な評価や考察がやや遅れている。 その他、本研究課題の関連研究として、BERTを用いた日本語講演テキストへの改行挿入手法や、残存文長の推定手法の開発、漸進的係り受け解析に関する研究、残存文長と漸進的係り受け解析結果を考慮した逐次的改行挿入手法の開発を推進した。さらに、読みにくい文の一つである平仮名文に対して、高精度かつ実用的な速度で解析可能な形態素解析器を開発した。 なお、研究実施計画では、話し言葉や即興で生成した書き言葉と、それらを人手で読みやすく整形した文のペアの収集を予定していたが、検討の結果、それらの収集は行わず、前述の各種手法の開発を優先して実施している。
|
今後の研究の推進方策 |
引き続き、ニューラル言語モデルを用いて読点挿入・語順整序・係り受け解析を同時実行する手法の開発を推進し、これら各手法の詳細な評価や考察を進める予定である。また、ニューラル言語モデルを用いた助詞推定に関する研究を推進する予定である。 その他、本研究課題の関連研究として、引き続き、ニューラル言語モデルを用いた日本語講演テキストへの改行挿入手法や漸進的係り受け解析に関する研究を推進する予定である。
|