研究課題
若手研究
本研究では符号理論を基盤とした深層学習モデルの計算資源を圧縮する新しいモデル構築法を提案する.具体的には,多値出力を持つ任意の予測モデルに対して,カテゴリカルな出力層のノードを二値分類問題の組み合わせとして解釈することで,大規模言語モデルをはじめとする多くの深層学習モデルの出力層の構造を効果的に圧縮することが可能となる.この構築法は符号理論に基づいているため,性能の理論的な保証が得られ,信頼できるAIとして活用できることが強く期待できる.さらに,カテゴリカルな出力を持つ他の多くの予測モデルにも適用可能であることから,計算効率や応答速度の向上,さらにはモデルの適用範囲の拡大が期待される.