研究課題
Linked Data は,データのWeb とも呼ばれ,急速に普及しつつあるが,データ間のリンク(関係付け)が不十分なため,実用上で大きな問題となっている.本研究では,大規模で様々な種類のデータが分散して提供されているLinked Data に対して,意味的な関係付けを高速かつ高精度に行う手法を開発することが目的である.そのために,オントロジー・アライメントで使われる機械学習技術とインスタンス・マッチングで使われるブロッキング技術を融合することで新たな意味的な関係付け技術を開発する.2015年度は,研究の最終年度に当たるため,これまでの研究成果を利用しながら,以下の2つに分けて研究開発を行った.1.取り扱いデータの大規模化対応機構の研究大規模なLinked Dataを取り扱うためには,時間計算量,空間計算量の双方を削減する必要がある.そのための機構の開発に取り組んだ.具体的には,これまでに研究してきたシステムの一部のアルゴリズムを改善することにより,両方の計算量を大きく減らしたシステムの作成を行った.2.精度向上のための機械学習機構の研究これまでに開発してきたシステムの精度をさらに高めるための手法について,研究を行った.意味的な関係付けを行う際に,システムは様々な設定を利用する.その設定状況により,システムの性能が変化するため,自動的に適切な設定を行うことができる学習アルゴリズムの開発を行った.その結果,システムが精度高く関連付けを行うことが可能となった.
すべて 2016 2015
すべて 雑誌論文 (2件) (うち査読あり 2件) 学会発表 (2件) (うち国際学会 2件)
IEICE Transactions on Information and Systems
巻: Vol. E99-D, No. 6 ページ: 出版予定
Proceedings of the 5th Joint International Semantic Technology Conference
巻: LNCS 9544 ページ: 56-72