ラテン文字の a とキリル 文字の а のように外形が類似し、かつ異なる文字符号が割り当てられた文字ペアは「ホモグリフ」と呼ばれる。多くの人間がホモグリフに気付かない可能性が高い一方、ソフトウェアとして実装された自然言語処理はその差異が反映されるため、人間の認知と機械処理の結果に大きなギャップが生じる可能性がある。本研究はそのようなギャップを悪用したセキュリティ脅威の例として、広く利用している機械翻訳システムを対象に研究を進めた。この結果、機械翻訳を実行するニューラルネットワークの部分に加え、テキストデータの前処理の差異が結果に大きな違いをもたらすことを明らかにした。この研究を進めている最中に ChatGPT および GPT-4 などの技術が登場したため、新たなターゲットとして評価を進めた。これらの生成モデルの出力は利用者が無批判に使うようなケースも散見されるため、セキュリティ脅威としても注目すべき対象である。GPT-4 を用いたホモグリフに対する処理評価の結果、GPT-4 の学習モデルには多くのホモグリフに関する情報が存在し、ホモグリフの外形的な類似性に関する情報がモデル内に含有されている一方、比較的マイナーな言語システムのホモグリフに関しては正しい情報がないことを明らかにした。また、GPT-4 の場合、前後の文脈から typo などの修正を行う能力が高いため、少ない数のホモグリフを使った攻撃は成立しないことを明らかにした(既存研究の攻撃がほとんど通用しないことを確認)。現在、マイナーな言語のホモグリフを用いた攻撃の評価に関する論文を投稿中である。 本研究課題の応用として、Webフォントを用いたテキスト難読化方式を開発した。この技術はユーザには読めるテキストを表示するが、実際には異なる文字符号のデータをブラウザに送信することで、テキストの著作権の保護を目的としたものである。
|