研究概要 |
まず,従来の文法研究,教育活動の成果の中から,語感の顕在化につながる要素を抽出・網羅し,そのCAI教材化の実現性により評価・分類した後,文字・音声・映像などを有機的に統合しながら,CAI教材化の作業に移り,現在に至る。最初にCAI教材化に着手したのは,副助詞「もう」と「まだ」の語感の視覚や聴覚による顕在化で,ハイパーカードのスクリプト上でプログラムを書いて動画処理とシミュレーションを実現し,その試作品が一応完成した。その他,テーマ提示の「は」,対比機能の「は」の文脈中での視覚化,「ひらく」「あける」の視覚的比較,さらに「あげる」「くれる」の方向性の視覚化もかなり進んでいる。そして,コンピュータを使用しての語感の顕在化の考え方は原則的に実現できると判断するに至った。但し,機器やソフトの性能による予想を上回わる制約のため研究実施のペースは当初予定を下回っている。特に,学習効果が期待できるようなビデオ映像の撮影と編集,またビデオ映像とコンピュータ上に制作する画像の統合の難しさが目立った。また,市販のグラフィック・ソフトでは色を使って演示まではできるのだが,シミュレーションが極めて困難である一方,マッキントッシュに装備されたハイパーカードでは,シミュレーションまで可能なのだか,色が使えないという難点があり,今のところ色は未使用で教材化を進めている。これらの問題も,最近市販されるようになったオーサウェアで解決できるかもしれないが,現在はその確認作業を進めている段階である。語感の顕在化においては,原則的に実現性を確認するだけでは不十分で,その質的な完成度が教育効果に決定的な意味を持つ。したがって,教材モジュールの数を制限しても,一つ一つの完成度を今後さらに高めることを優先する必要があると思われる。
|