モバイル環境におけるコンテンツのマルチモーダル検索・呈示と放送コンテンツ生成
【研究分野】情報システム学(含情報図書館学)
【研究キーワード】
クロスメディア検索 / サーチエンジン / 質問緩和 / コンテンツ複合化 / ハイパーメディア / 画像検索 / モバイル情報検索 / 質問言語 / モバイル機器 / WWW / 情報検索 / ユーザ対話 / SMIL / 情報統合 / メタサーチ / クロスメディア / ユーザインタフェース / プレゼンテーション / 話題構造分析
【研究成果の概要】
本研究は,モバイル端末上でコンテンツの検索や呈示を行うための新しいソフトウエア技術を開発し、高度なモバイル・コンテンツアクセス・サービスの実現を目的とするもので、主に以下の項目に関して研究を行った。
(1)コンテンツの自律的提示方式の研究:
機器の操作説明情報やWeb検索エンジンの検索結果をモバイル端末で取得し,これをCGアニメーションと合成音声によって受動的に視聴できるシステムを開発した。また、移動体のビデオ動画像のマルチモーダル検索を行うために、移動体の移動軌跡をスケッチで入力する方式を開発した。
(2)クロスメディア・メタサーチエンジンの研究:
携帯型端末で単純なキーワード入力により、多様なメディアのコンテンツを横断的に検索するために、質問緩和法という方式を開発した。これは、テキスト検索エンジンと,画像検索エンジンを同時使用して検索収集するメタサーチエンジンであり、評価実験の結果、適合率の低下を20%前後にとどめながら再現率を3倍程度向上できることが確かめられた。
(3)対話からの話題構造の発見とこれに基づくモバイル検索:
携帯電話でのチャットやメール等の対話情報から話題構造を抽出し、これをもとにWeb検索するシステムを開発した。また、Blog情報を解析してWeb検索におけるトラスト値を算出する方式や、閲覧中のWebページに関連するBlog情報を受動的に視聴できるシステムを開発した。
(4)モバイル放送のためのコンテンツの動的複合化方式:
ストリームコンテンツの動的な複合化が行えるスクリプト言語MetaSMILを開発した。この言語の特徴は、従来のSMILに比べて、スクリプト中に検索質問を埋め込めたり、複合化に関する意味制約を表現できる点である。さらに、Web文書も画像とみなして、デジカメ画像や携帯電話画像と既存のWebページを自動的に関連づけて表示する方式を開発した。
(5)Webコンテンツの自律的な検索・表示機構に関する研究:
実空間に配置された複数の表示デバイス上に表示されたWebコンテンツ群が、自律的かつ互いに連携をとりながら自身を表示するとともに、ユーザの身体的操作に応じて自動検索できるようにする方式を開発した。
【研究代表者】