JP3511278B2 - Video anchor setting device - Google Patents
Video anchor setting deviceInfo
- Publication number
- JP3511278B2 JP3511278B2 JP01498597A JP1498597A JP3511278B2 JP 3511278 B2 JP3511278 B2 JP 3511278B2 JP 01498597 A JP01498597 A JP 01498597A JP 1498597 A JP1498597 A JP 1498597A JP 3511278 B2 JP3511278 B2 JP 3511278B2
- Authority
- JP
- Japan
- Prior art keywords
- anchor
- frame
- information
- unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、動画アンカー設
定装置に関する。この発明は特に、動画を入力し、これ
に含まれるターゲット等にアンカーを設定するための装
置に関する。
【0002】
【従来の技術】従来一般的なハイパーメディア装置にお
ける情報の検索は、主にテキストや静止画像に対して情
報リンクのための論理単位を設定し、この論理単位に対
して関連情報を予めリンクし、ユーザがこの論理単位を
クリックしたときに前記関連情報が表示される形態をと
っていた。しかし、例えば動画像の符号化および復号に
関するMPEGに代表されるように、ここ数年、静止画
像のみならず動画像を処理の対象にする各種技術が提案
されている。動画像を扱うことにより、上記ハイパーメ
ディア装置にも、CAI、各種プレゼンテーション、電
子カタログなど、コンテンツ作成の用途が開ける。動画
像の編集は、従来放送局等ある程度限られた産業分野で
利用されてきたが、今後はパーソナルコンピュータをベ
ースとする個人用システムとして急速に普及していくも
のと考えられる。
【0003】特開平4−163589号公報には、動画
について論理単位(その明細書ではノードと呼ぶ)を設
定することの可能な画像処理装置が開示されている。こ
の装置は、静止画像におけるノードの設定が単に表示範
囲の指定のみで可能である点に対して、動画像では
(1)表示範囲、(2)時間、の両面からそれぞれノー
ドの有効継続期間とその領域範囲を指定すればよい点に
着目し、これらの指定を可能とするものである。すなわ
ち、(1)については、動画像に登場する被写体などを
囲む領域をマウス等で指示することにより、その時間に
おけるノードの設定を行い、一方、(2)については、
動画像の出力開始時刻からの経過時間によってそのノー
ドの有効継続時間を指定する。従って、このノードは前
記領域と前記経過時間の2つの内容によって一意的に定
まり、各ノードに対して関連情報をリンクすることがで
きる。リンクの後、実際に動画像を再生する際、ユーザ
がマウス等で画面上のある領域をクリックすれば、その
位置と時刻によってノードが特定され、関連情報が表示
される。
【0004】
【発明が解決しようとする課題】上記の装置では、論理
単位の領域設定を手作業で行うことにしていた。しか
し、当然ながら動画像には、静止画像と違って多数のフ
レームが存在し、被写体の位置や形状が刻々変化する。
NTSC方式の場合、1秒間に30枚のフレームが必要
であるから、単純に計算しても、1秒の動画像を処理す
るとき1論理単位当たり30回の設定作業が必要とな
る。例えば5分間のコンテンツを作成するとき、1フレ
ームに5個の論理単位を設定するとすれば、設定回数は
45000回に及ぶ。
【0005】本発明はこの課題に鑑みてなされたもの
で、その目的は、論理単位(本明細書ではアンカーと呼
ぶ)の設定作業の省力化、簡易化を可能とする装置、よ
り具体的には、フレームごとに行う必要のあったアンカ
ー情報を自動算出または自動設定するアンカー設定装置
の提供にある。
【0006】
【課題を解決するための手段】本発明の動画アンカー設
定装置は、動画を構成する複数のフレームに対して所定
間隔で基準フレームを選定し、それら基準フレームの各
々に対してアンカー情報を設定するアンカー情報設定手
段と、設定される前記アンカー情報に基づいて非基準フ
レームのアンカー情報を算出するアンカー情報算出手段
と、を含む動画アンカー設定装置において、一又は複数
の基準フレームに設定される前記アンカー情報が他の基
準フレームに設定されるアンカー情報に基づいて所定誤
差範囲内で算出可能であるか否かを判断する判断手段
と、算出可能であると判断される場合、それら基準フレ
ームを非基準フレームに変更する基準フレーム削除手段
と、をさらに含むものである。
【0007】
【発明の実施の形態】以下、本発明の動画ハイパーメデ
ィア装置の好適な実施の形態を説明する。この装置に
は、本発明の動画アンカー設定装置が組み込まれてい
る。本装置によれば、例えば水族館の水槽を写した動画
を素材とし、泳いでいる任意の魚をクリックしたとき
に、その魚の名前、補足説明等を表示することのできる
対話型のCAIソフトを容易かつ効率的に作成すること
ができる。以下の実施の形態で「ユーザ」とは、主にこ
うしたコンテンツの作成者をいうが、これは当然なが
ら、自ら撮影したビデオテープを個人的に編集する者な
どであってもよい。
【0008】実施の形態1.
この実施の形態では、ユーザが開始フレームと終了フレ
ームを明示的に指定し、これら第1のフレーム及び第2
のフレームである2枚のフレームを最初の基準フレーム
としてアンカーを設定する。「フレーム」とは画像の表
示単位であり、MPEGでいうピクチャなどを含む。本
装置は、基準フレームに対して設定されたアンカーか
ら、補間計算によって他のフレームにおけるアンカー領
域の位置、形状、色などのアンカー情報を自動的に算出
する。「アンカー情報」とは、例えばアンカー領域の位
置や形状、アンカー領域を明示的に表示するときはその
色などをいう。なお、最初の基準フレームは1枚でも本
発明は成立するが、その例は後述する。
【0009】本実施の形態の動画ハイパーメディア装置
を含むシステム全体の構成は、アンカーおよびリンク設
定処理を制御するパーソナルコンピュータ(以下、P
C)と、このPCに動画を提供するビデオ再生装置であ
る。PCには、ビデオ再生装置から提供された画像を捕
捉してデジタル化するビデオキャプチャボードが内蔵さ
れる。ビデオ再生装置は、通常の再生開始、停止、早送
り、コマ送り等の他に、指定したフレームまたは時刻か
ら再生を行うなどの機能がある。こうしたビデオ再生装
置は放送業務等で広く使用されるものであるが、当然そ
れに限る必要はない。ビデオ再生装置の各種機能の制御
は、PC上に展開されるユーザインタフェイス(以下、
UI)、例えば画面に表示される「再生ボタン」などを
介して行われる。この場合、ユーザがそのボタンをクリ
ックすれば、そのアクションが信号ケーブルを経由して
PCからビデオ再生装置に伝送される。ビデオ再生装置
自体は、動画ハイパーメディア装置の必須構成ではない
が、ここではこれも含めたシステムとして説明する。図
1は本実施の形態に係る動画ハイパーメディア装置を含
むシステムの構成図である。
【0010】本装置は大別して、アンカー情報およびリ
ンク情報に関するデータを操作するデータ操作部1、こ
れらのデータを記憶するデータ記憶部2、これらのデー
タを意味のある形で表示する表示部3、ユーザ操作の受
付と管理を行うユーザ操作部4、ビデオ再生装置5で再
生された動画を入力する動画入力部6からなる。
【0011】(1)データ操作部1
ユーザからデータ操作部1への指示は、後述するUIに
よって行われる。すなわち、以下の内部構成はソフトウ
エアモジュールである。
【0012】フレーム決定部10は開始フレームと終了
フレームを決定する。本実施の形態では、ユーザが指定
したフレームがそのまま開始フレームおよび終了フレー
ムとなる。開始フレームと終了フレームの例は、前述の
水族館の映像のうち、水槽を写しているシーンの先頭と
末尾のフレームである。仮にシーンが水族館の入り口の
映像に移れば、それ以降、魚にアンカーを設定する必要
がないため、シーンの移行前に終了フレームを指定して
おく。
【0013】アンカー設定部11は、開始フレームと終
了フレームの間で実際にアンカーを設定する。例えば、
ある魚にアンカーを設定する場合、まず開始フレームに
おいてその魚を囲む矩形をマウスによって表示させ、こ
れをアンカー領域として登録する。このとき、動画は停
止モードにある。つづいて終了フレームまで動画を進
め、同じ魚を再度囲んでアンカー領域を登録する。開始
フレームと終了フレームの間に魚は移動したり、方向を
変えたりするため、通常はその位置も形状も変化する。
開始フレームで登録されたアンカー領域の形状および位
置と終了フレームで登録されたものの形状および位置は
一般に一致しない。なお、アンカー設定部11は、後述
のアンカー修正の際に使用するアンカー情報編集部11
0と、文字列等テキストに対してアンカーを設定するテ
キストアンカー設定部111を含む。
【0014】アンカー推定部12は、開始フレームと終
了フレームに設定された第1及び第2のアンカー情報を
もとに補間計算を行い、任意のフレーム(非基準フレー
ム)におけるアンカーの位置及び大きさの推定を行う。
この処理は後に詳述する。
【0015】アンカー検索部15は、アンカー情報のう
ちアンカーの動きの特徴、またはアンカーの識別情報を
もとにアンカーの検索を行う。識別情報とは、そのアン
カーを他のアンカーと識別する手がかりとなる情報をい
い、例えばアンカーの名称、アンカーの設定対象、アン
カー設定日時などがある。
【0016】ハイパーリンク設定部13は、設定された
アンカーにハイパーリンクの設定を行い、設定に関する
データ構造をテーブルの形態で作成する。ハイパーリン
ク検索部14は、設定されたリンク情報の検索を行う。
上記の例の場合、魚のアンカーとその魚の名前を示すテ
キストデータ等がハイパーリンクによって関連づけられ
る。
【0017】(2)データ記憶部2
データ記憶部2は、データベースでもよいし、各種ファ
イル装置、メモリ装置でもよい。この部分は主にハード
ウエアである。
【0018】動画データ記憶部20は、動画入力部でキ
ャプチャされ、デジタル化された動画データを記憶す
る。アンカー情報記憶部21、リンク情報記憶部22は
それぞれ、設定されたアンカー情報、リンク情報を記憶
する。
【0019】(3)表示部3
表示制御部30は、UIや編集中の動画など各種画像の
表示を統括的に制御する表示系のシステムプログラム、
VGAコントローラなどの表示回路、およびこのドライ
バを含む。この表示制御部30はカーソル変更部300
を持つ。カーソル変更部300は、カーソルがアンカー
領域に入ったとき、カーソルの表示状態を変更する。表
示制御部30の出力データはPCのモニタ等の表示装置
31に与えられ、所期の表示が行われる。
【0020】(4)ユーザ操作部4
ユーザによるコマンド入力を可能とするもので、キーボ
ード、マウス、各種ポインティングデバイス等のハード
ウエア、およびコマンドデスパッチャからなる。コマン
ドの例に、アンカーの設定、アンカー領域の修正、リン
ク、リンク検索などがある。
【0021】(5)動画入力部6
ビデオキャプチャボードに相当するハードウエアで、A
Dコンバータとフレームメモリ(図示せず)を持ち、入
力された動画をディジタル化する。この後、データを前
記動画データ記憶部20に提供する。
【0022】以上の構成をもとに、まずアンカー、リン
クの設定の手順を説明し、後にアンカー設定のUIの様
子を説明する。
【0023】[1]アンカーの設定
図2は本実施の形態によるアンカーの設定および修正手
順を示すフローチャート、図3は設定されたアンカー情
報のテーブルを示す図である。図2のごとく、まずハー
ドウエア等に対する各種初期化処理を行い(S21)、
動画データ記憶部20に記憶されている動画データの読
み込み(S22)を行う。読み込まれた動画データの先
頭フレームは表示装置31に、まず静止画像として表示
される。つぎに、その動画データに対してすでに設定さ
れているアンカー情報をアンカー情報記憶部21から読
み込む(S23)。アンカー情報が存在すれば、そのア
ンカー領域を実際に画面上に表示する(以降、アンカー
領域が画面に表示されるモードを「アンカー表示モー
ド」、表示されないモードを「アンカー非表示モード」
という)。
【0024】つづいて、今回新たにアンカーを設定した
い期間の開始フレームまで動画データを進め(S2
4)、所望のフレームが現れたら、画面上の「開始フレ
ーム」ボタンを押して開始フレームを登録する。この状
態で、このフレームにおけるアンカー領域の設定待ち状
態になり、ユーザは例えば別の魚を取り囲むようにマウ
スのクリックによって矩形領域を設ける。矩形領域が決
まれば、その左上点(x1,y1)と右下点(x2,y
2)の座標が取得され、これが開始フレームのフレーム
番号(動画の先頭フレームからの通し番号)とともにそ
の魚のアンカー情報として記録される(S25)。
【0025】この後、再び動画データを進め、所望の終
了フレームが現れたところで止めて(S26)、同じ魚
を取り囲むよう矩形領域を設ける。ここで終了フレーム
におけるアンカーの設定が完了する(S27)。図3の
「anchor1」はこの魚を示すアンカーIDであ
る。ここでは開始フレームと終了フレームのフレーム番
号(それぞれフレーム1と100)と、アンカー領域の
座標情報がテーブルに格納されている。
【0026】こうして両端基準フレームにおけるアンカ
ー情報が確定すれば、この間の第3のフレーム(非基準
フレーム)の第3のアンカー情報を補間計算によって求
める(S28)。図4はアンカー情報の補間計算方法を
示す図である。ここで、
・開始フレーム(時刻t0)におけるアンカー情報をA
(t0)
・終了フレーム(時刻t1)におけるアンカー情報をA
(t1)
・時刻tにおけるアンカー情報をA(t)
・t1−t0=Δt
とおけば、
A(t) = {A(t1) −A(t0)}t/Δt + {A(t0)t1−A(t1)t0}/ Δt (式1)
とかける。このAとして、順次前記x1、y1、x2、
y2を代入すれば任意の時刻におけるアンカー領域の外
形が判明する。アンカー領域の重心座標を代入すればア
ンカー領域のおおまかな動きが判明する。Aに色番号を
代入すれば、アンカー領域の色の変化を追跡できる。こ
れ以外にも、数値表現が可能な情報は同様に式1を用い
た内分計算により、補間することができる。補間によっ
て求められた非基準フレームのアンカー情報は、図3の
テーブルの 「anchor1」に追加していってもよ
いし、図3のテーブルはそのままとし、フレームの表示
が指示されるたびにそのフレームについて式1の計算を
逐次行ってもよい。本実施の形態では、以降、逐次計算
を仮定する。
【0027】S28が完了すると、実際にアンカー情報
を表示して内容を確認する(S29)。このとき、開始
フレームに戻って動画データが再生され、各フレームで
アンカー領域が矩形で表示される。この矩形領域は計算
結果に従って連続的に移動していく。
【0028】「anchor1」の場合、魚が等速直線
運動をすれば結果は極めて良好となるが、途中で泳ぐ方
向を変更した場合には、中途のフレームで魚からアンカ
ー領域がずれる。そこでアンカー情報を修正する(S3
0)。ユーザはまず、ずれの大きなフレームまで動画デ
ータを進め、ここで画像を止める。次に、画面に表示さ
れているアンカー領域の端部をクリックし、マウスによ
って領域の形状または位置を変更する。アンカー推定部
12は、こうして修正されたフレームを基準フレームに
格上げし(以下、昇格して基準フレームになったものを
「中間基準フレーム」ともよぶ)、このアンカー情報を
図3のテーブルに追加する。図5は図3に中間基準フレ
ームのアンカー情報を追加して得られるテーブルを示し
ている。一方、図6は中間基準フレームと両端基準フレ
ームの3つのフレームをもとに補間計算を行う方法を示
す図である。推定の対象である非基準フレームが第1の
フレームである開始フレームと中間基準フレームの間に
存在すればそれらのフレーム間で補間計算を行い、非基
準フレームが中間基準フレームと終了フレームの間に存
在すればそれらのフレーム間で補間計算を行う(S2
8)。以降、S29による表示、S30による再修正を
経て、良好なアンカー情報が得られたときに(S31の
Y)これを保存し(S32)、アンカー設定処理を終え
る。S30で別のフレームのアンカーが修正されれば、
当然このフレームも中間基準フレームとなる。なお、S
25において同一フレームに2個以上のアンカーを設定
するときは、設定順に装置内部でアンカーIDを自動的
に変更しながら付与するとともに、これらのアンカー領
域の矩形表示を異なる色で行う等の対処をなせばよい。
【0029】以上の手順によれば、以下の効果が得られ
る。
1.両端基準フレームにおけるアンカーの設定を行うだ
けで、その間に存在する多数のフレームに対する設定作
業が不要となる。
2.補間計算でアンカーの位置にずれが生じた場合、こ
のずれを確認することができる。従って、修正すべきフ
レームの認識が容易であり、一旦修正されたフレームは
自動的に中間基準フレームに昇格されるため、ユーザは
基準フレームにすべきかどうかなどに注意を払う必要が
ない。
3.例えば、アンカーが設定された魚が弧を描いて泳ぐ
ような場合でも、両端基準フレームに加えて、高々数フ
レームで修正を行えば、十分に良好なアンカー情報を得
ることができる。以上が本実施の形態の動画ハイパーメ
ディア装置のうち、特に動画アンカー設定装置の概要で
ある。
【0030】[2]リンクの設定
つづいて、設定されたアンカーに対するリンクの設定を
行う。図7は本実施の形態によるリンクの設定および検
索手順を示すフローチャート、図8は設定されたリンク
情報のテーブルを示す図である。
【0031】図7は、アンカーの設定とリンクの設定を
全く独立して行う場合の処理手順を示しており、図2同
様、まず各種初期化処理(S40)、動画データの読み
込み(S41)を行う。つづいて、[1]で設定された
アンカー情報をアンカー情報記憶部21から読み込む
(S42)とともに、すでに設定されているリンク情報
をリンク情報記憶部22から読み込む。
【0032】つぎに、両端基準フレームおよび中間基準
フレームのアンカー情報をもとに他のフレームのアンカ
ー情報を補間計算で求めながら(S44)、動画の再生
に合わせて連続的にアンカー情報の表示を行う(S4
5)。この状態でユーザ操作部4においてユーザからの
入力待ち状態となる(S46)。
【0033】ここでユーザが、動画上またはその動画を
一旦停止した上で、あるアンカー領域をクリックし、
「リンク作成・変更」ボタンを押せば、そのアンカーに
対してリンク情報の作成が行われる(S47)。例え
ば、水槽内のある魚がクリックされると、その魚にリン
クさせるべきテキスト、イメージ等の候補が画面に現
れ、ユーザが選択したテキスト等がその魚のアンカー
(より正確には、そのアンカーに含まれる魚というオブ
ジェクト)にリンクされる。候補がない場合は、ユーザ
が自ら文字列を入力し、これをリンクすることも可能で
ある。図8は、「anchor1」にテキスト形式の情
報「anchor1.txt」、同様に「anchor
2」のアンカーにビットマップイメージ「anchor
2.bmp」がリンクされた状態が示されている。こう
してリンク情報が確定すれば、リンクの内容をリンク情
報記憶部22に保存し、再度ユーザの入力待ちとなる。
【0034】一方、S46においてユーザが「リンク検
索」ボタンを押してアンカーを指定すれば、そのアンカ
ーに対応するリンク情報が検索され、表示される(S4
9)。図8の場合、例えばanchor1の魚に対し
て、魚の名前や体長、特徴などが文字列で表示され、a
nchor2の魚については、その魚が実際に棲息して
いる海の写真などが表示される。この表示によってリン
ク動作が確認できるため、ユーザはこの時点でコンテン
ツ作成を完了することができる。コンテンツは、例えば
CD−ROMのような記録媒体に保存することにより、
商品化することもできる。商品として出荷する場合、一
般的には、アンカー領域を表示しないアンカー非表示モ
ードに変更しておく。
【0035】なお、ここではアンカーとリンクの設定を
独立の処理として説明したが、例えばリンク設定中の画
面に「アンカー設定に戻る」というボタンを設ければ、
両者の行き来が自由になり、さらに編集が容易になる。
【0036】[3]アンカー設定のためのUI
図9はアンカー設定のためのUI画面例を示す図であ
る。同図中、画像表示領域50には、処理の対象となる
動画が表示される。上欄の黒塗りのボタン群52はビデ
オの再生、停止等を直接指示するオブジェクトボタンで
ある。その隣には、画像表示領域に表示されたフレーム
に対してアンカー領域を設定するための矩形ボタン5
4、同様に、表示されているフレームを開始フレームま
たは終了フレームとして指定するための開始フレーム指
定ボタン56、終了フレーム指定ボタン58が設けられ
ている。同図では、1匹の魚に対してアンカー領域60
が設定されている。
【0037】画面中央右側には、設定または修正しよう
とするアンカーの名称、ID、開始フレーム番号、終了
フレーム番号を示すアンカー関連ボックス群62があ
る。画像表示領域50の下には、現在表示中のフレーム
が含まれるシーンの番号と、そのフレームのそのシーン
における通し番号を示すシーン関連ボックス群64があ
る。さらにその下には、編集のために動画を微少量だけ
進め、または戻すためのボックス66がある。この右端
のボタンを押せば動画は進み、左端を押せば戻る。現在
表示しているフレームのそのシーンにおける位置は同ボ
ックス66のなかで、縦線70で示されている。このボ
ックスの下には、そのシーン中の開始フレームと終了フ
レームの位置を示すボックス68がある。開始フレーム
と終了フレームの位置はそれぞれ二重縦線72、74に
よって示され、その間の中間基準フレームの位置が三角
形の記号76で示されている。
【0038】同図において、まずユーザはシーン番号を
手がかりとして、アンカー設定を望むシーンの先頭まで
ビデオテープを進める。この場合、例えば複数のシーン
からなる水族館の映像のうち、シーン番号「5」の水槽
の映像に進んでいる。ここでユーザは、ボックス66の
右端のボタンを押し、1フレームづつ動画を進めてい
く。アンカーを設定しようとする最初のフレームが現れ
れば、ユーザは開始フレーム指定ボタン56を押し、こ
れを登録する。このとき、ボックス66の対応する個所
に、開始フレームの位置を示す二重縦線72が現れる。
ここで矩形ボタン54を押し、画像表示領域50中、設
定すべきアンカー領域の左上点と右下点をマウスでクリ
ックする。これで開始フレームのアンカー設定が終わ
る。つづいて動画を進め、同様に終了フレームの登録と
アンカー設定を行う。
【0039】両端基準フレームにおける設定が完了した
ことを検出すると、本装置のアンカー推定部12は自動
的にアンカー情報を式1に代入し、計算を開始する。こ
こでユーザが、例えば開始フレームまで戻って動画を1
フレームづつ進めていくと、アンカー推定部12は、現
在表示中のフレームに対応する時刻を求め、この時刻に
対応する推定結果をもとにアンカー領域を表示する。表
示されたアンカー領域がずれていれば、ユーザは再度矩
形ボタン54を押し、領域の修正を行う。修正後、その
フレームに対応する個所に三角形の記号76が現れる。
このUIによれば、実際に動画データ上にアンカー情報
を表示させるため、編集結果がリアルタイムで確認で
き、また容易にその修正を行うことができる。
【0040】以上が本実施の形態の概要である。なお、
本実施の形態については、以下の改良、変形等が考えら
れる。
【0041】(1)テキストアンカーの設定
図1のテキストアンカー設定部111によって行う。ま
ず、画面上でテキストデータを編集してこれを動画上に
重ね、アンカーを設定する。通常のアンカー設定との違
いは、再生された画像の一部領域を指定するのではな
く、作成したテキストを一旦画像に乗せ、しかる後にこ
のテキストを囲むようにアンカー領域を設定する点にあ
る。従来、例えばビデオ映像にアノテーションを直接入
れる方法が一般的だったが、その場合は後でアノテーシ
ョンを削除するなど、再編集の際に不都合である。本実
施の形態はこれを解消する。
【0042】テキストアンカーが設定されたとき、その
アンカー情報もアンカー情報テーブルに記憶される。た
だし、図3に示すテーブルにおいて、「フレーム」の個
所が「テキスト」となり、その欄にテキスト名が入る。
【0043】テキストアンカーについても関連情報のリ
ンクが可能である。例えば図9の水槽のシーンに対して
「南海の魚たち」というテキストを貼り付け、このテキ
ストに対して「南の海には鮮やかな色の魚がたくさんい
ます…」というようなテキストをリンクさせることがで
きる。
【0044】(2)カーソルの表示状態の変更
図1のカーソル変更部300によって行う。この機能は
特に、アンカー非表示モード、例えばコンテンツが市場
で使用されるときに有用である。この機能のため、カー
ソル変更部300は、カーソルの位置を常時取得する位
置取得プログラムと、取得された位置がいずれかのアン
カー領域に含まれるかどうかを判定する判定プログラム
と、カーソルがあるアンカー領域に入ったとき、カーソ
ルの表示状態をどのように変更するか決定し、その決定
に従って実際にカーソルの形状等を変更する変更プログ
ラムを持つ。
【0045】カーソルの変更については、アンカーごと
に変更内容を変えない場合と変える場合がある。前者の
場合、例えば通常は+記号であるカーソルを◎に変更し
たり、カーソルの輝度を高める方法がある。この態様に
よれば、特に、ターゲットの動きや形の変化が速く、ア
ンカー領域の変化が激しいときに利益がある。
【0046】一方、後者の場合は、前記変更プログラム
から、カーソルが入ったアンカー領域のアンカーIDを
検索し、これをそのままカーソルの代わりにカーソルの
位置に表示することが考えられる。例えば、カーソルが
ある魚のアンカー領域に入ったとき、このカーソルを
「鮫」などのように、そのアンカーのターゲットの内容
を示せばよい。この態様によれば、ユーザはわざわざ魚
をクリックするまでもなく、その魚の名前を知ることが
できる。
【0047】(3)中間基準フレームの明示的な指定
本実施の形態では、最初に両端基準フレームのみを決め
ることにしたが、ターゲットの動きが不規則な場合な
ど、修正の必要が予想できる場合もある。その場合は、
当初から開始フレーム、終了フレーム以外のフレームで
もアンカー領域の指定を受け付けるものとする。例えば
図9のUIにおいて、開始フレーム指定ボタン56、終
了フレーム指定ボタン58に加え、中間フレーム指定ボ
タンを設けて対応する。このフレームは当初より基準フ
レームとして利用されるため、補間計算が図6の状態か
ら開始されると考えればよい。
【0048】(4)矩形以外のアンカー領域
アンカー領域を矩形に限る必要はない。例えば円または
楕円の場合、長径、短径および中心の3点の座標によっ
て領域を指定すればよい。多角形なら各頂点の座標でよ
い。ターゲットの外周自体をアンカー領域とした場合
は、外周上の一点の座標と、その点から表現したチェー
ンコードにより、領域を特定することもできる。
【0049】(5)非線形補間の採用
本実施の形態では、最も単純に線形補間を利用したが、
これは当然、非線形補間でもよい。補間に用いる式は、
処理すべき動画の特徴に合わせて実験等によって決める
ことができる。
【0050】(6)開始、終了フレームの決定
本実施の形態ではこれらのフレームをユーザが明示的に
指定したが、以下の方法もある。
1.ユーザは開始、終了フレームを意識することなく、
単にフレームを指定してアンカーを設定する。指定され
たフレームが基準フレームとなる。フレーム決定部10
は、ユーザがアンカーを設定したフレームのうちフレー
ム番号が最小のものを開始フレーム、最大のものを終了
フレームと決める。この場合、図9の開始フレーム指定
ボタン56、終了フレーム指定ボタン58が不要とな
る。
【0051】2.ユーザは1枚のフレームを指定し、こ
れにアンカーを設定するとともに、アンカー設定の対象
となったターゲットを指定する。このフレームが基準フ
レームとなる。フレーム決定部10は、その基準フレー
ムの前後のフレームを調べることにより、そのターゲッ
トが出現するフレームと消失するフレームを検出し、こ
れらをそれぞれ開始フレーム、終了フレームとする。
【0052】ターゲットの存否は、画像のマッチングを
とることで判断する。つまり、基準フレームで指定され
たターゲットをモデルとして前後のフレームに対してマ
ッチング処理を行う。マッチングがとれる限り探索の対
象フレームを前後に広げていく。最終的にマッチングが
とれなくなれば開始、終了フレームが判明する。この方
法によれば、当初設けるべき基準フレームが1枚でよ
い。
【0053】(7)アンカー領域の三次元表示
アンカー設定部11に、設定されたアンカー領域を画面
の縦横であるx、y方向、および時間t方向に展開して
三次元表示する機能を設ける。これはアンカーの編集中
に図4がそのまま画面に表示されると考えればよい。こ
の表示の結果、ユーザはアンカーの全体的な把握を視覚
的に行うことができる。
【0054】なお、この技術の応用として、三次元表示
されたアンカー情報に対して直接編集可能としてもよ
い。例えば図4の中間基準フレームにおけるアンカー領
域を画面上で左に移動すれば、図6のような表示がなさ
れる。ユーザは編集の効果をリアルタイムに把握するこ
とができる。
【0055】(8)動画の断面表示
アンカー設定部11に、開始フレームから終了フレーム
までのアンカー領域の軌跡の横方向の断面図(図10
(a))および縦方向の断面図(図10(b))を作成
し、これをアンカーの軌跡とともに表示する機能を付加
する。まず基準フレームのアンカー情報からアンカー領
域の重心Gのx、y座標を求める。図10(a)の場
合、重心からx軸に平行な直線をフレーム上に引く。隣
接する基準フレーム間で、これらの直線を含む平面(図
中斜線部)を設ける。つぎにこの平面で動画を切断す
る。得られた断面図をx−t平面(図中点画部)に投影
する。図10(b)の場合はxとyを入れ換えて同じ処
理をする。アンカーの軌跡が正しく計算されていると
き、すなわち非基準フレームにおけるアンカー情報の推
定精度が十分に高いとき、2つの投影図にはアンカーの
移動経路が現れるはずである。例えば、赤いボールをア
ンカー設定の対象とすれば、動画の断面に赤い筋状の移
動経路が現れる。鉛筆を縦に割れば芯が直線状に現れる
のと同じである。この移動経路が途中で切れたり太くな
っていれば、その箇所におけるアンカーの位置を修正す
ればよい。
【0056】(9)アンカーのグループ化
アンカー情報編集部110に、別々に設定されたアンカ
ー情報をグループ化し、仮想的にひとつのアンカーとし
て扱う機能を付加する。例えば、人物AがフレームN1
〜N2とフレームN3〜N4では画面内に存在し、フレ
ームN2〜N3では存在しないとき、フレームN1〜N
2およびフレームN3〜N4における人物Aに関するア
ンカーをひとつのものとして扱う。この結果、アンカー
情報を設定したり修正する作業が軽減される。この他、
同じフレームに登場する人物Aと人物Bをグループ化す
ることもできる。
【0057】(10)アンカー情報の一覧表示
アンカー情報編集部110に、現在処理中の動画に対し
て設定されたアンカー情報の一覧表示機能を設ける。例
えば動画のタイトル「AQUARIUM」とともに、
「FISH1」「FISH2」…などのアンカー名称を
画面に一覧表示する。内容を確認したいアンカー名称を
ユーザが選択したとき、そのアンカーの開始フレームま
で戻って動画を再生する構成としてもよい。
【0058】(11)アンカーの検索
アンカー情報の検索UIを設ける。検索したいアンカー
情報の名称などの文字情報をキーワードとして入力する
と、アンカー検索部15がアンカー情報記憶部21から
そのキーワードを持つものを検索して表示する。その
他、アンカー領域の動きを検索キーにしてもよい。例え
ば、右に動くオブジェクトを見つけたいとき、ユーザは
検索UIにおいて例えば「→」のボタンを押す。アンカ
ー検索部15は各アンカー領域の軌跡を計算し、右に移
動するオブジェクトを含むアンカーを検索して表示す
る。
【0059】(12)アンカー情報表示画像の一覧表示
アンカー情報編集部110に、開始フレームと終了フレ
ームの間に含まれるフレーム(基準フレーム、非基準フ
レームのいずれでも可)と、アンカー設定部11によっ
て設定されたアンカー情報、またはアンカー推定部12
によって推定されたアンカー情報を重ね合わせてアンカ
ー情報表示画像を作成し、時系列で一覧表示する機能を
設ける。例えば図11に示すように、まず開始フレーム
81と終了フレーム82を両端に配置し、フレーム間隔
Δtでフレームを選択する。つづいて、これらの各フレ
ームにアンカー情報80を重ねてアンカー情報表示画像
を作成し、これらを表示時刻の早いほうから並べて表示
する。この構成により、アンカー設定の適否を一目で見
渡すことができる。このため図9のボックス66による
位置決定作業が省略でき、アンカーの修正が容易にな
る。なお、フレームは一定間隔で選択する必要はなく、
例えば基準フレームのみを選択してもよい。また、表示
されたアンカー情報表示画像において、アンカー領域を
マウスでドラッグするなどして直接編集可能としてもよ
い。
【0060】(13)アンカー情報の動画再生中の補正
図12のごとく、アンカー情報編集部110に、動画を
画面上に再生する動画再生部118と、表示中のフレー
ムに関するアンカー情報を表示するアンカー情報表示部
120と、動画再生中の一時刻または複数の時刻におい
てアンカー情報補正操作が行われた場合、各アンカー情
報補正操作が行われた時刻に再生していたフレームを特
定し、それらのフレームが非基準フレームであれば基準
フレームに昇格させるとともに、それらのフレームにお
けるアンカー情報を各アンカー情報補正操作に基づいて
補正するアンカー情報補正部119を設ける。この構成
にて、まず動画再生部118により、図9の画像表示領
域50に動画を表示する。このとき同時に、アンカー情
報表示部120により、表示中のフレームにおけるアン
カー情報をアンカー領域60として表示する。ユーザ
は、アンカー領域60がターゲットとずれているフレー
ムを見つけたとき、動画中のターゲットの中心をマウス
でクリックする。このアクションにより、アンカー情報
補正部119はクリックの行われた時刻に表示していた
フレームを特定し、クリックされた点を中心とするアン
カー情報を生成することより、アンカー情報を補正す
る。新たに設定されるアンカー領域のサイズは、例えば
もとのアンカー領域と同一でもよい。以降、このフレー
ムは基準フレームとして扱われる。この構成によって、
動画の再生中にターゲットの位置を逐次指定できるの
で、後に確認して修正する手間が省ける。
【0061】実施の形態2.
実施の形態1では、主に補間によってアンカー情報の自
動計算を行い、修正を手作業で行った。本実施の形態で
は、動画の解析をもとに予めある程度の枚数のフレーム
を基準フレームとしてアンカーを自動設定し、これらの
基準フレーム間に実施の形態1の補間方法を用いる。こ
の態様の場合、実施の形態1の中間基準フレームに相当
するフレームが最初から存在するため、手作業による修
正の労力が軽減される。
【0062】図13は本実施の形態に係る動画ハイパー
メディア装置のアンカー設定部11の構成図である。ア
ンカー設定部11以外の構成は図1同等である。
【0063】図13において、アンカー自動設定部11
2は近接フレーム抽出部117をもつ。近接フレーム抽
出部117は隣接する基準フレーム間において一定間隔
で非基準フレームを抽出し、これらを基準フレームに昇
格させる。アンカー自動設定部112はまた、動きベク
トル利用設定部113、輪郭情報利用設定部114およ
びパターンマッチング利用設定部116を有する。これ
ら3つの設定部は、本来いずれかひとつを実装すればよ
いが、本実施の形態ではすべてを実装し、状況に応じて
そのうちひとつを選択する。
【0064】基準フレーム削除部115は、後述のよう
に、アンカー自動設定部112によって設定された基準
フレームのうち冗長なものを非基準フレームに戻す。以
下、この構成による動作を説明する。
【0065】[1]動きベクトルの利用によるアンカー
の自動設定
この処理の特徴は、一旦開始フレームから終了フレーム
までブロックの動きベクトルを求め、しかる後、ターゲ
ットの仮想的な移動経路と動きベクトルの一致度を判定
することによってターゲットの位置推定の追跡精度を高
める二段階の構成にある。
【0066】1.動きベクトルの取得
開始フレーム、終了フレームの時刻をそれぞれt0、t
1とする。これらの他に、近接フレーム抽出部117に
より、まず非基準フレームのいくつかを基準フレームに
変更する。ここでは単純に5フレームおきに変更するも
のとし、以降簡単のため基準フレーム間の経過時間を1
と正規化する。開始フレームから終了フレームまでの期
間における特定アンカーの動きベクトルを求めるため
に、アンカーの重心付近の画像領域をブロックとして、
ブロックマッチングを行う。なお、任意の時刻tに対応
するフレームをフレーム(t)と表記する。
【0067】図14は本実施の形態における動きベクト
ルの取得手順を示すフローチャートである。同図のごと
く、まず時刻カウンタtをt0に設定する(S10
0)。つぎに、開始フレームにおいて設定されたブロッ
クのうち、動きベクトルを取得すべきブロックを指定す
る。動きベクトル利用設定部113は指定されたアンカ
ーの重心を含む領域をブロックマッチングの際に使用す
るブロック(以下「アンカーブロック」という)として
記憶する(S101)。つづいて、フレーム(t)の画
像データI(t)と、フレーム(t+1)のI(t+
1)を取得する(S102)。I(t)はフレームに含
まれる各画素の画素値pの集合データである。
【0068】この後、ブロックをフレーム(t+1)内
で動かしながら、最適マッチングを探索する(S10
3)。ブロック自身の各画素値はI(t)から判明する
ため、ブロックをフレーム(t+1)の任意の個所に配
置し、重なり合う画素どうしで画素値の2乗誤差を計算
し、これをブロック全域で積算する。ブロックを少しづ
つ移動させながらこの積算を行い、積算値が最小になる
位置をもって、ブロックの移動先であると判断する。
【0069】移動先が判明すれば、フレーム(t)にお
けるブロックからフレーム(t+1)におけるブロック
への移動量と移動方向が確定するため、これを動きベク
トルV(t)として取得する(S104)。ここで、t
+1が終了フレームの時刻t1に到達したかどうかを判
定し(S105)、到達していなければtをインクリメ
ントして(S106)、動きベクトルを繰り返し取得す
る。t+1がt1に等しくなれば、いままで取得したV
(t)を保存した後(S107)、処理を終える。
【0070】図15はt0=0、t1=3とした場合に
得られた動きベクトルV(0)〜V(2)の例を示す図
である。同図に示すごとく、V(t)は画面上の縦横で
定まるx、y、および時間方向で定まるtにより、
(x,y,t)の3成分で表現することができる。
【0071】2.一致度の判定
動きベクトルの際に設けたブロックと同等の大きさのブ
ロックによって各フレームを分割し、ターゲットが辿っ
た可能性のある全経路を見い出す。図16はそうした経
路のうちの1つを示す図である。同図では、フレームが
16のブロックに分割され、開始フレームにおける経路
の起点と、終了フレームにおける経路の終点が図14の
ブロックと一致している。この条件下では、全経路は1
6×16通りとなる。つづいて、この経路(以下「仮想
経路」という)の各区間に、図16に示すベクトル(以
下「経路ベクトル」という)v(t)を定義する。経路
ベクトルはあるフレームから次のフレームまで仮想経路
を辿るとき、その方向で決まる。v(t)も(x,y,
t)の3成分で記述される。
【0072】ここで、各区間においてV(t)とv
(t)のなす角度をθtとおき、内積を用いた次の式に
よってf(t)=cosθtを計算する。
【0073】
f(t)= ( V(t) , v(t) )/|V(t)|・|v(t)| (式2)
図17は図16のv(t)に対し、図15のV(t)を
追加して表示した図で、θtの意味を示している。式2
のf(t)が大きいほど、その区間における仮想経路と
動きベクトルの一致度は高いが、ある区間で一致度が最
大になっても、他の区間の一致度が非常に低ければ、全
体としての一致度は低いとみる必要がある。そこで、各
区間の一致度を加味しつつ、全体としての一致度を評価
するために、次の評価式を導入する。
【0074】
g(t)=max{f(t−1)+g(t−1)} (式3)
式3を再帰的に計算していくことにより、常にその時刻
まで最も一致度の高かった仮想経路が判明する。この計
算を終了フレームまで行えば、全体を通して最も一致度
の高い仮想経路が判明するため、この経路をもってター
ゲットの移動経路とみなす。後は、この移動経路と各基
準フレームの交差する個所にその時刻におけるターゲッ
トが存在するものとして、アンカーの自動設定を行う。
設定されたアンカー情報は、図3に示すアンカー情報テ
ーブルに追加していけばよい。なお、基準フレーム以外
のフレームについては、実施の形態1同様の方法によ
り、補間計算からアンカー情報を逐次計算して求めれば
よい。
【0075】[2]輪郭情報の利用によるアンカーの自
動設定
アンカー自動設定の別の方法として、ターゲットの輪郭
の移動をもとにターゲットの位置の推定を行う方法があ
る。輪郭情報利用設定部114では、図14同様の繰り
返し処理により、各フレームについて輪郭画像を生成す
る。輪郭画像は、輪郭線上が1その他が0となる2値化
画像であり、画像にコンパス・グラディエント(Compas
s-gradient)型フィルタなどをかけることで生成可能で
ある。輪郭画像が求まれば、以降、アンカーがターゲッ
トと全く同じ移動をするものとしてアンカー情報の設定
を行えばよい。
【0076】[3]マッチングを利用したアンカーの自
動設定
アンカー自動設定のさらに別の方法として、図18に示
すパターンマッチングによるターゲットの位置の推定が
ある。この方法の場合も、まず近接フレーム抽出部11
7により、予めある程度の基準フレームを設ける。つぎ
に、開始フレーム130において設定されたアンカー領
域132からパターンマッチング用のモデル134を作
成し、隣接する基準フレーム136の中で最も一致度の
高い領域138を求める。パターンマッチングの方法と
して、モデルの画像データをそのまま重ね合わせるテン
プレートマッチング法と、画像から抽出された特徴点の
位置関係をもとに重ね合わせを行う構造マッチング法な
どがある。パターンマッチングはモデルの近傍を中心に
行う。
【0077】こうして2枚目の基準フレームで領域13
8が見い出されれば、この領域138を新しいモデルと
して同様の処理を繰り返し、ターゲットを追跡してい
く。なお、ターゲットの動きや変形が激しい場合や基準
フレームの設定間隔が広すぎるときには良好なマッチン
グがとれない場合もある。そのようなとき、近接フレー
ム抽出部117は基準フレームの間隔を狭めてさらに多
くの基準フレームを設けたうえでマッチング処理をやり
なおすものとする。
【0078】[4]不要な基準フレームの削除
上述の例では、5フレームごとに基準フレームを設け
た。しかし、例えばターゲットが等速直線運動をするよ
うな場合、基準フレームは開始フレームと終了フレーム
だけで十分である。ターゲットが開始フレームから終了
フレームまで、すべて等速直線運動をしていない場合で
あっても、そのような運動をしている期間については、
その期間の両端の基準フレームだけがあればよい。基準
フレームが減るたびに計算の負荷も軽くなる。[1]の
場合、仮想経路が激減するため、特に効果的である。
【0079】この観点から、基準フレーム削除部115
は不要な基準フレームの削除を行う。図19〜21は基
準フレームを削除していく様子を示す図である。これら
の図の横軸は時間、縦軸はフレーム上に設けられたx−
y座標の原点からの距離を示している。また、各図中の
○は、アンカー領域を模式的に示すものである。削除は
以下の手順による。
【0080】[図19]
当初、基準フレームは両端基準フレームを含めて6個設
けられている。ここで開始フレームのアンカーと終了フ
レームのアンカーを直線で結び、この直線と各アンカー
の距離を計算する。距離が所定値以下になったアンカー
があれば、その時刻の基準フレームを削除する。同図で
は削除されるアンカーはなかったものとする。つぎに、
直線から最も遠いアンカー(以下、最遠アンカーとよ
ぶ)を見つける。ここでは、t=3のアンカーが最遠ア
ンカーである。
[図20]
前記の直線を消去し、開始フレームのアンカー、最遠ア
ンカー、終了フレームのアンカーをこの順に折れ線で結
び、再びこの折れ線と各アンカーの距離を求める。距離
が前記所定値以下になったt=4のアンカーが削除され
る。最遠アンカーはt=2のアンカーに変更される。
[図21]
新たな最遠アンカーを通るよう、折れ線を修正する。こ
こで、新たな折れ線との距離が前記所定値以下になった
t=1の基準フレームが削除される。これで処理が終了
する。
【0081】この例では、2つの基準フレームが削除さ
れたことになる。最初の基準フレームが多いときは、
1.所定値以下の基準フレームの削除、2.最遠アンカ
ーの探索、3.折れ線の修正、を繰り返せばよい。
【0082】以上が本実施の形態の概要である。なお、
本実施の形態については以下のような改良または変形が
考えられる。
(1)式2の変更
式2ではf(t)=cosθtを採用したが、当然これ
は別の関数でもよい。θtと増減をともにする関数はf
(t)の候補になり得る。
(2)ブロックのとりかた
図15では、アンカー領域の重心付近を含むようにブロ
ックを決めたが、これは別の決め方でもよい。例えば、
アンカー領域をそのままアンカーブロックとしてもよ
い。同様に図16でも、ブロックの大きさと関係なくブ
ロックを決めてもよい。
【0083】(3)上述[3]の別方法(その1)
上述のマッチングによるアンカー自動設定の別態様を挙
げる。あるフレームの領域をモデルとして次々にマッチ
ングをとっていく場合、誤差が積もって次第にターゲッ
トから外れていくおそれがある。このため、近接フレー
ムからのマッチングだけでなく、ある程度時間的に離れ
たフレームからのマッチング結果を加味して判断する。
【0084】図22に示すように、ここでは時間距離の
離れた基準フレームとして開始フレームと終了フレーム
を採用する。いま、アンカーの位置を特定すべき新たな
基準フレーム404が時刻t+Δtのものとする。一
方、開始フレームのアンカー領域のモデルA400、終
了フレームのアンカー領域のモデルB401、時刻tの
基準フレーム402のアンカー領域のモデルC403が
すべて既知である。そこで、これら3枚の基準フレーム
と時刻t+Δtの基準フレーム404との間でそれぞれ
マッチングをとる。このとき、すべてのマッチング結果
が一致すれば、その領域の追跡結果は信頼できる。一
方、マッチング結果が一致しない場合、例えば以下の方
法でアンカー位置を決める。
1.3回のマッチングの結果時刻t+Δtの基準フレー
ム404上に得られる3つの領域を重ね合わせ、重複部
分の中心を中心とする、もとの領域と同一サイズのアン
カー領域を作成する。
【0085】2.ひとつのモデルであるモデルC403
について複数のマッチング結果を求め、マッチング結果
の上位から順に、その領域内にモデルA400、モデル
B401のマッチング結果から得られる領域が含まれる
か否かを判定していく。一定の割合以上で含まれる場
合、マッチング結果から得られる領域どうしの重複部分
の中心を中心とする、もとの領域と同一サイズのアンカ
ー領域を作成する。なお、ここでは近接する基準フレー
ムのほかに開始フレームおよび終了フレームを考慮した
が、組合せには自由度がある。たとえば、近接する基準
フレームおよび一定の時間距離だけ隔たった任意数の基
準フレームを採用してもよい。
【0086】(4)上述[3]の別方法(その2)
図23のごとく、アンカー自動設定部112に自動設定
信頼度判定部130と自動設定信頼度表示部131を設
ける。自動設定信頼度判定部130は、最終フレームま
で順方向でマッチングを行って得られたアンカー領域
と、終了フレームで指定されているアンカー領域との重
複の程度により、追跡の信頼度を判定する。例えば、重
複部分の面積が70%以上なら追跡結果は信頼でき、5
0%以下なら信頼できないと判定する。自動設定信頼度
表示部131は追跡の信頼度(信頼ができるか否か、ま
たはその%)を表示する。
【0087】例えば図24に示すように、ターゲットの
本来の軌跡140に対してマッチングによる追跡結果1
41が反れたとき、重複の程度が低いため、追跡は信頼
できないと判定される。そこで、今度は終了フレームの
アンカー領域をモデルにして逆方向に画像のマッチング
をとり、ターゲットの位置を推定位置を追跡しなおす。
この際、各基準フレームにおいて、先に順方向のマッチ
ングで設定されたアンカー領域と今回の逆方向マッチン
グによって得られたアンカー領域を比較し、両者が所定
の割合以上で重なっていれば追跡を終了する。このとき
別の方法として、指定されたフレームで追跡を打ち切っ
てもよい。追跡を終了すべきフレームは、開始フレーム
および終了フレームからの距離の比などで決めてもよ
い。重複を判定する方法と追跡を終了すべきフレームを
指定する方法を併用してもよい。
【0088】以上、この方法によれば、追跡の途中で誤
りが発生した場合でも、以降の追跡結果の悪化を回避す
ることができ、最終的な修正作業が軽減される。また、
重複の度合いを見て逆方向のマッチングを終了する場
合、必要な部分だけが修正されるため、処理時間の短縮
につながる。
【0089】なお、信頼度が低い場合であっても、逆方
向のマッチングを自動的に開始するのではなく、単に信
頼度を表示するにとどめてもよい。その場合、ユーザは
逆方向のマッチングを実行させてもよいし、自ら望む修
正を施してもよい。いずれにせよ、自動設定信頼度表示
部131によってユーザは追跡の良否を知ることがで
き、適切な対処が可能になる。
【0090】(5)上述[3]の別方法(その3)
図12の各構成、すなわち動画再生部118、アンカー
情報表示部120、アンカー情報補正部119をアンカ
ー自動設定部112の中に設ける。ここでは、動画再生
部118は動画を構成する各フレームを時系列に従い、
適当な時間間隔で表示する。アンカー情報補正部119
は、動画再生中の任意の時刻にアンカー情報補正操作が
行われたとき、その時刻に表示されていたフレームのア
ンカー情報を補正する。それとともに、そのフレームの
直前の所定枚数または所定期間に表示されたフレームの
アンカー自動設定結果を無効化する。
【0091】この構成における動作を説明する。ここで
は、動画像の再生に従い、開始フレームから逐次順方向
でマッチングをとりながら表示していくとする。この動
作の場合、既述のごとく、いったんマッチングが良好で
なくなると、以降アンカー情報が次第に外れていくおそ
れがある。ユーザは、再生される動画像とアンカー情報
を見ながら、アンカー領域がターゲットから外れたとき
画面をクリックする。この時点で再生が停止する。ここ
で、たとえばユーザがターゲットの中心をクリックすれ
ば、その点が中心になるようアンカー位置が修正され
る。以降のマッチングは修正されたアンカー情報をもと
に行われるため、良好となる。
【0092】この方法では、動画像の再生中にユーザが
画面をクリックするため、アクションの遅延を考える必
要がある。すなわち、アンカー領域がターゲットから外
れたことを認識してクリックしたときには、すでに数フ
レームにわたってそうした現象が徐々に進行していたと
考えられる。そこでアンカー情報補正部119は、アン
カー情報が修正されたフレームの前に存在する所定の複
数フレームについて自動設定されたアンカー情報を無効
化する。
【0093】図25は、ターゲットの本来の軌跡とマッ
チングによって得られた追跡結果の関係、およびアンカ
ー情報補正部119の動作を示す図である。同図の実線
150はターゲットの軌跡と追跡結果が一致している
間、破線151は、追跡結果が軌跡から外れている間を
示している。同図のごとく、時刻t0〜t1は追跡結果
が信頼できるが、時刻t1で外れだす。ユーザはこのこ
とに気付き、時刻t2で画面をクリックする。この結
果、時刻t2〜t3の間でまた正しい追跡が行われる。
時刻t1〜t2は正しくない追跡結果が残るため、これ
が無効化される。無効化された部分については、同図の
ごとく、時刻t1、t2におけるアンカー情報を線形補
間することにより、欠けた追跡結果を補うことができ
る。なお、アンカー情報を無効化するフレーム数は予め
指定してもよいし、修正を行う時点で指定してもよい。
【0094】実施の形態3.
実施の形態1、2の動画ハイパーメディア装置を応用
し、以下の装置またはシステムを構築することができ
る。
【0095】1.対話型ビデオ教材制作装置
本発明に係る動画ハイパーメディア装置はCAIコンテ
ンツの制作にも最適である。すなわち、本装置でビデオ
教材にアンカーを設定し、必要な付加情報をリンクさせ
る。図26はこの装置によって制作されたビデオ教材を
示す図である。同図のごとく、アンカーAに対して説明
A、アンカーBに対して説明Bなどがリンクされてい
る。生徒はビデオを再生しながら、より詳しい説明が欲
しいオブジェクトを画面上でクリックする。クリックさ
れたオブジェクトがアンカーAに関連していれば、説明
Aが画面に表示される。
【0096】2.対話型ビデオサーバシステム
本発明に係る動画ハイパーメディア装置はビデオサーバ
システムにも最適である。図27はこのビデオサーバシ
ステムの構成図である。同図のごとく、このシステム
は、図1の構成をほぼ分け合う形のサーバ200とクラ
イアント250からなる。
【0097】サーバ200は、動画とそのアンカー情
報、およびアンカーにリンクされた関連データを記憶す
るデータ記憶部204、アンカー推定部206、任意の
アンカーにリンクされた関連データを検索するハイパー
リンク検索部208を備える。アンカー推定部206は
非基準フレームにおけるアンカー情報を推定する。
【0098】一方、クライアント250は、ユーザが動
画中の対象をクリックしたとき、いずれのアンカー領域
がクリックされたかを判定するアンカー判定部252を
備える。
【0099】この構成において、クライアント250で
ユーザが画面上のあるオブジェクトをクリックすると、
アンカー判定部252がクリックされたアンカーを特定
する。この情報はサーバ200に送られる。サーバ20
0のハイパーリンク検索部208はデータ記憶部204
からそのアンカーにリンクされた関連データを検索し、
これをクライアント250に送る。
【0100】以上、このシステムによれば、動画データ
やアンカー情報をサーバ200の側に一括して蓄積して
おき、多数のユーザから必要な動画とそれにリンクされ
た情報を見ることができる。
【0101】
【発明の効果】本発明の動画アンカー設定装置によれ
ば、基準フレームのみに対してアンカー情報を設定する
ことで非基準フレーム、すなわち基準フレーム以外のフ
レームのアンカー情報を推定することができるため、非
基準フレームに対するアンカー情報の設定が不要とな
る。この結果、アンカー設定作業を省力化することがで
きる。
【0102】また、基準フレーム削除手段を含むので、
アンカー情報を保持しておくべき基準フレームの数が減
り、必要な記憶容量を減らすことができる。 DETAILED DESCRIPTION OF THE INVENTION
[0001]
BACKGROUND OF THE INVENTION 1. Field of the Invention
Related to the fixed device. The invention is particularly useful for
For setting anchors to targets etc. included in
About the installation.
[0002]
2. Description of the Related Art Conventionally, a general hypermedia device is used.
Searching for information is mainly performed on text and still images.
Set a logical unit for the information link, and
Link the relevant information in advance and let the user
The form in which the related information is displayed when clicked
I was However, for example, for encoding and decoding moving images
In recent years, as represented by MPEG,
Various technologies to process not only images but also moving images are proposed
Have been. By handling moving images,
Media devices, CAI, various presentations,
Useful for creating content such as child catalogs. Video
Image editing is limited to a limited number of industrial fields such as broadcasting stations.
Although it has been used, personal computers will be
Is rapidly spreading as a personal system
it is considered as.
[0003] Japanese Patent Application Laid-Open No. 4-163589 discloses a moving image.
A logical unit (called a node in the specification)
There is disclosed an image processing device that can be specified. This
In this device, the setting of the node in the still image is simply the display range.
For points that can be specified only by specifying
(1) Display range and (2) Time
In that you only need to specify the valid duration of the
Attention is paid to these specifications. Sand
Regarding (1), subjects appearing in a moving image
By pointing the surrounding area with a mouse or the like,
Is set for the node, while for (2),
Depending on the elapsed time from the start time of the moving image output,
Specify the valid duration of the code. So this node is
Uniquely defined by the two contents of the storage area and the elapsed time
In other words, related information can be linked to each node.
Wear. After the link, when actually playing the moving image, the user
Clicks an area on the screen with a mouse, etc.
Nodes are identified by location and time and relevant information is displayed
Is done.
[0004]
In the above apparatus, the logic
It was decided to set the unit area manually. Only
Naturally, moving images contain many files, unlike still images.
There are frames, and the position and shape of the subject change every moment.
For NTSC, 30 frames are required per second
Therefore, even if it is simply calculated, it processes a one-second moving image.
Requires 30 setting operations per logical unit
You. For example, when creating content for 5 minutes, one frame
Assuming that 5 logical units are set in the
45,000 times.
[0005] The present invention has been made in view of this problem.
Its purpose is to define logical units (referred to herein as anchors).
A device that enables labor saving and simplification of setting work
More specifically, the anchor that had to be performed for each frame
Setting device that automatically calculates or automatically sets information
In the offer.
[0006]
SUMMARY OF THE INVENTION A moving image anchor of the present invention is provided.
Setting device, DynamicMultiple frames that make up the picturePrescribed for
At intervalsReference frameSelectionAndThoseEach of the reference frames
Anchor information setting method for setting anchor information for each
And a non-reference file based on the set anchor information.
Anchor information calculation means for calculating frame anchor information
And a moving image anchor setting device including
The anchor information set in the reference frame of
A predetermined error is determined based on the anchor information set in the sub-frame.
Judgment means for judging whether calculation is possible within the difference range
If it can be calculated,
Frame deletion means for changing a frame to a non-reference frame
And further includes
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a moving image hyper-me
A preferred embodiment of the ear device will be described. This device
Is equipped with the video anchor setting device of the present invention.
You. According to this device, for example, a moving image of an aquarium tank
When you click on any fish swimming
Can display the name of the fish, supplementary explanations, etc.
Create interactive CAI software easily and efficiently
Can be. In the following embodiments, “user” is mainly
The creator of the content
Those who personally edit videotapes
It may be any.
Embodiment 1
In this embodiment, the user specifies the start frame and end frame.
Frames, the first frame and the second
The two frames that are the frames of the first reference frame
Set the anchor as "Frame" is a table of images
It is a display unit and includes a picture referred to in MPEG. Book
Is the device an anchor set for the reference frame?
The anchor region in other frames
Automatically calculates anchor information such as area position, shape, and color
I do. “Anchor information” is, for example, the position of the anchor area.
When explicitly displaying the position, shape, or anchor area,
Refers to color. Note that even the first reference frame is a book.
The invention is established, but an example thereof will be described later.
A moving image hypermedia device according to the present embodiment
The configuration of the entire system, including
Personal computer (hereinafter referred to as P
C) and a video playback device that provides a moving image to this PC.
You. The PC captures the image provided from the video playback device.
Built-in video capture board to capture and digitize
It is. Video playback device, normal playback start, stop, fast forward
Frame, time advance, etc.
It has functions such as playing back from the computer. Such video playback equipment
The device is widely used in broadcasting services, etc.
There is no need to be limited to this. Control of various functions of the video playback device
Is a user interface developed on a PC (hereinafter referred to as
UI), such as a "play button" displayed on the screen
Done through. In this case, the user clicks the button
If you check it, the action will go through the signal cable
It is transmitted from the PC to the video playback device. Video playback device
As such, it is not an essential component of a video hypermedia device
However, here, the system including this will be described. Figure
1 includes the moving image hypermedia device according to the present embodiment.
FIG. 1 is a configuration diagram of a system.
[0010] This apparatus is roughly divided into anchor information and resource information.
Data operation unit 1, which operates data related to link information,
A data storage unit 2 for storing these data;
Display unit 3 that displays data in a meaningful form,
The user operation unit 4 that performs attachment and management and the video playback device 5
It comprises a moving image input section 6 for inputting the generated moving image.
(1) Data operation unit 1
An instruction from the user to the data operation unit 1 is sent to a UI described later.
This is done. That is, the following internal configuration is software
It is an air module.
[0012] The frame determination unit 10 determines a start frame and an end.
Determine the frame. In this embodiment, the user specifies
Frame is the start frame and end frame
It becomes. Examples of start and end frames are given above.
In the aquarium video, the top of the scene that depicts the aquarium and
This is the last frame. Suppose the scene is at the entrance of the aquarium
After moving to the video, it is necessary to set an anchor on the fish after that
Because there is no, specify the end frame before the scene transition
deep.
The anchor setting unit 11 includes a start frame and an end frame.
The anchor is actually set between the acknowledgment frames. For example,
When you set an anchor for a fish,
Display a rectangle around the fish with the mouse.
This is registered as an anchor area. At this time, the video stops
In stop mode. Next, advance the video to the end frame.
Therefore, the anchor area is registered by surrounding the same fish again. start
The fish moves or changes direction between the frame and the end frame.
In general, both the position and the shape change.
Shape and position of the anchor area registered in the start frame
The shape and position of those registered in the
Generally not. The anchor setting unit 11 will be described later.
Information editing unit 11 used when the anchor is modified
0 and a text to set an anchor for text such as a character string.
A text anchor setting unit 111 is included.
The anchor estimating unit 12 determines the start frame and the end
The first and second anchor information set in the
Interpolation calculation is performed based on an arbitrary frame (non-reference frame).
E) the position and size of the anchor in step (1) are estimated.
This processing will be described later in detail.
[0015] Anchor search unit 15 outputs anchor information.
Anchor movement characteristics or anchor identification information
Search anchors based on. The identification information is
Find information to help identify the car from other anchors
For example, anchor name, anchor setting object, anchor
There is a car setting date and time.
The hyperlink setting unit 13 sets the
Set the hyperlink to the anchor,
Create a data structure in the form of a table. Hyperlin
The search unit 14 searches for the set link information.
In the case of the above example, a fish anchor and a text
Text data etc. are linked by hyperlinks
You.
(2) Data storage unit 2
The data storage unit 2 may be a database or various files.
File device or memory device. This part is mainly hard
Wear.
The moving image data storage unit 20 has a key
Store captured and digitized video data
You. The anchor information storage unit 21 and the link information storage unit 22
Stores the set anchor information and link information respectively
I do.
(3) Display unit 3
The display control unit 30 controls various images such as a UI and a moving image being edited.
A display system program that controls the display as a whole,
A display circuit such as a VGA controller and this drive
Including ba. The display control unit 30 includes a cursor change unit 300
have. The cursor changing unit 300 determines that the cursor is an anchor.
Change the display state of the cursor when entering the area. table
The output data of the display control unit 30 is a display device such as a PC monitor.
31 is displayed.
(4) User operation unit 4
It allows the user to enter commands.
Hardware such as keyboard, mouse, and various pointing devices
And a command dispatcher. Koman
Examples of anchors include setting anchors, modifying anchor areas, and
And link search.
(5) Moving picture input unit 6
A hardware equivalent to a video capture board.
It has a D converter and a frame memory (not shown).
Digitize the input moving image. After this, the data
This is provided to the moving image data storage unit 20.
Based on the above configuration, first, anchor and phosphorus
The procedure for setting the network is explained, and later the UI for anchor setting
Explain the child.
[1] Setting of anchor
FIG. 2 shows an anchor setting and correction procedure according to this embodiment.
FIG. 3 is a flowchart showing the order, and FIG.
It is a figure showing a table of information. First, as shown in FIG.
Various initialization processing is performed on the software and the like (S21),
Reading of moving image data stored in the moving image data storage unit 20
The embedding (S22) is performed. Beyond loaded video data
The head frame is first displayed as a still image on the display device 31.
Is done. Next, the video data already set
Read anchor information from the anchor information storage unit 21.
(S23). If anchor information exists,
Display the anchor area on the screen (hereinafter, anchor
Set the mode in which the area is displayed on the screen to "Anchor display mode".
Mode), the mode that is not displayed is "anchor non-display mode"
).
Subsequently, a new anchor is set this time.
Video data up to the start frame of the current period (S2
4) When the desired frame appears, select “Start Frame” on the screen.
Button to register the start frame. This state
Waiting state for setting the anchor area in this frame
State, and the user moves the mouse around, for example, another fish.
A rectangular area is provided by clicking the button. The rectangular area is determined
Then, the upper left point (x1, y1) and the lower right point (x2, y
The coordinates of 2) are obtained, and this is the frame of the start frame.
Along with the number (serial number from the first frame of the video)
Is recorded as the anchor information of the fish (S25).
Thereafter, the moving image data is advanced again, and
Stop when the end frame appears (S26), and the same fish
Is provided with a rectangular area. End frame here
Is completed (S27). Of FIG.
“Anchor1” is an anchor ID indicating this fish.
You. Here, the frame numbers of the start frame and end frame
Number (frames 1 and 100 respectively) and the anchor area
Coordinate information is stored in a table.
In this manner, the anchor in the both-end reference frame
-If the information is confirmed, the third frame (non-standard
Frame) is obtained by interpolation calculation.
(S28). FIG. 4 shows an interpolation calculation method of anchor information.
FIG. here,
The anchor information at the start frame (time t0) is A
(T0)
The anchor information at the end frame (time t1) is A
(T1)
The anchor information at time t is A (t)
T1−t0 = Δt
If so,
A (t) = {A (t1) −A (t0)} t / Δt + {A (t0) t1−A (t1) t0} / Δt (Equation 1)
And multiply. As A, the x1, y1, x2,
If y2 is substituted, outside the anchor area at an arbitrary time
The shape turns out. Substituting the barycentric coordinates of the anchor area
The rough movement of the anchor area is found. Color number for A
By substituting, the color change of the anchor area can be tracked. This
In addition to this, information that can be expressed numerically also uses Equation 1.
Interpolation can be performed by the internal division calculation. By interpolation
The anchor information of the non-reference frame obtained by
You can add it to "anchor1" on the table
In other words, the table shown in FIG.
Is calculated for each frame.
It may be performed sequentially. In the present embodiment,
Is assumed.
When S28 is completed, the anchor information is actually
Is displayed to confirm the contents (S29). At this time, start
The video data is played back to the frame,
The anchor area is displayed as a rectangle. This rectangular area is calculated
It moves continuously according to the result.
In the case of "anchor1", the fish is a straight line
Exercise gives very good results, but if you swim halfway
If the direction is changed, the fish
-The area shifts. Therefore, the anchor information is corrected (S3
0). First, the user first downloads the video up to the frame
Data and stop the image here. Then, the screen display
Click the end of the anchor area that is
To change the shape or position of the area. Anchor estimator
12 sets the frame thus corrected as a reference frame.
Upgraded (hereinafter, those that have been promoted to the reference frame)
This anchor information is also called “intermediate reference frame”).
Add to the table in FIG. FIG. 5 shows the intermediate reference frame in FIG.
Shows the table obtained by adding the anchor information of the
ing. On the other hand, FIG.
Shows how to perform interpolation calculation based on three frames
FIG. The non-reference frame to be estimated is the first
Between the start frame, which is a frame, and the intermediate reference frame
If it exists, interpolation calculation is performed between those frames,
A subframe exists between the intermediate reference frame and the end frame.
If there is, interpolation calculation is performed between those frames (S2
8). Thereafter, the display in S29 and the re-correction in S30
After that, when good anchor information is obtained (S31
Y) Save this (S32) and end the anchor setting process
You. If the anchor of another frame is modified in S30,
Of course, this frame is also an intermediate reference frame. Note that S
In 25, set two or more anchors in the same frame
If you do, the anchor ID is automatically set inside the device in the setting order.
To the anchor area.
What is necessary is just to take measures such as performing rectangular display of the area in different colors.
According to the above procedure, the following effects can be obtained.
You.
1. Set the anchor in both reference frames
Settings for a large number of frames in between.
Work becomes unnecessary.
2. If the position of the anchor is shifted in the interpolation calculation,
Can be confirmed. Therefore, the
Frames are easy to recognize, and once a frame is modified,
Automatically promoted to an intermediate reference frame,
You need to pay attention to whether it should be a reference frame
Absent.
3. For example, a fish with an anchor swims in an arc
In such cases, in addition to the reference frames at both ends,
If you make corrections in the frame, you will get enough good anchor information
Can be The above is a description of the moving image hyperme
Of the media devices, in particular, an overview of the video anchor setting device
is there.
[2] Link setting
Next, change the link settings for the set anchor.
Do. FIG. 7 shows link setting and detection according to this embodiment.
A flowchart showing a search procedure, and FIG. 8 shows a set link.
It is a figure showing a table of information.
FIG. 7 shows the setting of an anchor and the setting of a link.
FIG. 2 shows a processing procedure in the case of performing completely independently, and FIG.
First, various initialization processing (S40), reading of moving image data
(S41). Next, set in [1]
Read anchor information from anchor information storage unit 21
Link information that has already been set with (S42)
From the link information storage unit 22.
Next, the both-end reference frame and the intermediate reference
Anchor of another frame based on the anchor information of the frame
-Reproduction of moving image while obtaining information by interpolation calculation (S44)
Is displayed continuously in accordance with (S4)
5). In this state, the user operation unit 4
An input wait state is set (S46).
[0033] Here, the user can display the moving image or the moving image.
After stopping once, click on a certain anchor area,
If you press the "Create / Change Link" button, the anchor
Then, link information is created (S47). example
For example, if a fish in the aquarium is clicked, phosphorus is added to that fish.
Text, images, etc. that should be
The text selected by the user is the anchor of the fish.
(More precisely, an object called fish contained in the anchor
Project). If there are no suggestions, the user
It is also possible to enter a character string by itself and link this
is there. FIG. 8 shows the information in text format in “anchor1”.
The report “anchor1.txt”, as well as “anchor1.txt”
2 ”bitmap image“ anchor ”
2. "bmp" is shown in a linked state. like this
Once the link information is confirmed, the content of the link is
The information is stored in the information storage unit 22, and the user waits for an input again.
On the other hand, in S46, the user
If you press the “Search” button and specify an anchor, the anchor
Is retrieved and displayed (S4).
9). In the case of FIG. 8, for example, for the fish of anchor1
And the name, length, and characteristics of the fish are displayed as character strings.
For nchor2 fish, the fish actually inhabit
A photo of the sea where you are located is displayed. This display shows
The user can confirm content operation at this point.
Tool creation can be completed. Content is, for example,
By storing on a recording medium such as a CD-ROM,
It can also be commercialized. When shipping as goods,
Generally, an anchor hiding mode that does not display the anchor area
Change to mode.
Here, the setting of the anchor and the link is
Although described as an independent process, for example, an image during link setting
If you provide a button on the surface that says "Return to anchor settings"
Both are free to go and edit more easily.
[3] UI for anchor setting
FIG. 9 is a diagram showing an example of a UI screen for setting an anchor.
You. In the figure, an image display area 50 includes a processing target.
The movie is displayed. The buttons 52 in black in the upper column are
Use the object buttons to directly instruct playback, stop, etc.
is there. Next to it, the frame displayed in the image display area
Rectangular button 5 for setting anchor area for
4. Similarly, change the displayed frame to the start frame.
Or start frame finger to designate as end frame
Button 56 and an end frame designation button 58 are provided.
ing. In the figure, the anchor area 60 for one fish is shown.
Is set.
At the center right of the screen, set or modify
Name, ID, start frame number, end of anchor
There is an anchor-related box group 62 indicating the frame number.
You. Below the image display area 50, the currently displayed frame
And the scene number of that frame
The scene-related box group 64 indicating the serial number in
You. Below that, a small amount of video for editing
There is a box 66 to go forward or back. This right end
Press the button to advance the video, and press the left edge to return. Current
The position of the displayed frame in the scene
In the box 66, it is indicated by a vertical line 70. This button
Below the box are the start and end frames for the scene.
There is a box 68 indicating the position of the frame. Start frame
And the end frame positions are indicated by double vertical lines 72 and 74, respectively.
And the position of the intermediate reference frame
This is indicated by the shape symbol 76.
In the figure, first, the user inputs a scene number.
As a clue, to the beginning of the scene where you want to set the anchor
Advance videotape. In this case, for example, multiple scenes
Aquarium with scene number "5"
The video is going on. Here, the user
Press the rightmost button to advance the video one frame at a time.
Good. The first frame that tries to set the anchor appears
Then, the user presses the start frame designation button 56, and
Register it. At this time, the corresponding part of the box 66
A double vertical line 72 appears indicating the position of the start frame.
At this point, the user presses the rectangular button 54 to set the image in the image display area 50.
Click the upper left and lower right points of the anchor area to be set with the mouse.
Click. This completes the anchor setting of the start frame.
You. Next, advance the video, register the end frame in the same way
Perform anchor setting.
The setting in the both-end reference frame is completed.
Is detected, the anchor estimating unit 12 of the present apparatus
The calculation is started by substituting the anchor information into the equation (1). This
Here, the user returns to the start frame and
As the frame advances, the anchor estimating unit 12
Find the time corresponding to the currently displayed frame, and
An anchor area is displayed based on the corresponding estimation result. table
If the indicated anchor area is misaligned, the user must
By pressing the shape button 54, the area is corrected. After modification,
A triangular symbol 76 appears at the location corresponding to the frame.
According to this UI, the anchor information is actually displayed on the moving image data.
Display the editing result in real time.
And it can be easily modified.
The above is the outline of the present embodiment. In addition,
Regarding the present embodiment, the following improvements, modifications, etc. are considered.
It is.
(1) Setting of text anchor
This is performed by the text anchor setting unit 111 in FIG. Ma
Edit the text data on the screen and put it on the video
Overlap and set the anchor. Difference from normal anchor setting
Or, do not specify a partial area of the reproduced image.
Put the created text on the image once, and then
At the point where the anchor area is set to surround the text
You. Conventionally, for example, annotations were directly added to video images.
Was a common practice, but in that case it was later annotated.
This is inconvenient when re-editing, such as deleting an option. Real truth
The embodiment eliminates this.
When a text anchor is set,
Anchor information is also stored in the anchor information table. Was
However, in the table shown in FIG.
The place is "text" and the text name is entered in that field.
As for the text anchor, the related information
Link is possible. For example, for the aquarium scene in FIG.
Paste the text "South Sea Fishes"
"The southern sea is full of brightly colored fish
You can link text like
Wear.
(2) Changing the display state of the cursor
This is performed by the cursor changing unit 300 of FIG. This feature
In particular, the anchor non-display mode, for example, when the content is
Useful when used in Because of this feature, the car
The sol change unit 300 is configured to always acquire the cursor position.
Location acquisition program and the acquired location is
Judgment program to judge whether it is included in the car area
When the cursor enters the anchor area, the cursor
How to change the display state of the
Change program that actually changes the cursor shape etc. according to
With ram.
The cursor can be changed for each anchor.
There is a case where the change is not changed and a case where it is changed. Former
For example, change the cursor, which is usually a + sign, to ◎
Or increasing the brightness of the cursor. In this aspect
According to the report, especially, the target moves and changes
There is a benefit when the change of the anchor area is drastic.
On the other hand, in the latter case, the change program
From the anchor ID of the anchor area where the cursor is
Search, and replace it with the cursor
It may be displayed at the position. For example, if the cursor is
When you enter the anchor area of a fish,
The target content of the anchor, such as "Shark"
Can be shown. According to this aspect, the user has to bother with the fish.
You don't need to click to know the name of the fish
it can.
(3) Explicit designation of intermediate reference frame
In this embodiment, first, only the both-end reference frames are determined.
However, when the movement of the target is irregular,
In some cases, the need for correction can be anticipated. In that case,
Frames other than the start frame and end frame from the beginning
Also accepts designation of an anchor area. For example
In the UI shown in FIG.
In addition to the end frame designation button 58, the intermediate frame designation button
To respond by providing a tongue. This frame has been
Because the frame is used as a frame, the interpolation
It can be thought that it is started from.
(4) Anchor area other than rectangle
The anchor area need not be limited to a rectangle. For example a circle or
In the case of an ellipse, the coordinates are based on the coordinates of the major axis, minor axis, and center.
You can specify the area by using For polygons, use the coordinates of each vertex
No. When the outer periphery of the target itself is the anchor area
Is the coordinates of a point on the outer circumference and the chain expressed from that point.
The region can be specified by the code.
(5) Use of nonlinear interpolation
In the present embodiment, linear interpolation is used most simply.
This may of course be a non-linear interpolation. The equation used for interpolation is
Determined by experiment etc. according to the characteristics of the moving image to be processed
be able to.
(6) Determination of start and end frames
In the present embodiment, these frames are explicitly specified by the user.
Although specified, there are also the following methods.
1. The user does not need to be aware of the start and end frames,
Simply specify the frame and set the anchor. Specified
The reference frame becomes the reference frame. Frame determination unit 10
Is the frame of the frame where the user has set the anchor.
Start the frame with the lowest program number and end the frame with the highest
Decide with a frame. In this case, specify the start frame in FIG.
The button 56 and the end frame designation button 58 become unnecessary.
You.
2. The user specifies one frame and
And set the anchor,
Specify the target that became. This frame is the reference frame.
It becomes a frame. The frame determining unit 10 determines the reference frame.
By examining the frames before and after the
Frames that appear and disappear, and
Let these be the start frame and end frame, respectively.
The presence or absence of the target is determined by matching the image.
Judge by taking. In other words, the
Using the target as a model,
Performs a switching process. Search pairs as long as matching is achieved
Spread the elephant frame back and forth. Eventually the matching
If it cannot be obtained, the start and end frames are determined. This one
According to the law, only one reference frame should be provided initially.
No.
(7) Three-dimensional display of anchor area
Display the set anchor area on the anchor setting unit 11
In the x, y and time t directions
Provide a function for three-dimensional display. This is editing the anchor
4 may be displayed on the screen as it is. This
Display gives the user a visual overview of the anchor
Can be done
As an application of this technology, three-dimensional display
You can edit the anchor information directly.
No. For example, the anchor area in the intermediate reference frame of FIG.
If you move the area to the left on the screen, the display shown in Fig. 6 will not be displayed.
It is. Users can understand the effects of editing in real time
Can be.
(8) Cross-section display of moving image
In the anchor setting unit 11, the start frame to the end frame
FIG. 10 is a cross-sectional view in the lateral direction of the locus of the anchor area up to FIG.
(A)) and vertical sectional view (Fig. 10 (b))
And added a function to display this along with the path of the anchor
I do. First, the anchor area is determined from the anchor information of the reference frame.
The x and y coordinates of the center of gravity G of the area are obtained. FIG. 10 (a)
In this case, a straight line parallel to the x-axis is drawn on the frame from the center of gravity. next to
A plane containing these straight lines between the touching reference frames (Fig.
(Middle shaded area). Next, cut the video on this plane
You. Project the obtained cross-sectional view on the xt plane (dotted area in the figure)
I do. In the case of FIG. 10B, the same processing is performed by exchanging x and y.
Make sense. If the anchor trajectory is calculated correctly
I.e., the estimation of anchor information in non-reference frames.
When the precision is sufficiently high, the two projections
A travel route should appear. For example, a red ball
If the target is to set an
A motion path appears. If you break the pencil vertically, the core will appear in a straight line
Is the same as If this route is cut off or thick
If so, correct the anchor position at that point.
Just do it.
(9) Grouping of anchors
The anchors set separately in the anchor information editing unit 110
ー Group information into a virtual anchor
Add functions to handle. For example, the person A is in the frame N1
N2 and frames N3 to N4 exist in the screen,
Frames N1 to N3 do not exist in frames N2 to N3.
2 and person A in frames N3 to N4.
Treat the anchor as one. As a result, the anchor
The task of setting and correcting information is reduced. In addition,
Grouping person A and person B appearing in the same frame
You can also.
(10) List display of anchor information
The anchor information editing unit 110
A function to display a list of anchor information set in advance is provided. An example
For example, along with the video title "AQUARIUM"
Anchor names such as "FISH1", "FISH2" ...
Display a list on the screen. Enter the anchor name you want to check
When selected by the user, the anchor's start frame
, And the moving image may be reproduced.
(11) Search for anchor
A search UI for anchor information is provided. Anchor to search
Input text information such as information name as a keyword
From the anchor information storage unit 21
Search for and display those with that keyword. That
Alternatively, the movement of the anchor area may be used as a search key. example
If you want to find an object that moves to the right,
For example, a button “→” is pressed in the search UI. Anchor
-The search unit 15 calculates the locus of each anchor area, and moves to the right.
Find and display anchors containing moving objects
You.
(12) List display of anchor information display images
In the anchor information editing unit 110, the start frame and the end frame
Frames (reference frames, non-reference frames)
Frame), and the anchor setting unit 11
Anchor information set in advance, or anchor estimation unit 12
The anchor information estimated by
-A function to create information display images and display them in a chronological list
Provide. For example, as shown in FIG.
81 and end frame 82 at both ends
Select a frame with Δt. Next, each of these frames
Information display image with anchor information 80 superimposed on the
And display them side by side with the earlier display time
I do. With this configuration, it is possible to see at a glance whether the anchor setting is appropriate.
You can pass. For this reason, according to box 66 in FIG.
Positioning work can be omitted, making it easy to modify anchors.
You. It is not necessary to select frames at regular intervals.
For example, only the reference frame may be selected. Also display
In the anchor information display image
You can also edit directly by dragging with the mouse
No.
(13) Correction of anchor information during reproduction of moving image
As shown in FIG. 12, the moving image is
A moving image reproducing unit 118 for reproducing on the screen and a frame being displayed
Information display section that displays anchor information about the system
120 and one or more times during video playback
When the anchor information correction operation is performed by
The frame that was playing at the time when the
If they are non-reference frames
Promoted to frames and
Anchor information based on each anchor information correction operation
An anchor information correction unit 119 for correction is provided. This configuration
First, the image display area of FIG.
A moving image is displayed in the area 50. At the same time, the anchor information
The information display unit 120 displays an
The car information is displayed as the anchor area 60. A user
Is a frame in which the anchor area 60 is displaced from the target.
When you find a program, mouse over the center of the target in the video
Click with. This action causes the anchor information
The correction unit 119 was displayed at the time when the click was performed.
Identify the frame and click on the center of the clicked point.
Correcting anchor information by generating car information
You. The size of the newly set anchor area is, for example,
It may be the same as the original anchor area. Hereafter, this frame
The system is treated as a reference frame. With this configuration,
You can specify the target position sequentially while the video is playing
This saves the trouble of checking and correcting later.
Embodiment 2
In the first embodiment, the anchor information is mainly obtained by interpolation.
Dynamic calculations were performed and corrections were made manually. In this embodiment
Is a certain number of frames based on the video analysis
The anchor is automatically set as a reference frame and these
The interpolation method of the first embodiment is used between the reference frames. This
Corresponds to the intermediate reference frame of the first embodiment.
Since there is a frame to be installed from the beginning,
Positive effort is reduced.
FIG. 13 shows a moving image hyper according to this embodiment.
FIG. 3 is a configuration diagram of an anchor setting unit 11 of the media device. A
Configurations other than the anchor setting unit 11 are the same as those in FIG.
In FIG. 13, the automatic anchor setting unit 11
2 has an adjacent frame extraction unit 117. Proximity frame extraction
The output unit 117 has a fixed interval between adjacent reference frames.
To extract non-reference frames and raise them to reference frames.
Classify. The automatic anchor setting unit 112 also sets the motion vector.
Toll use setting unit 113, contour information use setting unit 114,
And a pattern matching use setting unit 116. this
These three setting units should implement one of them originally
However, in this embodiment, everything is implemented, and depending on the situation,
Select one of them.
The reference frame deletion unit 115 is used as described later.
The criteria set by the automatic anchor setting unit 112
Redundant frames are returned to non-reference frames. Less than
The operation of this configuration will be described below.
[1] Anchor by using motion vector
Automatic setting of
The feature of this processing is that once from the start frame to the end frame
The motion vector of the block until
Judgment of the degree of coincidence between the virtual movement path of the unit and the motion vector
Tracking accuracy of target position estimation
In a two-stage configuration.
1. Get motion vector
The time of the start frame and the time of the end frame are t0 and t, respectively.
Let it be 1. In addition to these, the proximity frame extraction unit 117
First, some of the non-reference frames are used as reference frames.
change. Here we simply change every 5 frames
For simplicity, the elapsed time between reference frames is set to 1
Is normalized. Period from start frame to end frame
To find the motion vector of a specific anchor between
In the image area near the center of gravity of the anchor as a block,
Perform block matching. At any time t
The frame to be written is referred to as a frame (t).
FIG. 14 shows a motion vector according to the present embodiment.
9 is a flowchart showing a procedure for acquiring a file. Per figure
First, the time counter t is set to t0 (S10).
0). Next, the block set at the start frame is
Of the blocks from which the motion vector is to be obtained.
You. The motion vector usage setting unit 113 specifies the specified anchor.
Area including the center of gravity of the
Block (hereinafter referred to as “anchor block”)
It is stored (S101). Next, the picture of frame (t)
The image data I (t) and I (t +
1) is acquired (S102). I (t) is included in the frame.
This is a set of pixel values p of each pixel.
Thereafter, the block is placed in the frame (t + 1).
Search for the best matching while moving with (S10)
3). Each pixel value of the block itself is found from I (t).
Therefore, the block is arranged at an arbitrary position in the frame (t + 1).
And calculate the squared error of the pixel value between overlapping pixels
This is integrated over the entire block. A little block
This integration is performed while moving
The position is determined to be the destination of the block.
If the destination is determined, the frame (t)
From block to block in frame (t + 1)
Since the amount and direction of movement to
It is acquired as tor V (t) (S104). Where t
+1 has reached the end frame time t1.
(S105), and if not reached, increment t.
(S106) to repeatedly acquire a motion vector.
You. If t + 1 is equal to t1, the V obtained so far
After saving (t) (S107), the process ends.
FIG. 15 shows a case where t0 = 0 and t1 = 3.
The figure which shows the example of the obtained motion vector V (0) -V (2).
It is. As shown in the figure, V (t) is
With x and y defined and t defined in the time direction,
It can be represented by three components of (x, y, t).
2. Judgment of coincidence
A block of the same size as the block set for the motion vector
Locks divide each frame so that the target
Find all possible routes. FIG.
FIG. 3 shows one of the roads. In the figure, the frame is
The path in the start frame is divided into 16 blocks
14 and the end point of the path in the end frame are shown in FIG.
Match the block. Under these conditions, all routes are 1
There are 6 × 16 patterns. Next, this route (hereinafter referred to as “virtual
Each section of the route is referred to as a vector (hereinafter, referred to as a route) shown in FIG.
V (t) is defined below. Route
Vector is a virtual path from one frame to the next
When you follow, it is determined by that direction. v (t) is also (x, y,
It is described by three components of t).
Here, V (t) and v
The angle formed by (t) is defined as θt, and the following equation using the inner product
Therefore, f (t) = cos θt is calculated.
[0073]
f (t) = (V (t), v (t)) / | V (t) | · | v (t) | (Equation 2)
FIG. 17 shows V (t) of FIG.
In the additionally displayed diagram, the meaning of θt is shown. Equation 2
Is larger, the virtual route in that section is
Although the degree of coincidence of motion vectors is high, the degree of coincidence is
Even if it becomes large, if the degree of coincidence of other sections is very low,
It is necessary to consider that the degree of agreement as a body is low. So, each
Evaluate the overall degree of matching while taking into account the degree of matching between sections
In order to do so, the following evaluation formula is introduced.
[0074]
g (t) = max {f (t-1) + g (t-1)} (Equation 3)
By calculating Equation 3 recursively, the time
The virtual route with the highest degree of coincidence is found. This meter
If the calculation is performed up to the end frame,
Because the virtual route with the highest
It is regarded as the route of the get. After that, this route and each
At the intersection of the quasi-frames,
The automatic setting of the anchor is performed assuming that the anchor exists.
The set anchor information is the anchor information text shown in FIG.
Just add it to the table. Note that other than the reference frame
For the frame of No. 1, the same method as in the first embodiment is used.
If the anchor information is sequentially calculated from the interpolation calculation,
Good.
[2] Self-control of anchor by using contour information
Dynamic setting
As another method of automatic anchor setting, the target contour
There is a method to estimate the position of the target based on the movement of
You. The contour information use setting unit 114 performs the same processing as in FIG.
Contour image is generated for each frame by the return process.
You. The outline image is binarized so that 1 on the outline and 0 on the other.
Image, and the image contains a compass gradient (Compas
s-gradient) type filter
is there. Once the contour image has been obtained, the anchor
Setting of anchor information as moving exactly the same as
Should be performed.
[3] Identification of anchor using matching
Dynamic setting
As yet another method of automatic anchor setting, FIG.
Estimation of target position by pattern matching
is there. In the case of this method as well, first, the adjacent frame extracting unit 11
7, a certain number of reference frames are provided in advance. Next
The anchor area set in the start frame 130
Create a model 134 for pattern matching from the area 132
And the highest matching level among the adjacent reference frames 136.
A high region 138 is determined. Pattern matching method and
To overlay the image data of the model
The plate matching method and the feature points extracted from the image
Structural matching method that performs superposition based on positional relationship
There is. Pattern matching is centered around the model
Do.
Thus, the area 13 in the second reference frame
8 is found, this area 138 is used as a new model.
And repeat the process to track the target
Good. Note that if the movement or deformation of the target is
Good match when frames are set too wide
There is a case that cannot be taken. In such a case, the proximity frame
The system extraction unit 117 narrows the interval between the reference frames to increase
After setting up a number of reference frames,
It shall be corrected.
[4] Deletion of Unnecessary Reference Frame
In the above example, a reference frame is provided every 5 frames.
Was. However, for example, the target makes a linear motion
In such cases, the reference frame is the start frame and end frame
Is just enough. Target ends from start frame
In the case where not all are performing uniform linear motion up to the frame
Even so, for the duration of such exercise,
Only the reference frames at both ends of the period need be provided. Standard
Each time the frame is reduced, the computational load is reduced. [1]
This is particularly effective because the number of virtual routes is drastically reduced.
From this viewpoint, the reference frame deleting unit 115
Deletes unnecessary reference frames. Figures 19 to 21
It is a figure showing signs that a quasi-frame is deleted. these
In the figure, the horizontal axis is time, and the vertical axis is x- provided on the frame.
The distance from the origin of the y coordinate is shown. Also, in each figure
○ schematically shows an anchor area. Delete
The following procedure is used.
[FIG. 19]
Initially, there are six reference frames, including both-end reference frames.
Have been killed. Here, start frame anchor and end frame
Connect the frame anchors with a straight line, and
Calculate the distance of Anchor whose distance has become less than the specified value
If there is, the reference frame at that time is deleted. In the figure
Has no anchor to be deleted. Next,
The anchor farthest from the straight line (hereinafter referred to as the farthest anchor)
Find). Here, the anchor at t = 3 is the farthest anchor.
It is a car.
[FIG. 20]
Delete the straight line and set the start frame anchor and farthest
And the anchor of the end frame with a polygonal line in this order.
Then, the distance between the polygonal line and each anchor is calculated again. distance
Is smaller than the predetermined value, the t = 4 anchor is deleted.
You. The farthest anchor is changed to t = 2 anchor.
[FIG. 21]
Modify the line to pass through the new furthest anchor. This
Here, the distance to the new polygonal line has become less than the predetermined value.
The reference frame at t = 1 is deleted. This ends the process
I do.
In this example, two reference frames are deleted.
It will be. If there are many initial reference frames,
1. 1. Deletion of reference frames below a predetermined value; Furthest anchor
2. Search for The correction of the broken line may be repeated.
The above is the outline of the present embodiment. In addition,
The following improvements or modifications can be made to this embodiment.
Conceivable.
(1) Modification of equation 2
In equation (2), f (t) = cos θt is adopted.
May be another function. The function of increasing and decreasing θt is f
(T) can be a candidate.
(2) How to take a block
In FIG. 15, the block is set to include the vicinity of the center of gravity of the anchor area.
Decided, but this could be a different decision. For example,
Anchor area may be used as anchor block
No. Similarly, in FIG. 16 as well, regardless of the size of the block,
You may decide to lock.
(3) Another method of the above [3] (No. 1)
Another mode of automatic anchor setting by matching described above
I'm sorry. Match one after another using the area of a certain frame as a model
Errors, build up errors and gradually target
May be removed from the For this reason, the proximity frame
Not only matching from the
The judgment is made in consideration of the matching result from the frame.
As shown in FIG. 22, here, the time distance
Start frame and end frame as separate reference frames
Is adopted. Now, a new anchor position should be specified.
It is assumed that the reference frame 404 is at time t + Δt. one
The model A400 of the anchor area of the start frame and the end
Model B401 of the anchor area of the
The model C403 of the anchor area of the reference frame 402 is
All are known. So, these three reference frames
And the reference frame 404 at time t + Δt, respectively.
Take matching. At this time, all matching results
If the matches, the tracking result for that area is reliable. one
If the matching result does not match, for example,
Determine the anchor position by the method.
1.3 Reference frame at time t + Δt as a result of matching three times
The three regions obtained on the program 404 are overlapped,
An axis of the same size as the original area, centered on the center of the minute
Create a car area.
2. One model, model C403
Find multiple matching results for
Model A400, model A400
The area obtained from the matching result of B401 is included
It is determined whether or not. Places that are included in a certain percentage or more
Area, the overlapping part between the regions obtained from the matching result
Anchor of the same size as the original area, centered on the center of
Create an area. Note that here, the reference frame
The start and end frames in addition to the
However, there is a degree of freedom in the combination. For example, close criteria
Frame and any number of bases separated by a fixed time distance
A quasi-frame may be employed.
(4) Another method of the above [3] (No. 2)
As shown in FIG. 23, automatic setting is performed in the automatic anchor setting unit 112.
A reliability judgment unit 130 and an automatic setting reliability display unit 131 are provided.
I can. The automatic setting reliability judgment unit 130
Area obtained by performing matching in the forward direction with
Overlaps with the anchor area specified in the end frame.
The reliability of the tracking is determined based on the degree. For example, heavy
If the area of multiple parts is 70% or more, the tracking result is reliable.
If it is 0% or less, it is determined that it is not reliable. Automatic setting reliability
The display unit 131 displays the reliability of tracking (whether or not
Or its%).
For example, as shown in FIG.
Tracking result 1 by matching against original trajectory 140
When 41 is warped, tracking is reliable due to low degree of overlap
It is determined that it cannot be done. So, this time,
Reverse image matching using anchor area as model
And re-track the estimated position of the target.
At this time, in each reference frame, match in the forward direction first
Area and the current match in the reverse direction
Compare the anchor areas obtained by
If they overlap by more than the ratio, the tracking ends. At this time
Alternatively, stop tracking at specified frame
You may. The frame to end tracking is the start frame
And the distance ratio from the end frame.
No. How to determine duplication and what frame to end tracking
The specified method may be used together.
As described above, according to this method, an error occurs during tracking.
Avoids subsequent deterioration of tracking results even if
And the final correction work is reduced. Also,
If you want to finish matching in the reverse direction by looking at the degree of overlap
In this case, only the necessary parts are modified, reducing processing time
Leads to.
Note that even if the reliability is low,
Instead of automatically starting
You may just display the reliability. In that case, the user
The matching in the reverse direction may be executed,
Positive may be applied. In any case, automatic setting reliability display
The unit 131 allows the user to know whether the tracking is good or not.
And appropriate measures can be taken.
(5) Another method of the above [3] (No. 3)
12, that is, the moving image reproducing unit 118 and the anchor
The information display unit 120 and the anchor information correction unit 119
-Provided in the automatic setting unit 112. Here, video playback
The unit 118 chronologically arranges each frame constituting the moving image,
Display at appropriate time intervals. Anchor information correction unit 119
Indicates that the anchor information correction operation can be performed at any time during video playback.
When performed, the frame of the frame displayed at that time
Correct the anchor information. At the same time,
Of the frame displayed during the immediately preceding specified number of images or the specified period
Invalidate the result of automatic anchor setting.
The operation in this configuration will be described. here
Is the forward direction from the start frame according to the video playback
It is assumed that the display is performed while matching is performed. This dynamic
In the case of the work, as described above, once the matching is good
If it disappears, the anchor information will gradually come off
There is. The user can select the video and anchor information to be played.
When the anchor area has deviated from the target while watching
Click the screen. At this point, playback stops. here
For example, if the user clicks on the center of the
If the anchor position is modified so that the point is the center,
You. Subsequent matching is based on the modified anchor information.
, So it is good.
According to this method, during reproduction of a moving image, the user
It is necessary to consider the delay of the action because the screen is clicked.
It is necessary. That is, the anchor region is outside the target
When you click when you recognize that
That such a phenomenon was gradually progressing over the frame
Conceivable. Therefore, the anchor information correction unit 119
Predetermined duplication that exists before the frame whose car information has been modified
Invalidate automatically set anchor information for several frames
Become
FIG. 25 shows the original trajectory of the target and the map.
Relationship between tracking results obtained by
FIG. 14 is a diagram illustrating the operation of the information correction unit 119. Solid line in the figure
150 indicates that the trajectory of the target matches the tracking result
While the broken line 151 indicates that the tracking result is off the track.
Is shown. As shown in the figure, the tracking results at times t0 to t1
Is reliable, but starts to fall off at time t1. The user
And clicks the screen at time t2. This result
As a result, correct tracking is performed again between time t2 and t3.
At time t1 to t2, an incorrect tracking result remains.
Is invalidated. For the invalidated part,
Thus, the anchor information at times t1 and t2 is linearly complemented.
Can compensate for missing tracking results
You. The number of frames for which the anchor information is invalidated is set in advance.
It may be specified, or may be specified at the time of correction.
Embodiment 3
Application of the moving image hypermedia device of the first and second embodiments
And the following devices or systems can be built.
You.
1. Interactive video teaching material production equipment
The moving image hypermedia device according to the present invention is a CAI container.
It is also ideal for producing music. That is, the video
Set anchors on teaching materials and link necessary additional information
You. Figure 26 shows the video teaching materials produced by this device.
FIG. Explanation for anchor A as shown in FIG.
A and anchor B are linked to explanation B etc.
You. Students want more explanation while playing the video
Click the new object on the screen. Clicked
If the object is associated with anchor A, explain
A is displayed on the screen.
2. Interactive video server system
A moving image hypermedia device according to the present invention is a video server.
Ideal for systems. FIG. 27 shows this video server system.
It is a block diagram of a stem. As shown in the figure, this system
Is a server 200 that shares the configuration of FIG.
It consists of a client 250.
The server 200 stores the moving image and its anchor information.
Information and related data linked to the anchor
Data storage unit 204, anchor estimation unit 206, arbitrary
Hyper search for related data linked to anchor
A link search unit 208 is provided. The anchor estimation unit 206
Estimate anchor information in a non-reference frame.
On the other hand, the client 250
When you click the target in the picture, any anchor area
Anchor determination unit 252 that determines whether is clicked
Prepare.
In this configuration, the client 250
When the user clicks on an object on the screen,
Anchor determination unit 252 specifies the clicked anchor
I do. This information is sent to server 200. Server 20
0 hyperlink search unit 208 is the data storage unit 204
From the relevant data linked to that anchor,
This is sent to the client 250.
As described above, according to this system, moving image data
And anchor information collectively on the server 200 side.
Video from many users and linked to it
You can see the information.
[0101]
According to the moving picture anchor setting apparatus of the present invention,
For example, set anchor information only for the reference frame
This means that non-reference frames, that is,
Since the anchor information of the frame can be estimated,
There is no need to set anchor information for the reference frame.
You. As a result, labor for setting an anchor can be saved.
Wear.
[0102]Also,Including reference frame deletion meansBecause,
The number of reference frames to hold the anchor information has been reduced.
Reduce storage requirementsYou.
【図面の簡単な説明】
【図1】 実施の形態1に係る動画ハイパーメディア装
置を含むシステムの構成図である。
【図2】 実施の形態1によるアンカーの設定および修
正手順を示すフローチャートである。
【図3】 実施の形態1で設定されたアンカー情報のテ
ーブルを示す図である。
【図4】 実施の形態1によるアンカー情報の補間計算
方法を示す図である。
【図5】 図3に中間基準フレームのアンカー情報を追
加して得られるテーブルを示す図である。
【図6】 実施の形態1において中間基準フレームと両
端基準フレームの3つのフレームをもとに補間計算を行
う方法を示す図である。
【図7】 実施の形態1によるリンクの設定および検索
手順を示すフローチャートである。
【図8】 実施の形態1で設定されたリンク情報のテー
ブルを示す図である。
【図9】 アンカー設定のためのUI画面例を示す図で
ある。
【図10】 図10(a)は開始フレームから終了フレ
ームまでのアンカー領域の軌跡の横方向の断面図、図1
0(b)は同様に縦方向の断面図である。
【図11】 実施の形態1において、アンカー情報編集
部によって時系列に表示されたアンカー情報表示画像を
示す図である。
【図12】 実施の形態1に係る動画ハイパーメディア
装置のアンカー情報編集部の内部構成例を示す図であ
る。
【図13】 実施の形態2に係る動画ハイパーメディア
装置のアンカー設定部の構成図である。
【図14】 実施の形態2における動きベクトルの取得
手順を示すフローチャートである。
【図15】 図14においてt0=0、t1=3とした
場合に得られた動きベクトルV(0)〜V(2)の例を
示す図である。
【図16】 アンカーが辿った可能性のある経路のうち
の1つを示す図である。
【図17】 図16のv(t)に対し、図15のV
(t)を追加して表示した図である。
【図18】 実施の形態2においてパターンマッチング
に基づくアンカーの自動設定方法を示す図である。
【図19】 実施の形態2において基準フレームを削除
していく様子を示す図である。
【図20】 実施の形態2において基準フレームを削除
していく様子を示す図である。
【図21】 実施の形態2において基準フレームを削除
していく様子を示す図である。
【図22】 実施の形態2で、近接する基準フレームの
ほかに、ある程度時間距離の離れた基準フレームを用い
てマッチングをとる方法を示す図である。
【図23】 実施の形態2に係る動画ハイパーメディア
装置のアンカー自動設定部の構成例を示す図である。
【図24】 図23の構成による効果を説明するため
に、その構成がなければ生じる可能性のある、誤った追
跡結果を示す図である。
【図25】 ターゲットの本来の軌跡とマッチングによ
って得られた追跡結果の関係、およびアンカー情報補正
部の動作を示す図である。
【図26】 実施の形態3の対話型ビデオ教材制作装置
の構成を示す図である。
【図27】 実施の形態3の対話型ビデオサーバシステ
ムの構成を示す図である。
【符号の説明】
1 データ操作部、2 データ記憶部、3 表示部、4
ユーザ操作部、6動画入力部、10 フレーム決定
部、11 アンカー設定部、12 アンカー推定部、1
3 ハイパーリンク設定部、14 ハイパーリンク検索
部、15 アンカー検索部、20 動画データ記憶部、
21 アンカー情報記憶部、22 リンク情報記憶部、
30 表示制御部、31 表示装置、50 画像表示領
域、52ボタン群、54 矩形ボタン、56 開始フレ
ーム指定ボタン、58 終了フレーム指定ボタン、60
アンカー領域、62 アンカー関連ボックス群、64
シーン関連ボックス群、66,68 ボックス、80
アンカー情報、81開始フレーム、82 終了フレー
ム、110 アンカー情報編集部、111 テキストア
ンカー設定部、112 アンカー自動設定部、113
動きベクトル利用設定部、114 輪郭情報利用設定
部、115 基準フレーム削除部、116パターンマッ
チング利用設定部、117 近接フレーム抽出部、11
8 動画表示部、119 アンカー情報補正部、120
アンカー情報表示部、130自動設定信頼度判定部、
131 自動設定信頼度表示部、140 ターゲットの
本来の軌跡、141 マッチングによる追跡結果、20
0 サーバ、204 データ記憶部、206 アンカー
推定部、208 ハイパーリンク検索部、250クライ
アント、252 アンカー判定部、300 カーソル変
更部、400モデルA、401 モデルB、402 時
刻tの基準フレーム、403 モデルC、404 時刻
t+Δtの基準フレーム。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a system including a moving image hypermedia device according to Embodiment 1. FIG. 2 is a flowchart showing a procedure for setting and correcting an anchor according to the first embodiment. FIG. 3 is a diagram showing a table of anchor information set in the first embodiment. FIG. 4 is a diagram showing an interpolation calculation method of anchor information according to the first embodiment. FIG. 5 is a diagram showing a table obtained by adding anchor information of an intermediate reference frame to FIG. 3; FIG. 6 is a diagram illustrating a method of performing an interpolation calculation based on three frames of an intermediate reference frame and both-end reference frames in the first embodiment. FIG. 7 is a flowchart showing a link setting and search procedure according to the first embodiment; FIG. 8 is a diagram showing a table of link information set in the first embodiment. FIG. 9 is a diagram illustrating an example of a UI screen for anchor setting. FIG. 10A is a lateral cross-sectional view of the trajectory of the anchor area from the start frame to the end frame, and FIG.
0 (b) is a vertical sectional view similarly. FIG. 11 is a diagram showing an anchor information display image displayed in chronological order by the anchor information editing unit in the first embodiment. FIG. 12 is a diagram showing an example of an internal configuration of an anchor information editing unit of the moving image hypermedia device according to the first embodiment. FIG. 13 is a configuration diagram of an anchor setting unit of the moving image hypermedia device according to the second embodiment. FIG. 14 is a flowchart showing a procedure for acquiring a motion vector according to the second embodiment. FIG. 15 is a diagram illustrating an example of motion vectors V (0) to V (2) obtained when t0 = 0 and t1 = 3 in FIG. 14; FIG. 16 is a diagram illustrating one of the paths that may be followed by the anchor. FIG. 17 shows V (t) of FIG. 16 and V (t) of FIG.
It is the figure which added and displayed (t). FIG. 18 is a diagram showing a method for automatically setting an anchor based on pattern matching in the second embodiment. FIG. 19 is a diagram illustrating a state where reference frames are deleted in the second embodiment. FIG. 20 is a diagram showing a state where reference frames are deleted in the second embodiment. FIG. 21 is a diagram illustrating a state where reference frames are deleted in the second embodiment. FIG. 22 is a diagram illustrating a method of performing matching using a reference frame that is separated by a certain time distance in addition to an adjacent reference frame in the second embodiment. FIG. 23 is a diagram illustrating a configuration example of an automatic anchor setting unit of the moving image hypermedia device according to the second embodiment. FIG. 24 is a diagram illustrating an erroneous tracking result that may occur without the configuration in order to explain the effect of the configuration of FIG. 23; FIG. 25 is a diagram showing a relationship between an original trajectory of a target and a tracking result obtained by matching, and an operation of an anchor information correction unit. FIG. 26 is a diagram illustrating a configuration of an interactive video teaching material production device according to a third embodiment; FIG. 27 is a diagram illustrating a configuration of an interactive video server system according to a third embodiment. [Description of Signs] 1 Data operation unit, 2 Data storage unit, 3 Display unit, 4
User operation unit, 6 moving image input unit, 10 frame determination unit, 11 anchor setting unit, 12 anchor estimation unit, 1
3 hyperlink setting section, 14 hyperlink search section, 15 anchor search section, 20 video data storage section,
21 anchor information storage unit, 22 link information storage unit,
Reference Signs List 30 display control unit, 31 display device, 50 image display area, 52 button group, 54 rectangular button, 56 start frame designation button, 58 end frame designation button, 60
Anchor area, 62 Anchor related box group, 64
Scene-related boxes, 66, 68 boxes, 80
Anchor information, 81 start frame, 82 end frame, 110 anchor information editing unit, 111 text anchor setting unit, 112 automatic anchor setting unit, 113
Motion vector use setting unit, 114 contour information use setting unit, 115 reference frame deletion unit, 116 pattern matching use setting unit, 117 adjacent frame extraction unit, 11
8 moving image display section, 119 anchor information correction section, 120
Anchor information display unit, 130 automatic setting reliability determination unit,
131 Automatic setting reliability display section, 140 Original trajectory of target, 141 Tracking result by matching, 20
0 server, 204 data storage unit, 206 anchor estimation unit, 208 hyperlink search unit, 250 client, 252 anchor determination unit, 300 cursor change unit, 400 model A, 401 model B, 402 reference frame at time t, 403 model C , 404 Reference frame at time t + Δt.
フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 13/00 G06T 13/00 B (72)発明者 脇本 浩司 東京都千代田区丸の内二丁目2番3号 三菱電機株式会社内 (72)発明者 田中 聡 東京都千代田区丸の内二丁目2番3号 三菱電機株式会社内 (56)参考文献 特開 平3−52070(JP,A) 特開 平3−292571(JP,A) 高野,的場,原「ハイパーメディアの ためのビデオデータモデルの一考察」情 報処理学会第46回(平成5年前期)全国 大会講演論文集(4)p.221−222 (平5−3−23) 高野,的場,原「ビデオデータ中に現 れる物体をノードとするハイパーメディ ア構成方式」第7回ヒューマン・インタ フェース・シンポジウム論文集 ,p. 301−306,1991(平3−10−23) 高野,的場,原「ビデオ・ハイパーメ ディアのナビゲーション方式」第8回ヒ ューマン・インタフェース・シンポジウ ム論文集,p.607−612,1992(平4− 10−21) 平田,川崎,高野,原「ネットワーク 環境化における動画ハイパーメディア実 装方式」情報処理学会シンポジウム論文 集,Vol.94,No.13,p.165− 173,1994(平6−12−7) 田中一生,田中譲 「ハイパームービ ーのアーキテクチャとその応用」 情報 処理学会研究報告 Vol.96,No. 119(96−IM−28),p.73−77(平 8−11−29) (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 G06T 13/00 Continuation of the front page (51) Int.Cl. 7 Identification symbol FI G06T 13/00 G06T 13/00 B (72) Inventor Koji Wakimoto 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Mitsubishi Electric Corporation (72) Inventor Satoshi Tanaka 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Inside Mitsubishi Electric Corporation (56) References JP-A-3-52070 (JP, A) JP-A-3-292571 (JP, A) Takano, Hajime, “Consideration of Video Data Model for Hypermedia,” Proc. Of the 46th Annual Meeting of the Information Processing Society of Japan (early 1993) (4) p. 221-222 (Heisei 5-3-23) Takano, Matoba, Hara "Hypermedia Construction Method with Nodes Appearing in Video Data as Nodes," Proceedings of the 7th Human Interface Symposium, p. 301 −306, 1991 (Heisei 3-10−23) Takano, Matoba, Hara “Navigation Method for Video Hypermedia”, 8th Human Interface Symposium, p. 607-612, 1992 (Hira 4-10-21) Hirata, Kawasaki, Takano, Hara "Moving Video Hypermedia Implementation Method in Network Environment" Proceedings of IPSJ Symposium, Vol. 94, no. 13, p. 165-173, 1994 (Heisei 6-12-7) Kazuo Tanaka, Joe Tanaka "HyperMovie Architecture and Its Applications" Information Processing Society of Japan Vol. 96, No. 119 (96-IM-28), p. 73-77 (Heisei 8-11-29) (58) Fields investigated (Int. Cl. 7 , DB name) G06F 17/30 G06T 13/00
Claims (1)
所定間隔で基準フレームを選定し、それら基準フレーム
の各々に対してアンカー情報を設定するアンカー情報設
定手段と、 設定される前記アンカー情報に基づいて非基準フレーム
のアンカー情報を算出するアンカー情報算出手段と、を
含む動画アンカー設定装置において、 一又は複数の基準フレームに設定される前記アンカー情
報が他の基準フレームに設定されるアンカー情報に基づ
いて所定誤差範囲内で算出可能であるか否かを判断する
判断手段と、 算出可能であると判断される場合、それら基準フレーム
を非基準フレームに変更する基準フレーム削除手段と、
をさらに含むことを特徴とする動画アンカー設定装置。(57) [Claims 1] for a plurality of frames constituting the moving picture
Select a reference frame at predetermined intervals, and the anchor information setting means for setting the anchor information for each of their reference frames, anchor information calculating means for calculating the anchor information of the non-reference frame based on the anchor information set In the moving image anchor setting device, it is determined whether or not the anchor information set in one or a plurality of reference frames can be calculated within a predetermined error range based on the anchor information set in another reference frame. Determining means for determining; and reference frame deleting means for changing the reference frames to non-reference frames when it is determined that calculation is possible;
A moving image anchor setting device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01498597A JP3511278B2 (en) | 1996-01-31 | 1997-01-29 | Video anchor setting device |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1484496 | 1996-01-31 | ||
JP8-286378 | 1996-10-29 | ||
JP8-14844 | 1996-10-29 | ||
JP28637896 | 1996-10-29 | ||
JP01498597A JP3511278B2 (en) | 1996-01-31 | 1997-01-29 | Video anchor setting device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10823599A Division JP3907344B2 (en) | 1996-01-31 | 1999-04-15 | Movie anchor setting device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10187759A JPH10187759A (en) | 1998-07-21 |
JP3511278B2 true JP3511278B2 (en) | 2004-03-29 |
Family
ID=27280793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01498597A Expired - Fee Related JP3511278B2 (en) | 1996-01-31 | 1997-01-29 | Video anchor setting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3511278B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4226730B2 (en) | 1999-01-28 | 2009-02-18 | 株式会社東芝 | Object region information generation method, object region information generation device, video information processing method, and information processing device |
EP2395456A1 (en) * | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Methods and systems for semantic label propagation |
JPWO2013084422A1 (en) * | 2011-12-08 | 2015-04-27 | 日本電気株式会社 | Information processing apparatus, communication terminal, information retrieval method, and program |
JP5838791B2 (en) * | 2011-12-22 | 2016-01-06 | 富士通株式会社 | Program, image processing apparatus and image processing method |
CN110223236B (en) * | 2013-03-25 | 2023-09-26 | 图象公司 | Method for enhancing image sequences |
JP2020077942A (en) * | 2018-11-06 | 2020-05-21 | パロニム株式会社 | Area setting device, area setting method, and program |
JP7398869B2 (en) * | 2019-02-08 | 2023-12-15 | 東芝Itコントロールシステム株式会社 | Image data extraction device and image data extraction method |
CN111222476B (en) | 2020-01-10 | 2023-06-06 | 北京百度网讯科技有限公司 | Video time sequence action detection method and device, electronic equipment and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0352070A (en) * | 1989-07-20 | 1991-03-06 | Nippon Telegr & Teleph Corp <Ntt> | Related information reference system for moving image |
JPH03292571A (en) * | 1990-04-11 | 1991-12-24 | Matsushita Electric Ind Co Ltd | Setting system for image operation information |
-
1997
- 1997-01-29 JP JP01498597A patent/JP3511278B2/en not_active Expired - Fee Related
Non-Patent Citations (5)
Title |
---|
平田,川崎,高野,原「ネットワーク環境化における動画ハイパーメディア実装方式」情報処理学会シンポジウム論文集,Vol.94,No.13,p.165−173,1994(平6−12−7) |
田中一生,田中譲 「ハイパームービーのアーキテクチャとその応用」 情報処理学会研究報告 Vol.96,No.119(96−IM−28),p.73−77(平8−11−29) |
高野,的場,原「ハイパーメディアのためのビデオデータモデルの一考察」情報処理学会第46回(平成5年前期)全国大会講演論文集(4)p.221−222 (平5−3−23) |
高野,的場,原「ビデオ・ハイパーメディアのナビゲーション方式」第8回ヒューマン・インタフェース・シンポジウム論文集,p.607−612,1992(平4−10−21) |
高野,的場,原「ビデオデータ中に現れる物体をノードとするハイパーメディア構成方式」第7回ヒューマン・インタフェース・シンポジウム論文集 ,p.301−306,1991(平3−10−23) |
Also Published As
Publication number | Publication date |
---|---|
JPH10187759A (en) | 1998-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0788063B1 (en) | Apparatuses for setting anchors in moving images and hypermedia | |
US6144972A (en) | Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique | |
US7110592B2 (en) | Image recording apparatus, image reproducing apparatus and methods therefor | |
US6462754B1 (en) | Method and apparatus for authoring and linking video documents | |
US5768447A (en) | Method for indexing image information using a reference model | |
EP2127368B1 (en) | Concurrent presentation of video segments enabling rapid video file comprehension | |
US11758082B2 (en) | System for automatic video reframing | |
Tompkin et al. | Videoscapes: exploring sparse, unstructured video collections | |
US20040012621A1 (en) | Hyper-media information providing method, hyper-media information providing program and hyper-media information providing apparatus | |
JPH06101018B2 (en) | Search of moving image database | |
JP6949612B2 (en) | Video playback device, its control method, and program | |
CN112887794B (en) | Video editing method and device | |
WO2008089471A1 (en) | In-scene editing of image sequences | |
JP3511278B2 (en) | Video anchor setting device | |
JP3907344B2 (en) | Movie anchor setting device | |
JP2007192988A (en) | Object enhancement display system in video reproduction system and object locus overlay display system, and player device and server device used for the display systems | |
Sugimoto et al. | Building movie map-a tool for exploring areas in a city-and its evaluations | |
US6549245B1 (en) | Method for producing a visual rhythm using a pixel sampling technique | |
JP2009200601A (en) | Video editing device and method | |
CN114979743A (en) | Method, device, equipment and medium for displaying audiovisual works | |
JP3175760B2 (en) | Video anchor creation system | |
CN115311325A (en) | Timeline-based object trajectory annotation | |
JP2735197B2 (en) | Graphic input device | |
JPH08235344A (en) | Scenario editor | |
CN115048010A (en) | Method, device, equipment and medium for displaying audiovisual works |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20031222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110116 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120116 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |