JP7420585B2 - AR display control device, its program, and AR display system - Google Patents
AR display control device, its program, and AR display system Download PDFInfo
- Publication number
- JP7420585B2 JP7420585B2 JP2020026834A JP2020026834A JP7420585B2 JP 7420585 B2 JP7420585 B2 JP 7420585B2 JP 2020026834 A JP2020026834 A JP 2020026834A JP 2020026834 A JP2020026834 A JP 2020026834A JP 7420585 B2 JP7420585 B2 JP 7420585B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- display control
- display
- mode
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 6
- 239000011521 glass Substances 0.000 description 58
- 210000000988 bone and bone Anatomy 0.000 description 52
- 238000010586 diagram Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
特許法第30条第2項適用 (1)「一般社団法人電子情報学会」が2019年12月4日に「Web予稿集」を発表Application of
特許法第30条第2項適用 (2)「一般社団法人電子情報学会」が2019年12月11日~13日に開催した「HCGシンポジウム2019」において2019年12月13日に発表Application of
本発明は、AR表示装置に相手を表示させるAR表示制御装置及びそのプログラム、並びに、AR表示システムに関する。 The present invention relates to an AR display control device that causes an AR display device to display a partner, a program thereof, and an AR display system.
近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)に関する研究が行われている。例えば、3次元仮想空間内に利用者の分身(アバタ)を表示し、利用者同士で3次元仮想空間を共有する技術が提案されている(特許文献1,2)。これら特許文献1,2に記載の手法は、3次元仮想空間内での対話を促進するため、互いの分身の視線を合わせるものである。
In recent years, research on virtual reality (VR) and augmented reality (AR) has been conducted. For example, a technology has been proposed in which a user's alter ego (avatar) is displayed in a three-dimensional virtual space and the three-dimensional virtual space is shared among the users (
前記した特許文献1,2に記載の技術では、利用者の実写モデルを扱えない上、利用者同士で3次元仮想空間を共有しながらテレビ番組を視聴することも困難である。このため、テレビ番組の視聴における空間共有では、ARグラス等のAR表示装置の利用が現実的である。つまり、テレビ番組を視聴するときに利用者のAR表示装置に相手を表示すれば、テレビ番組の視聴における空間共有を実現できる。
The techniques described in
また、本願発明者らにより、空間共有に関する研究も行われている。例えば、2人でテレビ番組を視聴している際、相手が利用者の前方にいるとき(例えば、視界に入っているとき)に「2人でテレビ番組を視聴している」という印象が強くなると考えられる。 The inventors of the present application are also conducting research on space sharing. For example, when two people are watching a TV program, when the other person is in front of the user (for example, within the user's field of vision), the impression that ``two people are watching the TV program'' becomes stronger. It is considered to be.
ここで、AR表示装置において、利用者の視界に入るように相手を前方に表示している場合を考える。この場合、現実世界で相手が自分を振り向いても、利用者のAR表示装置では、相手が利用者の前方に位置するため、相手が完全に利用者を振り向いていない状態となる。このように、AR表示装置では、相手が途中までしか振り向かない状態で表示されてしまうため、利用者に違和感を与えてしまう。 Here, consider a case where the AR display device displays the other party in front of the user so as to be within the user's field of vision. In this case, even if the other party looks back at the user in the real world, the other party is located in front of the user on the user's AR display device, so the other party does not look back at the user at all. In this manner, in the AR display device, the other party is displayed in a state where the other party only turns halfway, which gives the user a sense of discomfort.
本発明は、空間共有での違和感を低減できるAR表示制御装置及びそのプログラム、並びに、AR表示システムを提供することを課題とする。 An object of the present invention is to provide an AR display control device, a program therefor, and an AR display system that can reduce discomfort when sharing a space.
前記課題を解決するため、本発明に係るAR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、視線情報受信部と、モード判定部と、リダイレクションモード表示制御部と、リアルモード表示制御部と、復帰モーションモード表示制御部と、を備える構成とした。 In order to solve the above problems, an AR display control device according to the present invention connects a second person who views another video display device to an AR display device worn by a first person who views the video display device. An AR display control device that displays images on the side of a video display device viewed by a person, the AR display control device comprising: a line-of-sight information receiving section, a mode determining section, a redirection mode display control section, a real mode display control section, and a return mode display control section. The motion mode display control section is configured to include a motion mode display control section.
かかる構成によれば、視線情報受信部は、第2の人物が第1の人物を見ているか、又は、第2の人物が第1の人物から目をそらしたかを示す視線情報を受信する。
モード判定部は、視線情報に基づいて、第2の人物が所定時間以上第1の人物を見続けている場合にはリダイレクションモードと判定し、第2の人物が第1の人物から目をそらした場合にはリアルモードと判定し、リダイレクションモードと判定された後、第2の人物が所定時間以上第1の人物から目をそらし続けている場合には復帰モーションモードと判定する。
According to this configuration, the line-of-sight information receiving unit receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person. .
The mode determination unit determines that the second person is in redirection mode when the second person continues to look at the first person for a predetermined time or more based on the line of sight information, and the mode determination unit determines that the second person is in redirection mode when the second person looks away from the first person. If the second person continues to look away from the first person for a predetermined period of time after the redirection mode is determined, the mode is determined to be the return motion mode.
リダイレクションモード表示制御部は、リダイレクションモードと判定された場合には、第2の人物が第1の人物を振り向くようにAR表示装置に表示させる。
リアルモード表示制御部は、リアルモードと判定された場合には、第2の人物を実際の姿勢でAR表示装置に表示させる。
復帰モーションモード表示制御部は、復帰モーションモードと判定された場合には、第1の人物に振り向いている第2の人物が実際の姿勢に復帰するようにAR表示装置に表示させる。
このように、AR表示装置では、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
When the redirection mode is determined, the redirection mode display control unit causes the AR display device to display the second person looking back at the first person.
When the real mode is determined, the real mode display control unit displays the second person in an actual posture on the AR display device.
When the return motion mode is determined, the return motion mode display control unit causes the AR display device to display a state in which the second person, who is turning toward the first person, returns to its actual posture.
In this way, in the AR display device, even when the second person is displayed in front of the first person, the second person is in a state where the second person is looking back at the first person.
また、前記課題を解決するため、本発明に係るAR表示システムは、他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、撮影カメラの撮影映像を用いて、第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、前記したAR表示制御装置と、を備える構成とした。 Further, in order to solve the above-mentioned problems, an AR display system according to the present invention uses a photographing camera that photographs a second person viewing another video display device, and a photographed image of the photographing camera to display the second person. The configuration includes a three-dimensional model/posture information generation device that generates a three-dimensional model and posture information, and the above-mentioned AR display control device.
かかる構成によれば、AR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、第2の人物を第1の人物が視聴する映像表示装置の側となるように表示する。
このように、AR表示システムでは、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
According to this configuration, the AR display control device connects the second person to the AR display device worn by the first person viewing the video display device so that the second person is on the side of the video display device viewed by the first person. to be displayed.
In this manner, in the AR display system, even when the second person is displayed in front of the first person, the second person is in a state looking back at the first person.
なお、本発明は、コンピュータを、前記したAR表示制御装置として機能させるためのプログラムで実現することもできる。 Note that the present invention can also be realized by a program for causing a computer to function as the above-mentioned AR display control device.
本発明によれば、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となるので、空間共有での違和感を低減することができる。 According to the present invention, even when the second person is displayed in front of the first person, the second person is in a state where he or she is looking back at the first person, which reduces discomfort when sharing space. can do.
以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、各実施形態において、同一の手段には同一の符号を付し、説明を省略することがある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and unless there is a specific description, the present invention is not limited to the following embodiments. Further, in each embodiment, the same means may be denoted by the same reference numerals, and a description thereof may be omitted.
(第1実施形態)
[AR表示システムの概要]
図1~図5を参照し、AR表示システム1の概要について説明する。
図1に示すように、AR表示システム1は、ARグラス(AR表示装置)4を用いて、テレビ番組の視聴における空間共有を実現するものである。ここで、ARグラス4(4A,4B)を装着した2人の人物H(HA,HB)が、異なる場所に配置された映像表示装置6(6A,6B)でテレビ番組を視聴している。
(First embodiment)
[Overview of AR display system]
An overview of the
As shown in FIG. 1, an
このとき、AR表示システム1は、図2(a)に示すように、人物(第1の人物)HAが装着するARグラス4Aに人物(第2の人物)HBを、人物HAから見て映像表示装置6Aの側にCG合成して表示する。従って、図5(a)に示すように、人物HAが装着するARグラス4Aには、人物HBが前方に表示されている。これと同様、AR表示システム1は、図2(b)に示すように、人物HBが装着するARグラス4Bに人物HAを、人物HBから見て映像表示装置(他の映像表示装置)6Bの側にCG合成して表示する。
なお、図2~図4では、ARグラス4を装着している人物Hを実線で図示し、CG合成で表示されている人物Hを破線で図示した。
At this time, as shown in FIG. 2(a), the
In addition, in FIGS. 2 to 4, the person H wearing the
ここで、人物HBが人物HAに振り向いた場合を考える。図3(b)に示すように、人物HBのARグラス4Bでは人物HAが前方に表示されている。従って、人物HBが人物HAに振り向くときの動作(頭部回転量)が小さくなるが、人物HBの頭部は人物HAの方向を向いている。その一方、図3(a)に示すように、人物HAのARグラス4Aでも人物HBが前方に表示されているため、図5(b)に示すように、人物HBが人物HAを完全に振り向いていない状態となる。つまり、人物HBが人物HAを振り向くときの頭部回転量が足らず、人物HBの頭部が人物HAの方向を向いていない。そこで、AR表示システム1では、図4(a)及び図5(c)に示すように、人物HBが人物HAを完全に振り向くようにリダイレクション処理を行う。
Now, consider a case where person HB turns to person HA . As shown in FIG. 3(b), the person HA is displayed in front of the person HB 's AR glasses 4B . Therefore, the movement (amount of head rotation) when the person HB turns towards the person HA becomes smaller, but the head of the person HB is still facing the direction of the person HA . On the other hand, as shown in FIG. 3(a), the person HB is also displayed in front of the AR glasses 4A of the person HA , so the person HB is displayed in front of the person H as shown in FIG. It will be in a state where you are not looking at A completely. In other words, the amount of head rotation when the person HB turns toward the person HA is insufficient, and the head of the person HB is not facing the direction of the person HA . Therefore, in the
なお、テレビ番組の視聴における空間共有では、人物HBの表示位置は、人物HAの前方であれば任意に設定できる(人物HAの表示位置も同様)。例えば、人物HAから見て人物HBを1メートル前方に表示する。このとき、テレビ番組の視聴を妨害しないように、人物HAの斜め前方に人物HBを表示してもよい。
以後、人物HA,HBの一方を「自分」、人物HA,HBの他方を「相手」と記載する場合がある。
In space sharing for viewing a television program, the display position of the person HB can be set arbitrarily as long as it is in front of the person HA (the same applies to the display position of the person HA ). For example, the person HB is displayed one meter in front of the person HA . At this time, the person HB may be displayed diagonally in front of the person HA so as not to interfere with viewing the television program.
Hereinafter, one of the persons HA and HB may be referred to as "self," and the other person HA and HB may be referred to as the "other party."
[AR表示システムの構成]
図1及び図6を参照し、AR表示システム1の構成について説明する。
図1及び図6に示すように、AR表示システム1は、カメラ2と、キャプチャ装置3と、ARグラス4と、AR表示制御装置5とを備える。このAR表示システム1では、ケーブルを介して、カメラ2とキャプチャ装置3とが接続されている。また、AR表示システム1では、AR表示制御装置5がARグラス4に内蔵されており、インターネット等のネットワークNWを介して、キャプチャ装置3とAR表示制御装置5とが接続されている。
[Configuration of AR display system]
The configuration of the
As shown in FIGS. 1 and 6, the
ここで、AR表示システム1は、2人の人物HA,HBに対応するように、2台のカメラ2(2A,2B)と、2台のキャプチャ装置3(3A,3B)と、2台のARグラス4(4A,4B)と、2台のAR表示制御装置5(5A,5B)とを備える。これらのカメラ2、キャプチャ装置3、ARグラス4及びAR表示制御装置5は、2台とも同一の構成である。また、人物HAが視聴する映像表示装置6を映像表示装置6Aとし、人物HBが視聴する映像表示装置6を映像表示装置6Bとする。
Here, the
カメラ2は、人物Hを撮影する一般的なカメラであり、人物Hの撮影映像をキャプチャ装置3に出力する。この撮影映像は、キャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成するために必要となる。ここで、カメラ2Aが人物HAの撮影映像をキャプチャ装置3Aに出力し、カメラ2Bが人物HBの撮影映像をキャプチャ装置3Bに出力する。例えば、カメラ2は、人物Hに正対するように映像表示装置6の上部中央に配置されている。また、カメラ2は、1台の一般的なRGBカメラで構成されているが、ステレオカメラやデプスカメラ付きRGBカメラであってもよい。
The
キャプチャ装置3は、カメラ2から入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。この3DCGモデルは、人物Hの3次元モデルである。また、ボーン情報は、人物Hの各関節の位置、つまり、人物Hの姿勢を表す姿勢情報である。そして、キャプチャ装置3は、ネットワークNWを介して、生成した人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。
The
ここで、自分の3DCGモデル及びボーン情報は、相手のARグラス4に自分を表示するために必要となる。このため、キャプチャ装置3Aは、人物HAの3DCGモデル及びボーン情報を、人物HBのAR表示制御装置5Bに送信し続ける。これと同様、キャプチャ装置3Bは、人物HBの3DCGモデル及びボーン情報を、人物HAのAR表示制御装置5Aに送信し続ける。
なお、キャプチャ装置3の構成は、後記する。
Here, your own 3DCG model and bone information are necessary to display yourself on the other party's
Note that the configuration of the
ARグラス4は、一般的なARグラスと同様にARディスプレイ41を備える他、AR表示制御装置5を内蔵している(図8)。また、ARグラス4は、人物Hの視線を検出する視線センサ40を備え、視線センサ40による視線検出結果をAR表示制御装置5に出力する。
The
AR表示制御装置5は、映像表示装置6で視聴する自分が装着するARグラス4に、他の映像表示装置6で視聴する相手を映像表示装置6の側に表示するものである。また、AR表示制御装置5は、キャプチャ装置3から受信した相手の3DCGモデル及びボーン情報を用いて、相手が完全に自分を振り向くようにリダイレクション処理を行う。
The AR
ここで、AR表示制御装置5では、リダイレクション処理の要否を判定するために視線人物情報(視線情報)が必要となる。この視線人物情報は、相手が自分を見ているか、又は、相手が自分から目をそらしたかを示す情報である。このため、AR表示制御装置5は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信し続ける。
Here, the AR
以上を整理すると、人物HAのAR表示制御装置5Aは、キャプチャ装置3Bから受信した人物HBの3DCGモデル及びボーン情報を用いて、人物HAのARグラス4Aに人物HBを表示させる。このとき、AR表示制御装置5Aは、AR表示制御装置5Bから受信した人物HBの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物HBが完全に人物HAを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5Aは、人物HAの視線人物情報を生成してAR表示制御装置5Bに送信する。 To summarize the above, the AR display control device 5A of the person HA displays the person HB on the AR glasses 4A of the person HA using the 3DCG model and bone information of the person HB received from the capture device 3B . Display. At this time, the AR display control device 5A determines whether redirection processing is necessary based on the line-of-sight person information of the person HB received from the AR display control device 5B , and the person HB completely turns around to face the person HA . Perform redirection processing as follows. Further, the AR display control device 5A generates line-of-sight person information of the person HA and transmits it to the AR display control device 5B .
これと同様、人物HBのAR表示制御装置5Bは、キャプチャ装置3Aから受信した人物HAの3DCGモデル及びボーン情報を用いて、人物HBのARグラス4Bに人物HAを表示させる。このとき、AR表示制御装置5Bは、AR表示制御装置5Aから受信した人物HAの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物HAが完全に人物HBを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5Bは、人物HBの視線人物情報を生成してAR表示制御装置5Aに送信する。
なお、AR表示制御装置5の構成は、後記する。
Similarly, the AR display control device 5B of the person HB displays the person HA on the AR glasses 4B of the person HB using the 3DCG model and bone information of the person HA received from the capture device 3A . let At this time, the AR display control device 5B determines whether redirection processing is necessary based on the line-of-sight information of the person HA received from the AR display control device 5A , and the person HA completely turns around to face the person HB . Perform redirection processing as follows. Furthermore, the AR display control device 5B generates line-of-sight person information of the person HB and transmits it to the AR display control device 5A .
Note that the configuration of the AR
映像表示装置6は、例えば、テレビ番組を表示する一般的な放送受信機である。また、映像表示装置6は、テレビ番組以外の映像コンテンツ(例えば、ネットワークNWで配信される映像コンテンツ)を表示してもよい。なお、映像表示装置6は、AR表示システム1に含まれていないが、AR表示システム1に密接に関連するので図示した。
The video display device 6 is, for example, a general broadcast receiver that displays television programs. Furthermore, the video display device 6 may display video content other than television programs (for example, video content distributed over the network NW). Although the video display device 6 is not included in the
[キャプチャ装置の構成]
図7を参照し、キャプチャ装置3の構成について説明する。なお、図7では、ネットワークNWの図示を省略した。
キャプチャ装置3は、撮影映像入力部30と、3DCGモデル生成部31と、ボーン情報生成部32と、3DCG・ボーン情報送信部33とを備える。
[Capture device configuration]
The configuration of the
The
撮影映像入力部30は、カメラ2から自分の撮影映像を入力するものである。そして、撮影映像入力部30は、入力された自分の撮影映像を3DCGモデル生成部31に出力する。
The photographed
3DCGモデル生成部31は、撮影映像入力部30から入力された自分の撮影映像を用いて、自分の3DCGモデルを生成するものである。
ここで、3DCGモデル生成部31は、3DCGモデルを任意の手法で生成できる。カメラ2が1台のRGBカメラで構成されている場合、3DCGモデル生成部31は、ディープラーニングにより3DCGモデルを生成できる。例えば、3DCGモデル生成部31は、人物の写真を学習させたニューラルネットワークにより、自分の撮影映像に含まれる各フレームから3DCGモデルを生成すればよい。また、カメラ2がステレオカメラの場合、3DCGモデル生成部31は、ステレオ画像から奥行き情報を求め、この奥行き情報から3DCGモデルを生成できる。また、カメラ2がデプスカメラ付きRGBカメラの場合、3DCGモデル生成部31は、デプスカメラの映像が奥行き情報を表すので、ステレオカメラと同様に3DCGモデルを生成できる。
そして、3DCGモデル生成部31は、生成した自分の3DCGモデルをボーン情報生成部32及び3DCG・ボーン情報送信部33に出力する。
The 3DCG
Here, the 3DCG
Then, the 3DCG
ボーン情報生成部32は、3DCGモデル生成部31から入力された自分の3DCGモデルを用いて、その自分のボーン情報を生成するものである。つまり、ボーン情報生成部32は、3DCGモデルを動作させるために、3DCGモデルに対応したボーン情報を生成する。ここで、ボーン情報生成部32は、任意の手法(例えば、参考文献1に記載のクイックリグ)でボーン情報を生成できる。そして、ボーン情報生成部32は、生成した自分のボーン情報を3DCG・ボーン情報送信部33に出力する。
The bone
参考文献1:Maya(登録商標)、[online]、オートデスク株式会社、[令和2年2月13日検索]、インターネット〈URL:https://www.autodesk.co.jp/products/maya/overview〉 Reference 1: Maya (registered trademark), [online], Autodesk Corporation, [searched on February 13, 2020], Internet <URL: https://www.autodesk.co.jp/products/maya/ overview〉
3DCG・ボーン情報送信部33は、3DCGモデル生成部31から入力された自分の3DCGモデルと、ボーン情報生成部32から入力された自分のボーン情報とを相手側のAR表示制御装置5に送信するものである。
ここで、3DCG・ボーン情報送信部33は、3DCGモデル及びボーン情報を任意の頻度で送信できる。例えば、3DCG・ボーン情報送信部33は、3DCGモデルの送信頻度を低くすると、ネットワークNWの帯域を節約できる。一方、3DCG・ボーン情報送信部33は、ボーン情報の送信頻度を高くすると、3DCGモデルの姿勢変化が滑らかになる。
The 3DCG/
Here, the 3DCG/
[AR表示制御装置の構成]
図8を参照し、AR表示制御装置5の構成について説明する。なお、図8では、ネットワークNWの図示を省略した。
[Configuration of AR display control device]
The configuration of the AR
図8に示すように、AR表示制御装置5は、視線入力部50と、視線判定処理部51と、視線人物情報送信部(視線情報送信部)52と、3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)53と、視線人物情報受信部(視線情報受信部)54と、モード判定部55と、モーションパス情報記録部56と、リダイレクションモード表示制御部57Aと、リアルモード表示制御部57Bと、復帰モーションモード表示制御部57Cと、バーチャル表示部58とを備える。
As shown in FIG. 8, the AR
視線入力部50は、視線センサ40から自分の視線検出結果を入力するものである。そして、視線入力部50は、入力された自分の視線検出結果を視線判定処理部51に出力する。
The line-of-
視線判定処理部51は、視線入力部50から入力された自分の視線検出結果に基づいて、自分が相手を見ているか否かを判定するものである。
ここで、視線判定処理部51は、後記するバーチャル表示部58から、ARグラス4に表示されている相手領域の情報が入力されると共に、視線入力部50から、自分の視線検出結果が入力される。この場合、視線判定処理部51は、ARグラス4を装着した自分の視線がARグラス4に表示されている相手領域に重なっているか否かにより、自分が相手を見ているか否かを判定する。つまり、視線判定処理部51は、自分の視線が相手領域に重なっている場合、自分が相手を見ていると判定する。一方、視線判定処理部51は、自分の視線が相手領域に重なっていない場合、自分が相手から目をそらしたと判定する。
その後、視線判定処理部51は、自分が相手を見ているか否かの判定結果を、視線人物情報として視線人物情報送信部52に出力する。
The line of sight
Here, the line-of-sight
Thereafter, the line-of-sight
視線人物情報送信部52は、ネットワークNWを介して、視線判定処理部51から入力された自分の視線人物情報を相手側のAR表示制御装置5に送信するものである。
The line-of-sight person
3DCG・ボーン情報受信部53は、ネットワークNWを介して、相手の3DCGモデル及びボーン情報を相手側のキャプチャ装置3から受信するものである。そして、3DCG・ボーン情報受信部53は、受信した相手の3DCG・ボーン情報をモード判定部55に出力する。
The 3DCG/bone
視線人物情報受信部54は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信するものである。そして、視線人物情報受信部54は、受信した相手の視線人物情報をモード判定部55に出力する。
The line-of-sight person
モード判定部55は、視線人物情報受信部54から入力された相手の視線人物情報に基づいて、リダイレクションモード、リアルモード及び復帰モーションモードの判定を行うものである。
具体的には、モード判定部55は、相手が自分を所定時間以上見続けている場合にリダイレクションモードと判定する。この場合、モード判定部55は、後記するリダイレクションモード表示制御部57Aに対して、リダイレクションモードを指令し、3DCG・ボーン情報を出力する。
また、モード判定部55は、相手が自分から目をそらした場合にリアルモードと判定する。この場合、モード判定部55は、後記するリアルモード表示制御部57Bに対して、リアルモードを指令し、3DCG・ボーン情報を出力する。
さらに、モード判定部55は、リダイレクションモードと判定された後、相手が自分から所定時間以上目をそらし続けている場合に復帰モーションモードと判定する。この場合、モード判定部55は、後記する復帰モーションモード表示制御部57Cに対して、復帰モーションモードを指令し、3DCG・ボーン情報を出力する。
The
Specifically, the
Further, the
Further, the
モーションパス情報記録部56は、モーションパス情報を予め記録するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置である。このモーションパス情報は、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cによって参照される。なお、モーションパスの詳細は、後記する。
The motion path
リダイレクションモード表示制御部57Aは、モード判定部55でリダイレクションモードと判定された場合、相手をリダイレクションモードで表示するようにバーチャル表示部58を制御するものである。このリダイレクションモードとは、相手が完全に自分を振り向くようにARグラス4に表示させるモードのことである。このとき、リダイレクションモード表示制御部57Aは、相手の3DCGモデルが自分を自然に振り向くように所定のモーションパスで表示させる。
The redirection mode
ここで、図9(a)~(c)に示すように、相手が振り向く場合、単純に頭部の角度が変化するのではなく、頭部の中心位置(重心位置)PCや体の姿勢も変化する。なお、図9には、頭部の方向を一点鎖線で図示した。そこで、リダイレクションモード表示制御部57Aは、相手の振り向く動作が自然となるように、3DCGモデルの体(肩、腕等の上半身)を頭部に追随させることが好ましい。例えば、リダイレクションモード表示制御部57Aでは、IK(Inverse Kinematics)を用いることで、3DCGモデルの体を頭部に追随させることができる。
Here, as shown in FIGS. 9(a) to (c), when the opponent turns around, the angle of the head does not simply change, but the center position of the head (center of gravity) P C and the posture of the body change. also changes. In addition, in FIG. 9, the direction of the head is illustrated with a dashed line. Therefore, it is preferable that the redirection mode
リアルモード表示制御部57Bは、モード判定部55でリアルモードと判定された場合、相手をリアルモードで表示するようにバーチャル表示部58を制御するものである。このリアルモードとは、相手を実際の姿勢でARグラス4に表示させるモードのことである。つまり、リアルモード表示制御部57Bは、相手の3DCGモデルをボーン情報の姿勢で表示させる。
The real mode
復帰モーションモード表示制御部57Cは、モード判定部55で復帰モーションモードと判定された場合、相手を復帰モーションモードで表示するようにバーチャル表示部58を制御するものである。この復帰モーションモードとは、自分に振り向いている相手が実際の姿勢に復帰するようにARグラス4に表示させるモードのことである。このとき、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aのモーションパスと逆のモーションパスで、相手の3DCGモデルが実際の姿勢に復帰するように表示させる。
The return motion mode
バーチャル表示部58は、リダイレクションモード表示制御部57A、リアルモード表示制御部57B、及び、復帰モーションモード表示制御部57Cからの制御に従って、相手をARグラス4(ARディスプレイ41)にCG合成して表示するものである。つまり、バーチャル表示部58は、リダイレクションモード、リアルモード又は復帰モーションモードの何れかで相手をARグラス4にバーチャル表示する。さらに、バーチャル表示部58は、ARグラス4に表示されている相手領域の情報を視線判定処理部51に出力する。
The
[AR表示制御装置の動作]
図10を参照し、AR表示制御装置5の動作を説明する。
以下、人物HAのARグラス4Aに人物HBを表示するときのAR表示制御装置5Aの動作を一例として説明する。また、人物HAを「自分」とし、人物HBを「相手」と記載する場合がある。
[Operation of AR display control device]
The operation of the AR
Hereinafter, the operation of the AR display control device 5A when displaying the person HB on the AR glasses 4A of the person HA will be described as an example. Further, the person HA may be written as "self" and the person HB may be written as "other party."
まず、AR表示システム1の全体動作を整理する。
相手側のカメラ2Bが人物HBを撮影し、カメラ2Bの撮影映像を用いて、相手側のキャプチャ装置3Bが人物HBの3DCGモデル及びボーン情報を生成する。そして、相手側のキャプチャ装置3Bが、人物HBの3DCGモデル及びボーン情報を、自分のAR表示制御装置5Aに送信する。さらに、相手側のAR表示制御装置5Bが、人物HBの視線人物情報を自分のAR表示制御装置5Aに送信する。
First, the overall operation of the
The other party's camera 2B photographs the person HB , and the other party's capture device 3B generates a 3DCG model and bone information of the person HB using the captured image of the
そして、自分のAR表示制御装置5Aが、人物HBの3DCGモデルとボーン情報と視線人物情報とを用いて、人物HAのARグラス4Aに人物HBを表示させる。このとき、AR表示制御装置5Aは、以下で説明する動作を行う。 Then, the own AR display control device 5A displays the person HB on the AR glasses 4A of the person HA using the 3DCG model, bone information, and line-of-sight person information of the person HB . At this time, the AR display control device 5A performs the operation described below.
図10に示すように、AR表示制御装置5Aのモード判定部55は、初期状態S0からリアルモード状態S1に遷移する。例えば、ARグラス4Aの電源投入時又はリセット時、AR表示制御装置5Aが初期状態になる。
As shown in FIG. 10, the
リアルモード状態S1において、モード判定部55は、リアルモード表示制御部57Bにリアルモードを指令する。すると、リアルモード表示制御部57Bは、人物HAのARグラス4Aに人物HBをリアルモードで表示させる。
In the real mode state S1, the
また、リアルモード状態S1において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見たか否かを判定する。
人物HBが自分を見た場合、モード判定部55は、リアルモード(判定処理)状態S2に遷移する。
Furthermore, in the real mode state S1, the
When the person HB looks at himself, the
リアルモード(判定処理)状態S2において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見続けている時間t1が、予め設定された閾値T1以上であるか否かを判定する。この閾値T1は、任意の値で設定できる(例えば、閾値T1=1秒)。
時間t1が閾値T1以上の場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
In the real mode (determination process) state S2, the
If the time t 1 is equal to or greater than the threshold T 1 , the
また、リアルモード(判定処理)状態S2において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらしたか否かを判定する。
人物HBが自分から目をそらした場合、モード判定部55は、リアルモード状態S1に遷移する。
人物HBが自分から目をそらしておらず、かつ、時間t1が閾値T1未満の場合、モード判定部55は、リアルモード(判定処理)状態S2の状態を維持する。
Furthermore, in the real mode (determination processing) state S2, the
When the person HB looks away from himself, the
If the person H B is not looking away from himself and the time t 1 is less than the threshold T 1 , the
リダイレクションモード状態S3において、モード判定部55は、リダイレクションモード表示制御部57Aにリダイレクションモードを指令する。すると、リダイレクションモード表示制御部57Aは、人物HAのARグラス4Aに人物HBをリダイレクションモードで表示させる。
In the redirection mode state S3, the
また、リダイレクションモード状態S3において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらしたか否かを判定する。
人物HBが自分から目をそらした場合、モード判定部55は、リダイレクションモード(判定処理)状態S4に遷移する。
人物HBが自分を見ている場合、モード判定部55は、リダイレクションモード状態S3の状態を維持する。
Furthermore, in the redirection mode state S3, the
When the person HB looks away from himself, the
When the person HB is looking at himself, the
リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらし続けている時間t2が、予め設定された閾値T2以上であるか否かを判定する。この閾値T2は、任意の値で設定できる(例えば、閾値T2=1秒)。
時間t2が閾値T2以上の場合、モード判定部55は、復帰モーションモード状態S5に遷移する。
In the redirection mode (determination process) state S4, the
If the time t 2 is equal to or greater than the threshold T 2 , the
また、リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見たか否かを判定する。
人物HBが自分を見た場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
人物HBが自分を見ておらず、かつ、時間t2が閾値T2未満の場合、モード判定部55は、リダイレクションモード(判定処理)状態S4の状態を維持する。
Furthermore, in the redirection mode (determination processing) state S4, the
When the person HB looks at himself, the
If the person H B is not looking at the user and the time t 2 is less than the threshold T 2 , the
復帰モーションモード状態S5において、モード判定部55は、復帰モーションモード表示制御部57Cに復帰モーションモードを指令する。すると、復帰モーションモード表示制御部57Cは、人物HAのARグラス4Aに人物HBを復帰モーションモードで表示させる。
復帰モーションが終了すると、モード判定部55は、リアルモード状態S1に遷移する。
In the return motion mode state S5, the
When the return motion ends, the
なお、人物HBのARグラス4Bに人物HAを表示するときのAR表示制御装置5Bの動作も同様のため、説明を省略する。 Note that the operation of the AR display control device 5B when displaying the person HA on the AR glasses 4B of the person HB is also the same, so the explanation will be omitted.
[モーションパス]
図11及び図12を参照し、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cにおけるモーションパスについて説明する。
[Motion path]
Motion paths in the redirection mode
リダイレクションモード表示制御部57Aは、人物HBの頭部が実際の姿勢(頭部角度θ1)から人物HAを振り向く角度(頭部角度θ2)まで、人物HBの3DCGモデルが人物HAを振り向くように連続的に表示させる。このとき、リダイレクションモード表示制御部57Aは、モーションパス情報記録部56のモーションパス情報を用いて、頭部角度θ1から頭部角度θ2までのモーションパスを決定する。
The redirection mode
図11に示すように、モーションパス情報MPは、人物HBの頭部角度θ毎に、頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)を示す情報である。つまり、モーションパス情報MPは、前方(角度θ=0°)から頭部角度θまでの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)の変化量を示す。なお、図11のモーションパス情報MPでは、頭部角度θが30°間隔になっているが、頭部角度θの間隔は特に限定されない。 As shown in FIG . 11, the motion path information MP includes head position (x θ , y θ , z θ ) and head rotation amount (rx θ , ry θ , rz θ ). In other words, the motion path information MP includes the head position (x θ , y θ , z θ ) and the amount of head rotation (rx θ , ry θ , rz θ ) from the front (angle θ = 0°) to the head angle θ . ) shows the amount of change. Note that in the motion path information MP of FIG. 11, the head angles θ are spaced at intervals of 30°, but the intervals of the head angles θ are not particularly limited.
図12(a)に示すように、AR表示制御装置5Aでは、実際の姿勢(頭部角度θ1)における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を常に把握している。従って、リダイレクションモード表示制御部57Aは、実際の姿勢(頭部角度θ1)における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物HAを基準とする座標系に座標変換することで、図12(b)に示すように、人物HAを振り向く角度(頭部角度θ2)を算出できる。この座標変換は、人物HAのARグラス4Aにおいて、人物HBを表示させるときのものと同様である。なお、人物HBの頭部の方向は、Y軸を鉛直とする方向ryで表される(人物HBの正面として映像表示装置6Bの方向(図12(b)の上方向)を0°とする)。
As shown in FIG. 12(a ) , the AR display control device 5A determines the head position (x, y, z ) and head rotation amount (rx , ry, rz). Therefore, the redirection mode
そして、リダイレクションモード表示制御部57Aは、算出した頭部角度θ2に応じたモーションパスで、人物HBが人物HAを振り向くようにARグラス4Aに表示させる。以下、モーションパスの決定について、2つの具体例をあげて説明する。
Then, the redirection mode
<モーションパスの決定:第1例>
この第1例の手法では、リダイレクションモードと判定された時刻t=0とし、時刻t=T3のときの人物HBが人物HAを完全に振り向くように、各時刻tのモーションパスを決定する(但し、0≦t≦T3)。
<Determination of motion path: 1st example>
In the method of this first example, the time t=0 when the redirection mode is determined is set, and the motion path at each time t is determined so that the person HB at time t= T3 completely turns around the person HA . (However, 0≦t≦T 3 ).
ここで、各時刻tの頭部角度θtを算出する関数は、以下の式(1)で表される。また、人物HBの頭部をより自然にリダイレクションさせるため、以下の式(2)に示す2次補間関数としてもよい。 Here, a function for calculating the head angle θ t at each time t is expressed by the following equation (1). Furthermore, in order to redirect the head of the person HB more naturally, a quadratic interpolation function shown in equation (2) below may be used.
まず、リダイレクションモード表示制御部57Aは、式(1)又は式(2)の関数を用いて、頭部角度θ1,θ2から各時刻tの頭部角度θtを算出する。なお、この頭部角度θtは、座標変換前の人物HBを基準とする座標系で算出される。そして、リダイレクションモード表示制御部57Aは、図11のモーションパス情報MPから、各時刻tの頭部角度θtに対応した人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を求める。その後、リダイレクションモード表示制御部57Aは、各時刻tの人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を、人物HAを基準とする座標系に座標変換する。
First, the redirection mode
さらに、リダイレクションモード中に人物HAが動いてしまい、人物HAを振り向く角度(頭部角度θ2)が変化してしまう場合もある。この場合、リダイレクションモード表示制御部57Aは、定期的に頭部角度θ1,θ2を再計算して頭部角度θtを求め、人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を算出すればよい。
Furthermore, the person HA may move during the redirection mode, and the angle at which the person HA is turned (head angle θ 2 ) may change. In this case, the redirection mode
<モーションパスの決定:第2例>
前記した第1例の手法では、リダイレクションモードに入った時点で即座に、人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)がモーションパス情報MPの値で設定されてしまい、急な姿勢変化となって違和感を与えてしまう可能性がある。
<Determination of motion path: 2nd example>
In the method of the first example described above, the head position (x, y, z) and head rotation amount (rx, ry, rz) of the person HB are immediately updated to the motion path information MP when the redirection mode is entered. If the position is set at a value of
そこで、第2例の手法では、実際の姿勢における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)から、徐々にモーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)に近づける。 Therefore, in the method of the second example, the head position (x, y, z) and the amount of head rotation (rx, ry, rz) of the person H B in the actual posture are used to gradually adjust the head position of the motion path information MP. The position (x θ , y θ , z θ ) and head rotation amount (rx θ , ry θ , rz θ ) are approached.
説明を簡易にするため、頭部位置のx座標に着目する。リダイレクションモード表示制御部57Aは、以下の式(3)を用いて、現フレームにおける頭部位置のx座標から、次フレームにおける頭部位置のx´座標を算出する。この式(3)は、予め設定された定数kによる漸化式である。この定数kの値を大きくするほど、モーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)にゆっくりと近づく(但し、k≧1)。また、定数k=1に設定すると、第1例と同様になる。
なお、頭部位置のy座標及びz座標と、頭部回転量(rx,ry,rz)とについても、頭部位置のx座標と同様の漸化式で算出できる。
To simplify the explanation, we will focus on the x-coordinate of the head position. The redirection mode
Note that the y-coordinate and z-coordinate of the head position and the amount of head rotation (rx, ry, rz) can also be calculated using the same recurrence formula as for the x-coordinate of the head position.
復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aにおけるモーションパスと逆のモーションパスで、人物HAに振り向いている人物HBが実際の姿勢に復帰するようにARグラス4Aに表示させればよい。ここで、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aと同様の手法でモーションパスを決定できるため、説明を省略する。
また、人物HBのARグラス4Bに人物HAを表示するときのモーションパスも同様のため、説明を省略する。
The return motion mode
Further, since the motion path when displaying the person HA on the AR glasses 4B of the person HB is also similar, the description thereof will be omitted.
[作用・効果]
以上のように、第1実施形態に係るAR表示システム1は、自分のARグラス4において、相手を前方に表示する場合であっても、相手が完全に自分を振り向いた状態となるので、空間共有での違和感を低減することができる。
さらに、AR表示システム1は、自分側と相手側との装置構成が同一なので、システム構成を簡易にすることができる。
[Action/Effect]
As described above, in the
Furthermore, since the
(第2実施形態)
[AR表示システムの構成]
図13を参照し、第2実施形態に係るAR表示システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second embodiment)
[AR display system configuration]
With reference to FIG. 13, differences in the configuration of an
図13に示すように、第2実施形態に係るAR表示システム1Bは、キャプチャ装置3Bをサーバ化した点が、第1実施形態と異なる。つまり、AR表示システム1Bは、2台のカメラ2B(2BA,2BB)と、1台のキャプチャ装置3Bと、2台のARグラス4(4A,4B)と、2台のAR表示制御装置5(5A,5B)とを備える。
As shown in FIG. 13, the
カメラ2Bは、ネットワークNWを介して、人物Hの撮影映像をキャプチャ装置3Bに送信する一般的なネットワークカメラである。このとき、カメラ2Bは、撮影した人物Hの識別情報を撮影映像に付加してもよい。この識別情報を参照すれば、後記するキャプチャ装置3Bが、人物HA又は人物HBの何れの撮影映像であるか特定できる。
The
キャプチャ装置3Bは、カメラ2Bから入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。つまり、キャプチャ装置3Bは、人物HA,HBの3DCGモデル及びボーン情報を生成する。例えば、キャプチャ装置3Bは、ネットワークNW上に配置された一般的なサーバやクラウドサーバで構成できる。そして、キャプチャ装置3Bは、識別情報を参照し、人物HAの3DCGモデル及びボーン情報をAR表示制御装置5Bに送信し、人物HBの3DCGモデル及びボーン情報をAR表示制御装置5Aに送信する。
他の点、キャプチャ装置3Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The
In other respects, the
[作用・効果]
以上のように、第1実施形態に係るAR表示システム1Bは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Bは、キャプチャ装置3Bをサーバ化することで、1台のキャプチャ装置3Bで実現可能となり、システム構成をより簡易にすることができる。
[Action/Effect]
As described above, the
Furthermore, the
(第3実施形態)
[AR表示システムの構成]
図14を参照し、第3実施形態に係るAR表示システム1Cの構成について、第1実施形態と異なる点を説明する。
(Third embodiment)
[Configuration of AR display system]
With reference to FIG. 14, differences in the configuration of an
図14に示すように、第3実施形態に係るAR表示システム1Cは、キャプチャ装置3CをARグラス4Cに内蔵すると共に撮影映像を送受信する点が、第1実施形態と異なる。つまり、AR表示システム1Cは、2台のカメラ2C(2CA,2CB)と、2台のキャプチャ装置3C(3CA,3CB)と、2台のARグラス4C(4CA,4CB)と、2台のAR表示制御装置5(5A,5B)とを備える。
As shown in FIG. 14, an
カメラ2Cは、ネットワークNWを介して、人物Hの撮影映像を相手側のARグラス4Cに内蔵されたキャプチャ装置3Cに送信する一般的なネットワークカメラである。つまり、カメラ2Aは、人物HAの撮影映像を人物HBが装着するARグラス4CBのキャプチャ装置3Bに送信する。さらに、カメラ2Bは、人物HBの撮影映像を人物HAが装着するARグラス4CAのキャプチャ装置3Aに送信する。
The
キャプチャ装置3Cは、ネットワークNWを介して、カメラ2Cから人物Hの撮影映像を受信し、受信した撮影映像を用いて、人物Hの3DCGモデル及びボーン情報を生成するものである。また、キャプチャ装置3Cは、ARグラス4Cに内蔵されている。
他の点、キャプチャ装置3C及びARグラス4Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The
In other respects, the
[作用・効果]
以上のように、第3実施形態に係るAR表示システム1Cは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Cは、3DCGモデルやボーン情報よりもデータ量が少ない撮影映像を送受信するので、ネットワークNWの通信帯域を節約することができる。
[Action/Effect]
As described above, the
Furthermore, since the
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、AR表示装置がARグラスであることとして説明したが、これに限定されない。例えば、AR表示装置がAR表示機能を有するスマートフォンであってもよい。
前記した各実施形態では、AR表示制御装置がARグラスに内蔵されることとして説明したが、AR表示制御装置をARグラスの外部に備えてもよい。
(Modified example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes within a range that does not depart from the gist of the present invention.
In each of the embodiments described above, the AR display device is described as being an AR glass, but the present invention is not limited to this. For example, the AR display device may be a smartphone having an AR display function.
In each of the embodiments described above, the AR display control device is described as being built into the AR glasses, but the AR display control device may be provided outside the AR glasses.
前記した各実施形態では、AR表示装置をハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したAR表示装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the embodiments described above, the AR display device is described as hardware, but the present invention is not limited to this. For example, the present invention can be realized by a program that causes hardware resources such as a CPU, memory, and hard disk included in a computer to operate as the above-mentioned AR display device. These programs may be distributed via communication lines, or may be written and distributed on recording media such as CD-ROMs and flash memories.
1~1C AR表示システム
2~2C カメラ
3~3C キャプチャ装置
4,4C ARグラス
5 AR表示制御装置
6 映像表示装置
30 撮影映像入力部
31 3DCGモデル生成部
32 ボーン情報生成部
33 3DCG・ボーン情報送信部
40 視線センサ
41 ARディスプレイ
50 視線入力部
51 視線判定処理部
52 視線人物情報送信部(視線情報送信部)
53 3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)
54 視線人物情報受信部(視線情報受信部)
55 モード判定部
56 モーションパス情報記録部
57A リダイレクションモード表示制御部
57B リアルモード表示制御部
57C 復帰モーションモード表示制御部
58 バーチャル表示部
1-1C AR display system 2-2C Camera 3-
53 3DCG/bone information receiving unit (3D model posture information receiving unit)
54 Line-of-sight person information receiving unit (line-of-sight information receiving unit)
55
Claims (7)
前記第2の人物が前記第1の人物を見ているか、又は、前記第2の人物が前記第1の人物から目をそらしたかを示す視線情報を受信する視線情報受信部と、
前記視線情報に基づいて、前記第2の人物が所定時間以上前記第1の人物を見続けている場合にはリダイレクションモードと判定し、前記第2の人物が前記第1の人物から目をそらした場合にはリアルモードと判定し、前記リダイレクションモードと判定された後、前記第2の人物が所定時間以上前記第1の人物から目をそらし続けている場合には復帰モーションモードと判定するモード判定部と、
前記リダイレクションモードと判定された場合には、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させるリダイレクションモード表示制御部と、
前記リアルモードと判定された場合には、前記第2の人物を実際の姿勢で前記AR表示装置に表示させるリアルモード表示制御部と、
前記復帰モーションモードと判定された場合には、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させる復帰モーションモード表示制御部と、
を備えることを特徴とするAR表示制御装置。 A second person viewing another video display device is displayed on an AR display device worn by a first person viewing the video display device so as to be on the side of the video display device being viewed by the first person. An AR display control device,
a line-of-sight information receiving unit that receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person;
Based on the line of sight information, if the second person continues to look at the first person for a predetermined period of time or more, the redirection mode is determined, and the second person looks away from the first person. If the second person continues to look away from the first person for a predetermined time or more after the redirection mode is determined, the mode is determined to be the return motion mode. A determination section;
When it is determined that the redirection mode is selected, a redirection mode display control unit causes the AR display device to display the second person looking back at the first person;
a real mode display control unit that displays the second person in an actual posture on the AR display device when the real mode is determined;
a return motion mode display control unit that causes the AR display device to display such that the second person who is turning towards the first person returns to an actual posture when the return motion mode is determined;
An AR display control device comprising:
前記リダイレクションモード表示制御部は、実際の姿勢における前記第2の人物の頭部位置及び頭部回転量を座標変換することで、前記第1の人物を振り向いたときの第2の人物の頭部角度を算出し、算出した当該頭部角度に応じたモーションパスで、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させることを特徴とする請求項1に記載のAR表示制御装置。 further comprising a motion path information recording unit that prerecords motion path information indicating a head position and a head rotation amount for each head angle of the second person,
The redirection mode display control unit coordinately transforms the head position and head rotation amount of the second person in the actual posture to display the head of the second person when looking back at the first person. 2. An angle is calculated, and the second person is displayed on the AR display device so as to look back at the first person using a motion path according to the calculated head angle. AR display control device.
前記リダイレクションモード表示制御部、前記リアルモード表示制御部及び前記復帰モーションモード表示制御部は、前記第2の人物の3次元モデル及び姿勢情報を用いて、前記第2の人物を前記AR表示装置に表示させることを特徴とする請求項1から請求項3の何れか一項に記載のAR表示制御装置。 further comprising a 3D model posture information receiving unit that receives the 3D model and posture information of the second person,
The redirection mode display control unit, the real mode display control unit, and the return motion mode display control unit display the second person on the AR display device using the three-dimensional model and posture information of the second person. The AR display control device according to any one of claims 1 to 3, wherein the AR display control device displays an image.
前記視線判定処理部の判定結果を、前記視線情報として、前記第2の人物が装着する他のAR表示装置に送信する視線情報送信部と、
をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載のAR表示制御装置。 Based on the first person's line of sight detection result input from the AR display device, whether or not the first person's line of sight overlaps the area of the second person displayed on the AR display device. a line of sight determination processing unit that determines whether the first person is looking at the second person;
a line-of-sight information transmitting unit that transmits the determination result of the line-of-sight determination processing unit as the line-of-sight information to another AR display device worn by the second person;
The AR display control device according to any one of claims 1 to 4, further comprising the following.
前記撮影カメラの撮影映像を用いて、前記第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、
請求項1から請求項5の何れか一項に記載のAR表示制御装置と、を備え、
前記AR表示制御装置は、前記第2の人物の3次元モデル及び姿勢情報を用いて、映像表示装置を視聴する第1の人物が装着するAR表示装置に、前記第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示することを特徴とするAR表示システム。 a camera that photographs a second person viewing another video display device;
a three-dimensional model/posture information generation device that generates a three-dimensional model and posture information of the second person using a captured image of the photographing camera;
An AR display control device according to any one of claims 1 to 5,
The AR display control device displays the second person on the AR display device worn by the first person viewing the video display device, using the three-dimensional model and posture information of the second person. An AR display system characterized by displaying images on the side of a video display device that is viewed by a person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026834A JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026834A JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131741A JP2021131741A (en) | 2021-09-09 |
JP7420585B2 true JP7420585B2 (en) | 2024-01-23 |
Family
ID=77551061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026834A Active JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7420585B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
-
2020
- 2020-02-20 JP JP2020026834A patent/JP7420585B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
Also Published As
Publication number | Publication date |
---|---|
JP2021131741A (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205293B2 (en) | Avatar display system in virtual space, avatar display method in virtual space, and computer program | |
US12170698B2 (en) | Arm movement mimicking | |
US10171792B2 (en) | Device and method for three-dimensional video communication | |
JP5208810B2 (en) | Information processing apparatus, information processing method, information processing program, and network conference system | |
CN109671141B (en) | Image rendering method and device, storage medium and electronic device | |
KR20190112712A (en) | Improved method and system for video conferencing with head mounted display (HMD) | |
US11507203B1 (en) | Body pose estimation using self-tracked controllers | |
US11099392B2 (en) | Stabilized and tracked enhanced reality images | |
WO2010022351A2 (en) | System and method for low bandwidth image transmission | |
US20210014468A1 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2013163699A1 (en) | System and method for eye alignment in video | |
JP7560835B2 (en) | Program and information processing method | |
JP7525598B2 (en) | COMMUNICATION TERMINAL DEVICE, COMMUNICATION METHOD, AND SOFTWARE PROGRAM | |
US20160379407A1 (en) | Virtual Fantasy System and Method of Use | |
JP2020065229A (en) | Video communication method, video communication device, and video communication program | |
CN112783700A (en) | Computer readable medium for network-based remote assistance system | |
JP2023152955A (en) | Head-tracking-based media selection for video communication in virtual environment | |
US20230231983A1 (en) | System and method for determining directionality of imagery using head tracking | |
CN112272817B (en) | Method and apparatus for providing audio content in immersive reality | |
JP6969577B2 (en) | Information processing equipment, information processing methods, and programs | |
JP7420585B2 (en) | AR display control device, its program, and AR display system | |
JP5759439B2 (en) | Video communication system and video communication method | |
WO2016182504A1 (en) | A virtual reality headset | |
JP6516316B1 (en) | Image processing apparatus, method, computer program | |
JP7370305B2 (en) | Presentation system, server, second terminal and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200313 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7420585 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |