JP7420585B2 - AR display control device, its program, and AR display system - Google Patents

AR display control device, its program, and AR display system Download PDF

Info

Publication number
JP7420585B2
JP7420585B2 JP2020026834A JP2020026834A JP7420585B2 JP 7420585 B2 JP7420585 B2 JP 7420585B2 JP 2020026834 A JP2020026834 A JP 2020026834A JP 2020026834 A JP2020026834 A JP 2020026834A JP 7420585 B2 JP7420585 B2 JP 7420585B2
Authority
JP
Japan
Prior art keywords
person
display control
display
mode
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020026834A
Other languages
Japanese (ja)
Other versions
JP2021131741A (en
Inventor
裕之 川喜田
数馬 吉野
拓也 半田
一宏 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2020026834A priority Critical patent/JP7420585B2/en
Publication of JP2021131741A publication Critical patent/JP2021131741A/en
Application granted granted Critical
Publication of JP7420585B2 publication Critical patent/JP7420585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 (1)「一般社団法人電子情報学会」が2019年12月4日に「Web予稿集」を発表Application of Article 30, Paragraph 2 of the Patent Act (1) “The Institute of Electronics, Information Engineers, General Incorporated Association” announced the “Web Proceedings” on December 4, 2019

特許法第30条第2項適用 (2)「一般社団法人電子情報学会」が2019年12月11日~13日に開催した「HCGシンポジウム2019」において2019年12月13日に発表Application of Article 30, Paragraph 2 of the Patent Act (2) Announced on December 13, 2019 at the “HCG Symposium 2019” held by the “Institute of Electronics and Information Engineers” from December 11 to 13, 2019

本発明は、AR表示装置に相手を表示させるAR表示制御装置及びそのプログラム、並びに、AR表示システムに関する。 The present invention relates to an AR display control device that causes an AR display device to display a partner, a program thereof, and an AR display system.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)に関する研究が行われている。例えば、3次元仮想空間内に利用者の分身(アバタ)を表示し、利用者同士で3次元仮想空間を共有する技術が提案されている(特許文献1,2)。これら特許文献1,2に記載の手法は、3次元仮想空間内での対話を促進するため、互いの分身の視線を合わせるものである。 In recent years, research on virtual reality (VR) and augmented reality (AR) has been conducted. For example, a technology has been proposed in which a user's alter ego (avatar) is displayed in a three-dimensional virtual space and the three-dimensional virtual space is shared among the users (Patent Documents 1 and 2). The methods described in these Patent Documents 1 and 2 align the lines of sight of each other's alter egos in order to promote dialogue within a three-dimensional virtual space.

特開平9-6985号公報Japanese Patent Application Publication No. 9-6985 特開2003-150978号公報Japanese Patent Application Publication No. 2003-150978

前記した特許文献1,2に記載の技術では、利用者の実写モデルを扱えない上、利用者同士で3次元仮想空間を共有しながらテレビ番組を視聴することも困難である。このため、テレビ番組の視聴における空間共有では、ARグラス等のAR表示装置の利用が現実的である。つまり、テレビ番組を視聴するときに利用者のAR表示装置に相手を表示すれば、テレビ番組の視聴における空間共有を実現できる。 The techniques described in Patent Documents 1 and 2 cannot handle live-action models of users, and it is also difficult for users to view television programs while sharing a three-dimensional virtual space. For this reason, it is practical to use AR display devices such as AR glasses for space sharing when viewing television programs. In other words, by displaying the other party on the user's AR display device when viewing a television program, it is possible to realize space sharing in viewing the television program.

また、本願発明者らにより、空間共有に関する研究も行われている。例えば、2人でテレビ番組を視聴している際、相手が利用者の前方にいるとき(例えば、視界に入っているとき)に「2人でテレビ番組を視聴している」という印象が強くなると考えられる。 The inventors of the present application are also conducting research on space sharing. For example, when two people are watching a TV program, when the other person is in front of the user (for example, within the user's field of vision), the impression that ``two people are watching the TV program'' becomes stronger. It is considered to be.

ここで、AR表示装置において、利用者の視界に入るように相手を前方に表示している場合を考える。この場合、現実世界で相手が自分を振り向いても、利用者のAR表示装置では、相手が利用者の前方に位置するため、相手が完全に利用者を振り向いていない状態となる。このように、AR表示装置では、相手が途中までしか振り向かない状態で表示されてしまうため、利用者に違和感を与えてしまう。 Here, consider a case where the AR display device displays the other party in front of the user so as to be within the user's field of vision. In this case, even if the other party looks back at the user in the real world, the other party is located in front of the user on the user's AR display device, so the other party does not look back at the user at all. In this manner, in the AR display device, the other party is displayed in a state where the other party only turns halfway, which gives the user a sense of discomfort.

本発明は、空間共有での違和感を低減できるAR表示制御装置及びそのプログラム、並びに、AR表示システムを提供することを課題とする。 An object of the present invention is to provide an AR display control device, a program therefor, and an AR display system that can reduce discomfort when sharing a space.

前記課題を解決するため、本発明に係るAR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、視線情報受信部と、モード判定部と、リダイレクションモード表示制御部と、リアルモード表示制御部と、復帰モーションモード表示制御部と、を備える構成とした。 In order to solve the above problems, an AR display control device according to the present invention connects a second person who views another video display device to an AR display device worn by a first person who views the video display device. An AR display control device that displays images on the side of a video display device viewed by a person, the AR display control device comprising: a line-of-sight information receiving section, a mode determining section, a redirection mode display control section, a real mode display control section, and a return mode display control section. The motion mode display control section is configured to include a motion mode display control section.

かかる構成によれば、視線情報受信部は、第2の人物が第1の人物を見ているか、又は、第2の人物が第1の人物から目をそらしたかを示す視線情報を受信する。
モード判定部は、視線情報に基づいて、第2の人物が所定時間以上第1の人物を見続けている場合にはリダイレクションモードと判定し、第2の人物が第1の人物から目をそらした場合にはリアルモードと判定し、リダイレクションモードと判定された後、第2の人物が所定時間以上第1の人物から目をそらし続けている場合には復帰モーションモードと判定する。
According to this configuration, the line-of-sight information receiving unit receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person. .
The mode determination unit determines that the second person is in redirection mode when the second person continues to look at the first person for a predetermined time or more based on the line of sight information, and the mode determination unit determines that the second person is in redirection mode when the second person looks away from the first person. If the second person continues to look away from the first person for a predetermined period of time after the redirection mode is determined, the mode is determined to be the return motion mode.

リダイレクションモード表示制御部は、リダイレクションモードと判定された場合には、第2の人物が第1の人物を振り向くようにAR表示装置に表示させる。
リアルモード表示制御部は、リアルモードと判定された場合には、第2の人物を実際の姿勢でAR表示装置に表示させる。
復帰モーションモード表示制御部は、復帰モーションモードと判定された場合には、第1の人物に振り向いている第2の人物が実際の姿勢に復帰するようにAR表示装置に表示させる。
このように、AR表示装置では、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
When the redirection mode is determined, the redirection mode display control unit causes the AR display device to display the second person looking back at the first person.
When the real mode is determined, the real mode display control unit displays the second person in an actual posture on the AR display device.
When the return motion mode is determined, the return motion mode display control unit causes the AR display device to display a state in which the second person, who is turning toward the first person, returns to its actual posture.
In this way, in the AR display device, even when the second person is displayed in front of the first person, the second person is in a state where the second person is looking back at the first person.

また、前記課題を解決するため、本発明に係るAR表示システムは、他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、撮影カメラの撮影映像を用いて、第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、前記したAR表示制御装置と、を備える構成とした。 Further, in order to solve the above-mentioned problems, an AR display system according to the present invention uses a photographing camera that photographs a second person viewing another video display device, and a photographed image of the photographing camera to display the second person. The configuration includes a three-dimensional model/posture information generation device that generates a three-dimensional model and posture information, and the above-mentioned AR display control device.

かかる構成によれば、AR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、第2の人物を第1の人物が視聴する映像表示装置の側となるように表示する。
このように、AR表示システムでは、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
According to this configuration, the AR display control device connects the second person to the AR display device worn by the first person viewing the video display device so that the second person is on the side of the video display device viewed by the first person. to be displayed.
In this manner, in the AR display system, even when the second person is displayed in front of the first person, the second person is in a state looking back at the first person.

なお、本発明は、コンピュータを、前記したAR表示制御装置として機能させるためのプログラムで実現することもできる。 Note that the present invention can also be realized by a program for causing a computer to function as the above-mentioned AR display control device.

本発明によれば、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となるので、空間共有での違和感を低減することができる。 According to the present invention, even when the second person is displayed in front of the first person, the second person is in a state where he or she is looking back at the first person, which reduces discomfort when sharing space. can do.

第1実施形態に係るAR表示システムの概略図である。1 is a schematic diagram of an AR display system according to a first embodiment. テレビ番組の視聴における空間共有を説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。FIG. 4 is an explanatory diagram illustrating space sharing in viewing a television program, in which (a) shows how to display one's own AR glasses, and (b) shows how to display the other party's AR glasses. 相手が自分を振り向いた状態を説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。FIG. 3 is an explanatory diagram illustrating a state in which the other party is looking back at oneself, in which (a) shows how to display one's own AR glasses, and (b) shows how to display one's AR glasses. リダイレクションを説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。FIG. 4 is an explanatory diagram illustrating redirection, in which (a) shows how to display your own AR glasses, and (b) shows how to display the other party's AR glasses. (a)はテレビ番組の視聴における空間共有を説明する説明図であり、(a)は相手が自分を振り向いた状態を説明する説明図であり、(c)はリダイレクションを説明する説明図である。(a) is an explanatory diagram illustrating space sharing in viewing a TV program, (a) is an explanatory diagram illustrating a state in which the other party turns toward you, and (c) is an explanatory diagram illustrating redirection. . 第1実施形態に係るAR表示システムの全体構成図である。FIG. 1 is an overall configuration diagram of an AR display system according to a first embodiment. 第1実施形態に係るキャプチャ装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a capture device according to a first embodiment. 第1実施形態に係るAR表示制御装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an AR display control device according to a first embodiment. (a)~(c)は、人物が振り向くときの頭部の位置及び体の姿勢の変化を説明する説明図である。(a) to (c) are explanatory diagrams illustrating changes in the position of the head and the posture of the body when a person turns around. 図8のAR表示制御装置の動作を示す状態遷移図である。9 is a state transition diagram showing the operation of the AR display control device of FIG. 8. FIG. モーションパス情報の一例を説明する説明図である。FIG. 2 is an explanatory diagram illustrating an example of motion path information. (a)及び(b)は、リダイレクションモード表示制御部及び復帰モーションモード表示制御部におけるモーションパスを説明する説明図である。(a) and (b) are explanatory diagrams explaining motion paths in a redirection mode display control section and a return motion mode display control section. 第2実施形態に係るAR表示システムの全体構成図である。FIG. 2 is an overall configuration diagram of an AR display system according to a second embodiment. 第3実施形態に係るAR表示システムの全体構成図である。FIG. 3 is an overall configuration diagram of an AR display system according to a third embodiment.

以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、各実施形態において、同一の手段には同一の符号を付し、説明を省略することがある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and unless there is a specific description, the present invention is not limited to the following embodiments. Further, in each embodiment, the same means may be denoted by the same reference numerals, and a description thereof may be omitted.

(第1実施形態)
[AR表示システムの概要]
図1~図5を参照し、AR表示システム1の概要について説明する。
図1に示すように、AR表示システム1は、ARグラス(AR表示装置)4を用いて、テレビ番組の視聴における空間共有を実現するものである。ここで、ARグラス4(4,4)を装着した2人の人物H(H,H)が、異なる場所に配置された映像表示装置6(6,6)でテレビ番組を視聴している。
(First embodiment)
[Overview of AR display system]
An overview of the AR display system 1 will be explained with reference to FIGS. 1 to 5.
As shown in FIG. 1, an AR display system 1 uses AR glasses (AR display device) 4 to realize space sharing in viewing television programs. Here, two people H ( HA , HB ) wearing AR glasses 4 (4 A , 4 B ) are watching a TV program on video display devices 6 (6 A , 6 B ) placed at different locations. are watching.

このとき、AR表示システム1は、図2(a)に示すように、人物(第1の人物)Hが装着するARグラス4に人物(第2の人物)Hを、人物Hから見て映像表示装置6の側にCG合成して表示する。従って、図5(a)に示すように、人物Hが装着するARグラス4には、人物Hが前方に表示されている。これと同様、AR表示システム1は、図2(b)に示すように、人物Hが装着するARグラス4に人物Hを、人物Hから見て映像表示装置(他の映像表示装置)6の側にCG合成して表示する。
なお、図2~図4では、ARグラス4を装着している人物Hを実線で図示し、CG合成で表示されている人物Hを破線で図示した。
At this time, as shown in FIG. 2(a), the AR display system 1 displays the person (second person) HB on the AR glasses 4A worn by the person (first person) HA , and the person HA The CG is synthesized and displayed on the side of the video display device 6A when viewed from above. Therefore, as shown in FIG. 5(a), the person HB is displayed in front of the AR glasses 4A worn by the person HA . Similarly , the AR display system 1 , as shown in FIG . Apparatus) 6 Composite and display CG on the B side.
In addition, in FIGS. 2 to 4, the person H wearing the AR glasses 4 is shown with a solid line, and the person H displayed by CG composition is shown with a broken line.

ここで、人物Hが人物Hに振り向いた場合を考える。図3(b)に示すように、人物HのARグラス4では人物Hが前方に表示されている。従って、人物Hが人物Hに振り向くときの動作(頭部回転量)が小さくなるが、人物Hの頭部は人物Hの方向を向いている。その一方、図3(a)に示すように、人物HのARグラス4でも人物Hが前方に表示されているため、図5(b)に示すように、人物Hが人物Hを完全に振り向いていない状態となる。つまり、人物Hが人物Hを振り向くときの頭部回転量が足らず、人物Hの頭部が人物Hの方向を向いていない。そこで、AR表示システム1では、図4(a)及び図5(c)に示すように、人物Hが人物Hを完全に振り向くようにリダイレクション処理を行う。 Now, consider a case where person HB turns to person HA . As shown in FIG. 3(b), the person HA is displayed in front of the person HB 's AR glasses 4B . Therefore, the movement (amount of head rotation) when the person HB turns towards the person HA becomes smaller, but the head of the person HB is still facing the direction of the person HA . On the other hand, as shown in FIG. 3(a), the person HB is also displayed in front of the AR glasses 4A of the person HA , so the person HB is displayed in front of the person H as shown in FIG. It will be in a state where you are not looking at A completely. In other words, the amount of head rotation when the person HB turns toward the person HA is insufficient, and the head of the person HB is not facing the direction of the person HA . Therefore, in the AR display system 1, as shown in FIGS. 4(a) and 5(c), redirection processing is performed so that the person HB completely turns around to face the person HA .

なお、テレビ番組の視聴における空間共有では、人物Hの表示位置は、人物Hの前方であれば任意に設定できる(人物Hの表示位置も同様)。例えば、人物Hから見て人物Hを1メートル前方に表示する。このとき、テレビ番組の視聴を妨害しないように、人物Hの斜め前方に人物Hを表示してもよい。
以後、人物H,Hの一方を「自分」、人物H,Hの他方を「相手」と記載する場合がある。
In space sharing for viewing a television program, the display position of the person HB can be set arbitrarily as long as it is in front of the person HA (the same applies to the display position of the person HA ). For example, the person HB is displayed one meter in front of the person HA . At this time, the person HB may be displayed diagonally in front of the person HA so as not to interfere with viewing the television program.
Hereinafter, one of the persons HA and HB may be referred to as "self," and the other person HA and HB may be referred to as the "other party."

[AR表示システムの構成]
図1及び図6を参照し、AR表示システム1の構成について説明する。
図1及び図6に示すように、AR表示システム1は、カメラ2と、キャプチャ装置3と、ARグラス4と、AR表示制御装置5とを備える。このAR表示システム1では、ケーブルを介して、カメラ2とキャプチャ装置3とが接続されている。また、AR表示システム1では、AR表示制御装置5がARグラス4に内蔵されており、インターネット等のネットワークNWを介して、キャプチャ装置3とAR表示制御装置5とが接続されている。
[Configuration of AR display system]
The configuration of the AR display system 1 will be described with reference to FIGS. 1 and 6.
As shown in FIGS. 1 and 6, the AR display system 1 includes a camera 2, a capture device 3, AR glasses 4, and an AR display control device 5. In this AR display system 1, a camera 2 and a capture device 3 are connected via a cable. Further, in the AR display system 1, an AR display control device 5 is built into the AR glasses 4, and the capture device 3 and the AR display control device 5 are connected via a network NW such as the Internet.

ここで、AR表示システム1は、2人の人物H,Hに対応するように、2台のカメラ2(2,2)と、2台のキャプチャ装置3(3,3)と、2台のARグラス4(4,4)と、2台のAR表示制御装置5(5,5)とを備える。これらのカメラ2、キャプチャ装置3、ARグラス4及びAR表示制御装置5は、2台とも同一の構成である。また、人物Hが視聴する映像表示装置6を映像表示装置6とし、人物Hが視聴する映像表示装置6を映像表示装置6とする。 Here, the AR display system 1 includes two cameras 2 ( 2A , 2B ) and two capture devices 3 ( 3A , 3B ) to correspond to the two people HA , HB . ), two AR glasses 4 (4 A , 4 B ), and two AR display control devices 5 ( 5 A , 5 B ). These cameras 2, capture devices 3, AR glasses 4, and AR display control devices 5 have the same configuration. Furthermore, the video display device 6 viewed by person HA is referred to as video display device 6A , and the video display device 6 viewed by person HB is referred to as video display device 6B .

カメラ2は、人物Hを撮影する一般的なカメラであり、人物Hの撮影映像をキャプチャ装置3に出力する。この撮影映像は、キャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成するために必要となる。ここで、カメラ2が人物Hの撮影映像をキャプチャ装置3に出力し、カメラ2が人物Hの撮影映像をキャプチャ装置3に出力する。例えば、カメラ2は、人物Hに正対するように映像表示装置6の上部中央に配置されている。また、カメラ2は、1台の一般的なRGBカメラで構成されているが、ステレオカメラやデプスカメラ付きRGBカメラであってもよい。 The camera 2 is a general camera that photographs the person H, and outputs a photographed image of the person H to the capture device 3. This photographed video is necessary for the capture device 3 to generate a 3DCG model and bone information of the person H. Here, the camera 2A outputs the captured image of the person HA to the capture device 3A , and the camera 2B outputs the captured image of the person HB to the capture device 3B . For example, the camera 2 is placed at the top center of the video display device 6 so as to directly face the person H. Further, although the camera 2 is configured with one general RGB camera, it may be a stereo camera or an RGB camera with a depth camera.

キャプチャ装置3は、カメラ2から入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。この3DCGモデルは、人物Hの3次元モデルである。また、ボーン情報は、人物Hの各関節の位置、つまり、人物Hの姿勢を表す姿勢情報である。そして、キャプチャ装置3は、ネットワークNWを介して、生成した人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。 The capture device 3 generates a 3DCG model of the person H and bone information of the person H using the captured image of the person H input from the camera 2. This 3DCG model is a three-dimensional model of person H. Further, the bone information is posture information representing the position of each joint of the person H, that is, the posture of the person H. Then, the capture device 3 transmits the generated 3DCG model and bone information of the person H to the AR display control device 5 via the network NW.

ここで、自分の3DCGモデル及びボーン情報は、相手のARグラス4に自分を表示するために必要となる。このため、キャプチャ装置3は、人物Hの3DCGモデル及びボーン情報を、人物HのAR表示制御装置5に送信し続ける。これと同様、キャプチャ装置3は、人物Hの3DCGモデル及びボーン情報を、人物HのAR表示制御装置5に送信し続ける。
なお、キャプチャ装置3の構成は、後記する。
Here, your own 3DCG model and bone information are necessary to display yourself on the other party's AR glasses 4. Therefore, the capture device 3A continues to transmit the 3DCG model and bone information of the person HA to the AR display control device 5B of the person HB . Similarly, the capture device 3B continues to transmit the 3DCG model and bone information of the person HB to the AR display control device 5A of the person HA .
Note that the configuration of the capture device 3 will be described later.

ARグラス4は、一般的なARグラスと同様にARディスプレイ41を備える他、AR表示制御装置5を内蔵している(図8)。また、ARグラス4は、人物Hの視線を検出する視線センサ40を備え、視線センサ40による視線検出結果をAR表示制御装置5に出力する。 The AR glasses 4 are equipped with an AR display 41 like general AR glasses, and also have an AR display control device 5 built in (FIG. 8). Further, the AR glasses 4 include a line-of-sight sensor 40 that detects the line-of-sight of the person H, and outputs the line-of-sight detection result by the line-of-sight sensor 40 to the AR display control device 5.

AR表示制御装置5は、映像表示装置6で視聴する自分が装着するARグラス4に、他の映像表示装置6で視聴する相手を映像表示装置6の側に表示するものである。また、AR表示制御装置5は、キャプチャ装置3から受信した相手の3DCGモデル及びボーン情報を用いて、相手が完全に自分を振り向くようにリダイレクション処理を行う。 The AR display control device 5 displays, on the AR glasses 4 worn by the person viewing the video on the video display device 6, the person viewing the video on another video display device 6 on the side of the video display device 6. Further, the AR display control device 5 uses the 3DCG model and bone information of the other party received from the capture device 3 to perform a redirection process so that the other party completely turns toward the other party.

ここで、AR表示制御装置5では、リダイレクション処理の要否を判定するために視線人物情報(視線情報)が必要となる。この視線人物情報は、相手が自分を見ているか、又は、相手が自分から目をそらしたかを示す情報である。このため、AR表示制御装置5は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信し続ける。 Here, the AR display control device 5 requires line-of-sight person information (line-of-sight information) in order to determine whether redirection processing is necessary. This gaze person information is information indicating whether the other party is looking at oneself or whether the other party has turned away from oneself. Therefore, the AR display control device 5 continues to receive the other party's line-of-sight person information from the other party's AR display control device 5 via the network NW.

以上を整理すると、人物HのAR表示制御装置5は、キャプチャ装置3から受信した人物Hの3DCGモデル及びボーン情報を用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、AR表示制御装置5から受信した人物Hの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物Hが完全に人物Hを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5は、人物Hの視線人物情報を生成してAR表示制御装置5に送信する。 To summarize the above, the AR display control device 5A of the person HA displays the person HB on the AR glasses 4A of the person HA using the 3DCG model and bone information of the person HB received from the capture device 3B . Display. At this time, the AR display control device 5A determines whether redirection processing is necessary based on the line-of-sight person information of the person HB received from the AR display control device 5B , and the person HB completely turns around to face the person HA . Perform redirection processing as follows. Further, the AR display control device 5A generates line-of-sight person information of the person HA and transmits it to the AR display control device 5B .

これと同様、人物HのAR表示制御装置5は、キャプチャ装置3から受信した人物Hの3DCGモデル及びボーン情報を用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、AR表示制御装置5から受信した人物Hの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物Hが完全に人物Hを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5は、人物Hの視線人物情報を生成してAR表示制御装置5に送信する。
なお、AR表示制御装置5の構成は、後記する。
Similarly, the AR display control device 5B of the person HB displays the person HA on the AR glasses 4B of the person HB using the 3DCG model and bone information of the person HA received from the capture device 3A . let At this time, the AR display control device 5B determines whether redirection processing is necessary based on the line-of-sight information of the person HA received from the AR display control device 5A , and the person HA completely turns around to face the person HB . Perform redirection processing as follows. Furthermore, the AR display control device 5B generates line-of-sight person information of the person HB and transmits it to the AR display control device 5A .
Note that the configuration of the AR display control device 5 will be described later.

映像表示装置6は、例えば、テレビ番組を表示する一般的な放送受信機である。また、映像表示装置6は、テレビ番組以外の映像コンテンツ(例えば、ネットワークNWで配信される映像コンテンツ)を表示してもよい。なお、映像表示装置6は、AR表示システム1に含まれていないが、AR表示システム1に密接に関連するので図示した。 The video display device 6 is, for example, a general broadcast receiver that displays television programs. Furthermore, the video display device 6 may display video content other than television programs (for example, video content distributed over the network NW). Although the video display device 6 is not included in the AR display system 1, it is shown because it is closely related to the AR display system 1.

[キャプチャ装置の構成]
図7を参照し、キャプチャ装置3の構成について説明する。なお、図7では、ネットワークNWの図示を省略した。
キャプチャ装置3は、撮影映像入力部30と、3DCGモデル生成部31と、ボーン情報生成部32と、3DCG・ボーン情報送信部33とを備える。
[Capture device configuration]
The configuration of the capture device 3 will be described with reference to FIG. 7. Note that in FIG. 7, illustration of the network NW is omitted.
The capture device 3 includes a captured video input section 30, a 3DCG model generation section 31, a bone information generation section 32, and a 3DCG/bone information transmission section 33.

撮影映像入力部30は、カメラ2から自分の撮影映像を入力するものである。そして、撮影映像入力部30は、入力された自分の撮影映像を3DCGモデル生成部31に出力する。 The photographed video input unit 30 is for inputting the user's own photographed video from the camera 2. Then, the shot video input section 30 outputs the input shot video of the user to the 3DCG model generation section 31.

3DCGモデル生成部31は、撮影映像入力部30から入力された自分の撮影映像を用いて、自分の3DCGモデルを生成するものである。
ここで、3DCGモデル生成部31は、3DCGモデルを任意の手法で生成できる。カメラ2が1台のRGBカメラで構成されている場合、3DCGモデル生成部31は、ディープラーニングにより3DCGモデルを生成できる。例えば、3DCGモデル生成部31は、人物の写真を学習させたニューラルネットワークにより、自分の撮影映像に含まれる各フレームから3DCGモデルを生成すればよい。また、カメラ2がステレオカメラの場合、3DCGモデル生成部31は、ステレオ画像から奥行き情報を求め、この奥行き情報から3DCGモデルを生成できる。また、カメラ2がデプスカメラ付きRGBカメラの場合、3DCGモデル生成部31は、デプスカメラの映像が奥行き情報を表すので、ステレオカメラと同様に3DCGモデルを生成できる。
そして、3DCGモデル生成部31は、生成した自分の3DCGモデルをボーン情報生成部32及び3DCG・ボーン情報送信部33に出力する。
The 3DCG model generating section 31 generates a 3DCG model of the user using his or her photographed video input from the photographed video input section 30.
Here, the 3DCG model generation unit 31 can generate the 3DCG model using any method. When the camera 2 is configured with one RGB camera, the 3DCG model generation unit 31 can generate a 3DCG model by deep learning. For example, the 3DCG model generation unit 31 may generate a 3DCG model from each frame included in the video shot by the user using a neural network trained on photographs of people. Further, when the camera 2 is a stereo camera, the 3DCG model generation unit 31 can obtain depth information from the stereo image and generate a 3DCG model from this depth information. Further, when the camera 2 is an RGB camera with a depth camera, the 3DCG model generation unit 31 can generate a 3DCG model in the same way as a stereo camera, since the image of the depth camera represents depth information.
Then, the 3DCG model generation section 31 outputs its own generated 3DCG model to the bone information generation section 32 and the 3DCG/bone information transmission section 33.

ボーン情報生成部32は、3DCGモデル生成部31から入力された自分の3DCGモデルを用いて、その自分のボーン情報を生成するものである。つまり、ボーン情報生成部32は、3DCGモデルを動作させるために、3DCGモデルに対応したボーン情報を生成する。ここで、ボーン情報生成部32は、任意の手法(例えば、参考文献1に記載のクイックリグ)でボーン情報を生成できる。そして、ボーン情報生成部32は、生成した自分のボーン情報を3DCG・ボーン情報送信部33に出力する。 The bone information generation unit 32 uses the 3DCG model of the user input from the 3DCG model generation unit 31 to generate bone information of the user. That is, the bone information generation unit 32 generates bone information corresponding to the 3DCG model in order to operate the 3DCG model. Here, the bone information generation unit 32 can generate bone information using any method (for example, QuickRig described in Reference 1). Then, the bone information generation section 32 outputs the generated own bone information to the 3DCG/bone information transmission section 33.

参考文献1:Maya(登録商標)、[online]、オートデスク株式会社、[令和2年2月13日検索]、インターネット〈URL:https://www.autodesk.co.jp/products/maya/overview〉 Reference 1: Maya (registered trademark), [online], Autodesk Corporation, [searched on February 13, 2020], Internet <URL: https://www.autodesk.co.jp/products/maya/ overview〉

3DCG・ボーン情報送信部33は、3DCGモデル生成部31から入力された自分の3DCGモデルと、ボーン情報生成部32から入力された自分のボーン情報とを相手側のAR表示制御装置5に送信するものである。
ここで、3DCG・ボーン情報送信部33は、3DCGモデル及びボーン情報を任意の頻度で送信できる。例えば、3DCG・ボーン情報送信部33は、3DCGモデルの送信頻度を低くすると、ネットワークNWの帯域を節約できる。一方、3DCG・ボーン情報送信部33は、ボーン情報の送信頻度を高くすると、3DCGモデルの姿勢変化が滑らかになる。
The 3DCG/bone information transmitter 33 transmits the own 3DCG model input from the 3DCG model generator 31 and the own bone information input from the bone information generator 32 to the other party's AR display control device 5. It is something.
Here, the 3DCG/bone information transmitter 33 can transmit the 3DCG model and bone information at an arbitrary frequency. For example, the 3DCG/bone information transmitter 33 can save the bandwidth of the network NW by reducing the frequency of transmitting 3DCG models. On the other hand, when the 3DCG/bone information transmitter 33 increases the frequency of transmitting bone information, the posture change of the 3DCG model becomes smoother.

[AR表示制御装置の構成]
図8を参照し、AR表示制御装置5の構成について説明する。なお、図8では、ネットワークNWの図示を省略した。
[Configuration of AR display control device]
The configuration of the AR display control device 5 will be described with reference to FIG. 8. Note that in FIG. 8, illustration of the network NW is omitted.

図8に示すように、AR表示制御装置5は、視線入力部50と、視線判定処理部51と、視線人物情報送信部(視線情報送信部)52と、3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)53と、視線人物情報受信部(視線情報受信部)54と、モード判定部55と、モーションパス情報記録部56と、リダイレクションモード表示制御部57Aと、リアルモード表示制御部57Bと、復帰モーションモード表示制御部57Cと、バーチャル表示部58とを備える。 As shown in FIG. 8, the AR display control device 5 includes a line-of-sight input section 50, a line-of-sight determination processing section 51, a line-of-sight person information transmission section (line-of-sight information transmission section) 52, and a 3DCG/bone information reception section (three-dimensional model posture information receiving section) 53, line-of-sight person information receiving section (line-of-sight information receiving section) 54, mode determining section 55, motion path information recording section 56, redirection mode display control section 57A, and real mode display control section 57B, a return motion mode display control section 57C, and a virtual display section 58.

視線入力部50は、視線センサ40から自分の視線検出結果を入力するものである。そして、視線入力部50は、入力された自分の視線検出結果を視線判定処理部51に出力する。 The line-of-sight input unit 50 is for inputting the detection result of one's own line-of-sight from the line-of-sight sensor 40. Then, the line-of-sight input section 50 outputs the inputted line-of-sight detection result to the line-of-sight determination processing section 51 .

視線判定処理部51は、視線入力部50から入力された自分の視線検出結果に基づいて、自分が相手を見ているか否かを判定するものである。
ここで、視線判定処理部51は、後記するバーチャル表示部58から、ARグラス4に表示されている相手領域の情報が入力されると共に、視線入力部50から、自分の視線検出結果が入力される。この場合、視線判定処理部51は、ARグラス4を装着した自分の視線がARグラス4に表示されている相手領域に重なっているか否かにより、自分が相手を見ているか否かを判定する。つまり、視線判定処理部51は、自分の視線が相手領域に重なっている場合、自分が相手を見ていると判定する。一方、視線判定処理部51は、自分の視線が相手領域に重なっていない場合、自分が相手から目をそらしたと判定する。
その後、視線判定処理部51は、自分が相手を見ているか否かの判定結果を、視線人物情報として視線人物情報送信部52に出力する。
The line of sight determination processing unit 51 determines whether or not the user is looking at the other person based on the detection result of the user's line of sight input from the line of sight input unit 50 .
Here, the line-of-sight determination processing unit 51 receives information about the other party's area displayed on the AR glasses 4 from a virtual display unit 58 (to be described later), and receives the detection result of its own line-of-sight from the line-of-sight input unit 50. Ru. In this case, the line of sight determination processing unit 51 determines whether or not the user is looking at the other person based on whether or not the user's line of sight while wearing the AR glasses 4 overlaps the area of the other person displayed on the AR glasses 4. . In other words, the line-of-sight determination processing unit 51 determines that the user is looking at the other person when the user's line of sight overlaps with the other person's area. On the other hand, when the user's line of sight does not overlap with the other party's area, the line of sight determination processing unit 51 determines that the user has turned away from the other party.
Thereafter, the line-of-sight determination processing section 51 outputs the determination result of whether or not the user is looking at the other person to the line-of-sight person information transmitting section 52 as line-of-sight person information.

視線人物情報送信部52は、ネットワークNWを介して、視線判定処理部51から入力された自分の視線人物情報を相手側のAR表示制御装置5に送信するものである。 The line-of-sight person information transmitting unit 52 transmits the line-of-sight person information inputted from the line-of-sight determination processing unit 51 to the other party's AR display control device 5 via the network NW.

3DCG・ボーン情報受信部53は、ネットワークNWを介して、相手の3DCGモデル及びボーン情報を相手側のキャプチャ装置3から受信するものである。そして、3DCG・ボーン情報受信部53は、受信した相手の3DCG・ボーン情報をモード判定部55に出力する。 The 3DCG/bone information receiving unit 53 receives the 3DCG model and bone information of the other party from the capture device 3 of the other party via the network NW. Then, the 3DCG/bone information receiving section 53 outputs the received 3DCG/bone information of the other party to the mode determining section 55.

視線人物情報受信部54は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信するものである。そして、視線人物情報受信部54は、受信した相手の視線人物情報をモード判定部55に出力する。 The line-of-sight person information receiving unit 54 receives the other party's line-of-sight person information from the other party's AR display control device 5 via the network NW. Then, the line-of-sight person information receiving section 54 outputs the received line-of-sight person information of the other party to the mode determining section 55 .

モード判定部55は、視線人物情報受信部54から入力された相手の視線人物情報に基づいて、リダイレクションモード、リアルモード及び復帰モーションモードの判定を行うものである。
具体的には、モード判定部55は、相手が自分を所定時間以上見続けている場合にリダイレクションモードと判定する。この場合、モード判定部55は、後記するリダイレクションモード表示制御部57Aに対して、リダイレクションモードを指令し、3DCG・ボーン情報を出力する。
また、モード判定部55は、相手が自分から目をそらした場合にリアルモードと判定する。この場合、モード判定部55は、後記するリアルモード表示制御部57Bに対して、リアルモードを指令し、3DCG・ボーン情報を出力する。
さらに、モード判定部55は、リダイレクションモードと判定された後、相手が自分から所定時間以上目をそらし続けている場合に復帰モーションモードと判定する。この場合、モード判定部55は、後記する復帰モーションモード表示制御部57Cに対して、復帰モーションモードを指令し、3DCG・ボーン情報を出力する。
The mode determining unit 55 determines whether the mode is a redirection mode, a real mode, or a return motion mode based on the gaze person information of the other party inputted from the gaze person information receiving unit 54 .
Specifically, the mode determining unit 55 determines that the mode is redirection mode when the other party continues to look at the user for a predetermined period of time or more. In this case, the mode determination unit 55 instructs a redirection mode display control unit 57A, which will be described later, to select a redirection mode, and outputs 3DCG/bone information.
Further, the mode determining unit 55 determines that the mode is real mode when the other party looks away from the user. In this case, the mode determination unit 55 instructs a real mode display control unit 57B (described later) to select the real mode, and outputs 3DCG/bone information.
Further, the mode determining unit 55 determines that the mode is the return motion mode if the other party continues to look away from the user for a predetermined period of time or more after the mode is determined to be the redirection mode. In this case, the mode determination unit 55 instructs a return motion mode display control unit 57C, which will be described later, to select a return motion mode, and outputs 3DCG/bone information.

モーションパス情報記録部56は、モーションパス情報を予め記録するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置である。このモーションパス情報は、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cによって参照される。なお、モーションパスの詳細は、後記する。 The motion path information recording unit 56 is a storage device such as a memory, an HDD (Hard Disk Drive), or an SSD (Solid State Drive) that records motion path information in advance. This motion path information is referred to by the redirection mode display control section 57A and the return motion mode display control section 57C. Note that the details of the motion path will be described later.

リダイレクションモード表示制御部57Aは、モード判定部55でリダイレクションモードと判定された場合、相手をリダイレクションモードで表示するようにバーチャル表示部58を制御するものである。このリダイレクションモードとは、相手が完全に自分を振り向くようにARグラス4に表示させるモードのことである。このとき、リダイレクションモード表示制御部57Aは、相手の3DCGモデルが自分を自然に振り向くように所定のモーションパスで表示させる。 The redirection mode display control unit 57A controls the virtual display unit 58 to display the other party in the redirection mode when the mode determination unit 55 determines that the mode is the redirection mode. This redirection mode is a mode in which the AR glasses 4 are displayed so that the other party is completely facing towards you. At this time, the redirection mode display control unit 57A displays the other party's 3DCG model using a predetermined motion path so that it naturally turns toward itself.

ここで、図9(a)~(c)に示すように、相手が振り向く場合、単純に頭部の角度が変化するのではなく、頭部の中心位置(重心位置)Pや体の姿勢も変化する。なお、図9には、頭部の方向を一点鎖線で図示した。そこで、リダイレクションモード表示制御部57Aは、相手の振り向く動作が自然となるように、3DCGモデルの体(肩、腕等の上半身)を頭部に追随させることが好ましい。例えば、リダイレクションモード表示制御部57Aでは、IK(Inverse Kinematics)を用いることで、3DCGモデルの体を頭部に追随させることができる。 Here, as shown in FIGS. 9(a) to (c), when the opponent turns around, the angle of the head does not simply change, but the center position of the head (center of gravity) P C and the posture of the body change. also changes. In addition, in FIG. 9, the direction of the head is illustrated with a dashed line. Therefore, it is preferable that the redirection mode display control unit 57A causes the body of the 3DCG model (the upper body such as shoulders and arms) to follow the head so that the opponent's turning motion becomes natural. For example, the redirection mode display control unit 57A can make the body of the 3DCG model follow the head by using IK (Inverse Kinematics).

リアルモード表示制御部57Bは、モード判定部55でリアルモードと判定された場合、相手をリアルモードで表示するようにバーチャル表示部58を制御するものである。このリアルモードとは、相手を実際の姿勢でARグラス4に表示させるモードのことである。つまり、リアルモード表示制御部57Bは、相手の3DCGモデルをボーン情報の姿勢で表示させる。 The real mode display control unit 57B controls the virtual display unit 58 to display the other party in the real mode when the mode determining unit 55 determines that the mode is the real mode. This real mode is a mode in which the opponent is displayed on the AR glasses 4 in the actual posture. In other words, the real mode display control unit 57B displays the opponent's 3DCG model in the posture of the bone information.

復帰モーションモード表示制御部57Cは、モード判定部55で復帰モーションモードと判定された場合、相手を復帰モーションモードで表示するようにバーチャル表示部58を制御するものである。この復帰モーションモードとは、自分に振り向いている相手が実際の姿勢に復帰するようにARグラス4に表示させるモードのことである。このとき、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aのモーションパスと逆のモーションパスで、相手の3DCGモデルが実際の姿勢に復帰するように表示させる。 The return motion mode display control section 57C controls the virtual display section 58 to display the opponent in the return motion mode when the mode determination section 55 determines that the mode is the return motion mode. This return motion mode is a mode in which the AR glasses 4 are displayed so that the opponent who is facing the user returns to their actual posture. At this time, the return motion mode display control section 57C displays the opponent's 3DCG model returning to its actual posture using a motion path that is opposite to the motion path of the redirection mode display control section 57A.

バーチャル表示部58は、リダイレクションモード表示制御部57A、リアルモード表示制御部57B、及び、復帰モーションモード表示制御部57Cからの制御に従って、相手をARグラス4(ARディスプレイ41)にCG合成して表示するものである。つまり、バーチャル表示部58は、リダイレクションモード、リアルモード又は復帰モーションモードの何れかで相手をARグラス4にバーチャル表示する。さらに、バーチャル表示部58は、ARグラス4に表示されている相手領域の情報を視線判定処理部51に出力する。 The virtual display unit 58 synthesizes CG and displays the other party on the AR glasses 4 (AR display 41) according to the control from the redirection mode display control unit 57A, the real mode display control unit 57B, and the return motion mode display control unit 57C. It is something to do. That is, the virtual display unit 58 virtually displays the opponent on the AR glasses 4 in any of the redirection mode, real mode, or return motion mode. Furthermore, the virtual display unit 58 outputs information about the opponent's area displayed on the AR glasses 4 to the line-of-sight determination processing unit 51.

[AR表示制御装置の動作]
図10を参照し、AR表示制御装置5の動作を説明する。
以下、人物HのARグラス4に人物Hを表示するときのAR表示制御装置5の動作を一例として説明する。また、人物Hを「自分」とし、人物Hを「相手」と記載する場合がある。
[Operation of AR display control device]
The operation of the AR display control device 5 will be explained with reference to FIG.
Hereinafter, the operation of the AR display control device 5A when displaying the person HB on the AR glasses 4A of the person HA will be described as an example. Further, the person HA may be written as "self" and the person HB may be written as "other party."

まず、AR表示システム1の全体動作を整理する。
相手側のカメラ2が人物Hを撮影し、カメラ2の撮影映像を用いて、相手側のキャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成する。そして、相手側のキャプチャ装置3が、人物Hの3DCGモデル及びボーン情報を、自分のAR表示制御装置5に送信する。さらに、相手側のAR表示制御装置5が、人物Hの視線人物情報を自分のAR表示制御装置5に送信する。
First, the overall operation of the AR display system 1 will be summarized.
The other party's camera 2B photographs the person HB , and the other party's capture device 3B generates a 3DCG model and bone information of the person HB using the captured image of the camera 2B. Then, the other party's capture device 3B transmits the 3DCG model and bone information of the person HB to its own AR display control device 5A . Furthermore, the other party's AR display control device 5B transmits the line-of-sight person information of the person HB to its own AR display control device 5A .

そして、自分のAR表示制御装置5が、人物Hの3DCGモデルとボーン情報と視線人物情報とを用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、以下で説明する動作を行う。 Then, the own AR display control device 5A displays the person HB on the AR glasses 4A of the person HA using the 3DCG model, bone information, and line-of-sight person information of the person HB . At this time, the AR display control device 5A performs the operation described below.

図10に示すように、AR表示制御装置5のモード判定部55は、初期状態S0からリアルモード状態S1に遷移する。例えば、ARグラス4の電源投入時又はリセット時、AR表示制御装置5が初期状態になる。 As shown in FIG. 10, the mode determination unit 55 of the AR display control device 5A transitions from the initial state S0 to the real mode state S1. For example, when the AR glasses 4A are powered on or reset, the AR display control device 5A is put into an initial state.

リアルモード状態S1において、モード判定部55は、リアルモード表示制御部57Bにリアルモードを指令する。すると、リアルモード表示制御部57Bは、人物HのARグラス4に人物Hをリアルモードで表示させる。 In the real mode state S1, the mode determination section 55 instructs the real mode display control section 57B to select the real mode. Then, the real mode display control unit 57B displays the person HB in the real mode on the AR glasses 4A of the person HA .

また、リアルモード状態S1において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見たか否かを判定する。
人物Hが自分を見た場合、モード判定部55は、リアルモード(判定処理)状態S2に遷移する。
Furthermore, in the real mode state S1, the mode determination unit 55 determines whether or not the person HB has looked at the person HB based on the person HB 's gaze information.
When the person HB looks at himself, the mode determination unit 55 transitions to the real mode (determination processing) state S2.

リアルモード(判定処理)状態S2において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見続けている時間tが、予め設定された閾値T以上であるか否かを判定する。この閾値Tは、任意の値で設定できる(例えば、閾値T=1秒)。
時間tが閾値T以上の場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
In the real mode (determination process) state S2, the mode determination unit 55 determines that the time t1 during which the person HB continues to look at the person HB is equal to or greater than a preset threshold T1 , based on the person HB's line of sight information. Determine whether or not. This threshold T 1 can be set to any value (for example, threshold T 1 =1 second).
If the time t 1 is equal to or greater than the threshold T 1 , the mode determination unit 55 transitions to the redirection mode state S3.

また、リアルモード(判定処理)状態S2において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらしたか否かを判定する。
人物Hが自分から目をそらした場合、モード判定部55は、リアルモード状態S1に遷移する。
人物Hが自分から目をそらしておらず、かつ、時間tが閾値T未満の場合、モード判定部55は、リアルモード(判定処理)状態S2の状態を維持する。
Furthermore, in the real mode (determination processing) state S2, the mode determination unit 55 determines whether or not the person HB has turned away from the person HB based on the person HB 's line of sight information.
When the person HB looks away from himself, the mode determination unit 55 transitions to the real mode state S1.
If the person H B is not looking away from himself and the time t 1 is less than the threshold T 1 , the mode determination unit 55 maintains the real mode (determination processing) state S2.

リダイレクションモード状態S3において、モード判定部55は、リダイレクションモード表示制御部57Aにリダイレクションモードを指令する。すると、リダイレクションモード表示制御部57Aは、人物HのARグラス4に人物Hをリダイレクションモードで表示させる。 In the redirection mode state S3, the mode determination section 55 instructs the redirection mode display control section 57A to select the redirection mode. Then, the redirection mode display control unit 57A displays the person HB on the AR glasses 4A of the person HA in the redirection mode.

また、リダイレクションモード状態S3において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらしたか否かを判定する。
人物Hが自分から目をそらした場合、モード判定部55は、リダイレクションモード(判定処理)状態S4に遷移する。
人物Hが自分を見ている場合、モード判定部55は、リダイレクションモード状態S3の状態を維持する。
Furthermore, in the redirection mode state S3, the mode determination unit 55 determines whether or not the person HB has turned away from himself or not, based on the person HB 's gaze information.
When the person HB looks away from himself, the mode determination unit 55 transitions to a redirection mode (determination process) state S4.
When the person HB is looking at himself, the mode determination unit 55 maintains the redirection mode state S3.

リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらし続けている時間tが、予め設定された閾値T以上であるか否かを判定する。この閾値Tは、任意の値で設定できる(例えば、閾値T=1秒)。
時間tが閾値T以上の場合、モード判定部55は、復帰モーションモード状態S5に遷移する。
In the redirection mode (determination process) state S4, the mode determination unit 55 determines that the time t2 during which the person HB continues to look away from himself or herself is a preset threshold value T, based on the person HB 's line of sight information. Determine whether it is 2 or more. This threshold T 2 can be set to any value (for example, threshold T 2 =1 second).
If the time t 2 is equal to or greater than the threshold T 2 , the mode determination unit 55 transitions to the return motion mode state S5.

また、リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見たか否かを判定する。
人物Hが自分を見た場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
人物Hが自分を見ておらず、かつ、時間tが閾値T未満の場合、モード判定部55は、リダイレクションモード(判定処理)状態S4の状態を維持する。
Furthermore, in the redirection mode (determination processing) state S4, the mode determination unit 55 determines whether or not the person HB has looked at the person HB , based on the line-of-sight person information of the person HB .
When the person HB looks at himself, the mode determination unit 55 transitions to the redirection mode state S3.
If the person H B is not looking at the user and the time t 2 is less than the threshold T 2 , the mode determination unit 55 maintains the redirection mode (determination processing) state S4.

復帰モーションモード状態S5において、モード判定部55は、復帰モーションモード表示制御部57Cに復帰モーションモードを指令する。すると、復帰モーションモード表示制御部57Cは、人物HのARグラス4に人物Hを復帰モーションモードで表示させる。
復帰モーションが終了すると、モード判定部55は、リアルモード状態S1に遷移する。
In the return motion mode state S5, the mode determination section 55 instructs the return motion mode display control section 57C to select the return motion mode. Then, the return motion mode display control unit 57C displays the person HB on the AR glasses 4A of the person HA in the return motion mode.
When the return motion ends, the mode determination unit 55 transitions to the real mode state S1.

なお、人物HのARグラス4に人物Hを表示するときのAR表示制御装置5の動作も同様のため、説明を省略する。 Note that the operation of the AR display control device 5B when displaying the person HA on the AR glasses 4B of the person HB is also the same, so the explanation will be omitted.

[モーションパス]
図11及び図12を参照し、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cにおけるモーションパスについて説明する。
[Motion path]
Motion paths in the redirection mode display control section 57A and the return motion mode display control section 57C will be described with reference to FIGS. 11 and 12.

リダイレクションモード表示制御部57Aは、人物Hの頭部が実際の姿勢(頭部角度θ)から人物Hを振り向く角度(頭部角度θ)まで、人物Hの3DCGモデルが人物Hを振り向くように連続的に表示させる。このとき、リダイレクションモード表示制御部57Aは、モーションパス情報記録部56のモーションパス情報を用いて、頭部角度θから頭部角度θまでのモーションパスを決定する。 The redirection mode display control unit 57A changes the 3DCG model of the person HB from the actual posture of the head of the person HB (head angle θ 1 ) to the angle at which the head of the person HB turns toward the person HA (head angle θ 2 ). Continuously display A looking back. At this time, the redirection mode display control unit 57A uses the motion path information in the motion path information recording unit 56 to determine a motion path from head angle θ 1 to head angle θ 2 .

図11に示すように、モーションパス情報MPは、人物Hの頭部角度θ毎に、頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)を示す情報である。つまり、モーションパス情報MPは、前方(角度θ=0°)から頭部角度θまでの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)の変化量を示す。なお、図11のモーションパス情報MPでは、頭部角度θが30°間隔になっているが、頭部角度θの間隔は特に限定されない。 As shown in FIG . 11, the motion path information MP includes head position (x θ , y θ , z θ ) and head rotation amount (rx θ , ry θ , rz θ ). In other words, the motion path information MP includes the head position (x θ , y θ , z θ ) and the amount of head rotation (rx θ , ry θ , rz θ ) from the front (angle θ = 0°) to the head angle θ . ) shows the amount of change. Note that in the motion path information MP of FIG. 11, the head angles θ are spaced at intervals of 30°, but the intervals of the head angles θ are not particularly limited.

図12(a)に示すように、AR表示制御装置5では、実際の姿勢(頭部角度θ)における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を常に把握している。従って、リダイレクションモード表示制御部57Aは、実際の姿勢(頭部角度θ)における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物Hを基準とする座標系に座標変換することで、図12(b)に示すように、人物Hを振り向く角度(頭部角度θ)を算出できる。この座標変換は、人物HのARグラス4Aにおいて、人物Hを表示させるときのものと同様である。なお、人物Hの頭部の方向は、Y軸を鉛直とする方向ryで表される(人物Hの正面として映像表示装置6の方向(図12(b)の上方向)を0°とする)。 As shown in FIG. 12(a ) , the AR display control device 5A determines the head position (x, y, z ) and head rotation amount (rx , ry, rz). Therefore, the redirection mode display control unit 57A determines the head position (x, y, z) and head rotation amount (rx, ry, rz) of the person H B in the actual posture (head angle θ 1 ). By converting the coordinates to a coordinate system based on H A , the angle at which the person H A is turned (head angle θ 2 ) can be calculated, as shown in FIG. 12(b). This coordinate transformation is similar to that used when displaying the person HB on the AR glasses 4A of the person HA . The direction of the head of the person HB is expressed by the direction ry with the Y-axis being vertical (the direction of the video display device 6B (upward direction in FIG. 12(b)) is 0 as the front of the person HB . °).

そして、リダイレクションモード表示制御部57Aは、算出した頭部角度θに応じたモーションパスで、人物Hが人物Hを振り向くようにARグラス4に表示させる。以下、モーションパスの決定について、2つの具体例をあげて説明する。 Then, the redirection mode display control unit 57A causes the AR glasses 4A to display a motion path in accordance with the calculated head angle θ2 such that the person HB turns around to face the person HA . Determination of a motion path will be described below using two specific examples.

<モーションパスの決定:第1例>
この第1例の手法では、リダイレクションモードと判定された時刻t=0とし、時刻t=Tのときの人物Hが人物Hを完全に振り向くように、各時刻tのモーションパスを決定する(但し、0≦t≦T)。
<Determination of motion path: 1st example>
In the method of this first example, the time t=0 when the redirection mode is determined is set, and the motion path at each time t is determined so that the person HB at time t= T3 completely turns around the person HA . (However, 0≦t≦T 3 ).

ここで、各時刻tの頭部角度θを算出する関数は、以下の式(1)で表される。また、人物Hの頭部をより自然にリダイレクションさせるため、以下の式(2)に示す2次補間関数としてもよい。 Here, a function for calculating the head angle θ t at each time t is expressed by the following equation (1). Furthermore, in order to redirect the head of the person HB more naturally, a quadratic interpolation function shown in equation (2) below may be used.

Figure 0007420585000001
Figure 0007420585000001
Figure 0007420585000002
Figure 0007420585000002

まず、リダイレクションモード表示制御部57Aは、式(1)又は式(2)の関数を用いて、頭部角度θ,θから各時刻tの頭部角度θを算出する。なお、この頭部角度θは、座標変換前の人物Hを基準とする座標系で算出される。そして、リダイレクションモード表示制御部57Aは、図11のモーションパス情報MPから、各時刻tの頭部角度θに対応した人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を求める。その後、リダイレクションモード表示制御部57Aは、各時刻tの人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物Hを基準とする座標系に座標変換する。 First, the redirection mode display control unit 57A calculates the head angle θ t at each time t from the head angles θ 1 and θ 2 using the function of equation (1) or equation (2). Note that this head angle θt is calculated using a coordinate system based on the person HB before coordinate transformation. Then, the redirection mode display control unit 57A determines the head position (x t , y t , z t ) and the head position of the person HB corresponding to the head angle θ t at each time t from the motion path information MP in FIG. The partial rotation amount (rx t , ry t , rz t ) is calculated. Thereafter, the redirection mode display control unit 57A determines the head position (x t , y t , z t ) and head rotation amount (rx t , ry t , rz t ) of the person H B at each time t. Coordinates are converted to a coordinate system based on A.

さらに、リダイレクションモード中に人物Hが動いてしまい、人物Hを振り向く角度(頭部角度θ)が変化してしまう場合もある。この場合、リダイレクションモード表示制御部57Aは、定期的に頭部角度θ,θを再計算して頭部角度θを求め、人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を算出すればよい。 Furthermore, the person HA may move during the redirection mode, and the angle at which the person HA is turned (head angle θ 2 ) may change. In this case, the redirection mode display control unit 57A periodically recalculates the head angles θ 1 and θ 2 to obtain the head angle θ t and determines the head position (x t , y t , z t ) and the amount of head rotation (rx t , ry t , rz t ).

<モーションパスの決定:第2例>
前記した第1例の手法では、リダイレクションモードに入った時点で即座に、人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)がモーションパス情報MPの値で設定されてしまい、急な姿勢変化となって違和感を与えてしまう可能性がある。
<Determination of motion path: 2nd example>
In the method of the first example described above, the head position (x, y, z) and head rotation amount (rx, ry, rz) of the person HB are immediately updated to the motion path information MP when the redirection mode is entered. If the position is set at a value of

そこで、第2例の手法では、実際の姿勢における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)から、徐々にモーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)に近づける。 Therefore, in the method of the second example, the head position (x, y, z) and the amount of head rotation (rx, ry, rz) of the person H B in the actual posture are used to gradually adjust the head position of the motion path information MP. The position (x θ , y θ , z θ ) and head rotation amount (rx θ , ry θ , rz θ ) are approached.

説明を簡易にするため、頭部位置のx座標に着目する。リダイレクションモード表示制御部57Aは、以下の式(3)を用いて、現フレームにおける頭部位置のx座標から、次フレームにおける頭部位置のx´座標を算出する。この式(3)は、予め設定された定数kによる漸化式である。この定数kの値を大きくするほど、モーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)にゆっくりと近づく(但し、k≧1)。また、定数k=1に設定すると、第1例と同様になる。
なお、頭部位置のy座標及びz座標と、頭部回転量(rx,ry,rz)とについても、頭部位置のx座標と同様の漸化式で算出できる。
To simplify the explanation, we will focus on the x-coordinate of the head position. The redirection mode display control unit 57A calculates the x' coordinate of the head position in the next frame from the x coordinate of the head position in the current frame using the following equation (3). This equation (3) is a recurrence equation using a preset constant k. As the value of this constant k increases, the head position (x θ , y θ , z θ ) and head rotation amount (rx θ , ry θ , rz θ ) of the motion path information MP are slowly approached (however, k≧1). Furthermore, if the constant k is set to 1, the result will be similar to the first example.
Note that the y-coordinate and z-coordinate of the head position and the amount of head rotation (rx, ry, rz) can also be calculated using the same recurrence formula as for the x-coordinate of the head position.

Figure 0007420585000003
Figure 0007420585000003

復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aにおけるモーションパスと逆のモーションパスで、人物Hに振り向いている人物Hが実際の姿勢に復帰するようにARグラス4に表示させればよい。ここで、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aと同様の手法でモーションパスを決定できるため、説明を省略する。
また、人物HのARグラス4に人物Hを表示するときのモーションパスも同様のため、説明を省略する。
The return motion mode display control unit 57C displays on the AR glasses 4A such that the person HB who is turning towards the person HA returns to the actual posture using a motion path that is opposite to the motion path in the redirection mode display control unit 57A. Just let it happen. Here, the return motion mode display control section 57C can determine a motion path using the same method as the redirection mode display control section 57A, so a description thereof will be omitted.
Further, since the motion path when displaying the person HA on the AR glasses 4B of the person HB is also similar, the description thereof will be omitted.

[作用・効果]
以上のように、第1実施形態に係るAR表示システム1は、自分のARグラス4において、相手を前方に表示する場合であっても、相手が完全に自分を振り向いた状態となるので、空間共有での違和感を低減することができる。
さらに、AR表示システム1は、自分側と相手側との装置構成が同一なので、システム構成を簡易にすることができる。
[Action/Effect]
As described above, in the AR display system 1 according to the first embodiment, even when displaying the other party in front of you on your own AR glasses 4, the other party will be in a state where they are completely looking back at you, so the spatial It is possible to reduce the discomfort of sharing.
Furthermore, since the AR display system 1 has the same device configuration on its own side and on the other side, the system configuration can be simplified.

(第2実施形態)
[AR表示システムの構成]
図13を参照し、第2実施形態に係るAR表示システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second embodiment)
[AR display system configuration]
With reference to FIG. 13, differences in the configuration of an AR display system 1B according to the second embodiment from the first embodiment will be described.

図13に示すように、第2実施形態に係るAR表示システム1Bは、キャプチャ装置3Bをサーバ化した点が、第1実施形態と異なる。つまり、AR表示システム1Bは、2台のカメラ2B(2B,2B)と、1台のキャプチャ装置3Bと、2台のARグラス4(4,4)と、2台のAR表示制御装置5(5,5)とを備える。 As shown in FIG. 13, the AR display system 1B according to the second embodiment differs from the first embodiment in that the capture device 3B is made into a server. In other words, the AR display system 1B includes two cameras 2B (2B A , 2B B ), one capture device 3B, two AR glasses 4 (4 A , 4 B ), and two AR displays. and a control device 5 ( 5A , 5B ).

カメラ2Bは、ネットワークNWを介して、人物Hの撮影映像をキャプチャ装置3Bに送信する一般的なネットワークカメラである。このとき、カメラ2Bは、撮影した人物Hの識別情報を撮影映像に付加してもよい。この識別情報を参照すれば、後記するキャプチャ装置3Bが、人物H又は人物Hの何れの撮影映像であるか特定できる。 The camera 2B is a general network camera that transmits a captured image of the person H to the capture device 3B via the network NW. At this time, the camera 2B may add identification information of the photographed person H to the photographed video. By referring to this identification information, it is possible to specify whether the captured image of the person HA or the person HB is captured by the capture device 3B, which will be described later.

キャプチャ装置3Bは、カメラ2Bから入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。つまり、キャプチャ装置3Bは、人物HA,の3DCGモデル及びボーン情報を生成する。例えば、キャプチャ装置3Bは、ネットワークNW上に配置された一般的なサーバやクラウドサーバで構成できる。そして、キャプチャ装置3Bは、識別情報を参照し、人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信し、人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。
他の点、キャプチャ装置3Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The capture device 3B generates a 3DCG model of the person H and bone information of the person H using the photographed video of the person H input from the camera 2B. That is, the capture device 3B generates 3DCG models and bone information of the persons H A and H B. For example, the capture device 3B can be configured with a general server or a cloud server placed on the network NW. Then, the capture device 3B refers to the identification information, transmits the 3DCG model and bone information of the person HA to the AR display control device 5B , and sends the 3DCG model and bone information of the person HB to the AR display control device 5A. Send.
In other respects, the capture device 3B is similar to the first embodiment, so further explanation will be omitted.

[作用・効果]
以上のように、第1実施形態に係るAR表示システム1Bは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Bは、キャプチャ装置3Bをサーバ化することで、1台のキャプチャ装置3Bで実現可能となり、システム構成をより簡易にすることができる。
[Action/Effect]
As described above, the AR display system 1B according to the first embodiment can reduce the sense of discomfort in space sharing, similarly to the first embodiment.
Furthermore, the AR display system 1B can be realized with one capture device 3B by making the capture device 3B a server, and the system configuration can be further simplified.

(第3実施形態)
[AR表示システムの構成]
図14を参照し、第3実施形態に係るAR表示システム1Cの構成について、第1実施形態と異なる点を説明する。
(Third embodiment)
[Configuration of AR display system]
With reference to FIG. 14, differences in the configuration of an AR display system 1C according to the third embodiment from the first embodiment will be described.

図14に示すように、第3実施形態に係るAR表示システム1Cは、キャプチャ装置3CをARグラス4Cに内蔵すると共に撮影映像を送受信する点が、第1実施形態と異なる。つまり、AR表示システム1Cは、2台のカメラ2C(2C,2C)と、2台のキャプチャ装置3C(3C,3C)と、2台のARグラス4C(4C,4C)と、2台のAR表示制御装置5(5,5)とを備える。 As shown in FIG. 14, an AR display system 1C according to the third embodiment differs from the first embodiment in that a capture device 3C is built into AR glasses 4C and that captured images are transmitted and received. In other words, the AR display system 1C includes two cameras 2C (2C A , 2C B ), two capture devices 3C (3C A , 3C B ), and two AR glasses 4C (4C A , 4C B ). and two AR display control devices 5 ( 5A , 5B ).

カメラ2Cは、ネットワークNWを介して、人物Hの撮影映像を相手側のARグラス4Cに内蔵されたキャプチャ装置3Cに送信する一般的なネットワークカメラである。つまり、カメラ2は、人物Hの撮影映像を人物Hが装着するARグラス4Cのキャプチャ装置3に送信する。さらに、カメラ2は、人物Hの撮影映像を人物Hが装着するARグラス4Cのキャプチャ装置3に送信する。 The camera 2C is a general network camera that transmits a captured image of the person H to the capture device 3C built in the AR glasses 4C of the other party via the network NW. That is, the camera 2A transmits the photographed image of the person HA to the capture device 3B of the AR glasses 4CB worn by the person HB . Further, the camera 2B transmits the captured image of the person HB to the capture device 3A of the AR glasses 4CA worn by the person HA .

キャプチャ装置3Cは、ネットワークNWを介して、カメラ2Cから人物Hの撮影映像を受信し、受信した撮影映像を用いて、人物Hの3DCGモデル及びボーン情報を生成するものである。また、キャプチャ装置3Cは、ARグラス4Cに内蔵されている。
他の点、キャプチャ装置3C及びARグラス4Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The capture device 3C receives a captured image of the person H from the camera 2C via the network NW, and generates a 3DCG model and bone information of the person H using the received captured image. Further, the capture device 3C is built into the AR glasses 4C.
In other respects, the capture device 3C and the AR glasses 4C are the same as in the first embodiment, so further explanation will be omitted.

[作用・効果]
以上のように、第3実施形態に係るAR表示システム1Cは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Cは、3DCGモデルやボーン情報よりもデータ量が少ない撮影映像を送受信するので、ネットワークNWの通信帯域を節約することができる。
[Action/Effect]
As described above, the AR display system 1C according to the third embodiment can reduce the sense of discomfort in space sharing, similar to the first embodiment.
Furthermore, since the AR display system 1C transmits and receives captured images that have a smaller amount of data than the 3DCG model or bone information, it is possible to save the communication band of the network NW.

(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、AR表示装置がARグラスであることとして説明したが、これに限定されない。例えば、AR表示装置がAR表示機能を有するスマートフォンであってもよい。
前記した各実施形態では、AR表示制御装置がARグラスに内蔵されることとして説明したが、AR表示制御装置をARグラスの外部に備えてもよい。
(Modified example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes within a range that does not depart from the gist of the present invention.
In each of the embodiments described above, the AR display device is described as being an AR glass, but the present invention is not limited to this. For example, the AR display device may be a smartphone having an AR display function.
In each of the embodiments described above, the AR display control device is described as being built into the AR glasses, but the AR display control device may be provided outside the AR glasses.

前記した各実施形態では、AR表示装置をハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したAR表示装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the embodiments described above, the AR display device is described as hardware, but the present invention is not limited to this. For example, the present invention can be realized by a program that causes hardware resources such as a CPU, memory, and hard disk included in a computer to operate as the above-mentioned AR display device. These programs may be distributed via communication lines, or may be written and distributed on recording media such as CD-ROMs and flash memories.

1~1C AR表示システム
2~2C カメラ
3~3C キャプチャ装置
4,4C ARグラス
5 AR表示制御装置
6 映像表示装置
30 撮影映像入力部
31 3DCGモデル生成部
32 ボーン情報生成部
33 3DCG・ボーン情報送信部
40 視線センサ
41 ARディスプレイ
50 視線入力部
51 視線判定処理部
52 視線人物情報送信部(視線情報送信部)
53 3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)
54 視線人物情報受信部(視線情報受信部)
55 モード判定部
56 モーションパス情報記録部
57A リダイレクションモード表示制御部
57B リアルモード表示制御部
57C 復帰モーションモード表示制御部
58 バーチャル表示部
1-1C AR display system 2-2C Camera 3-3C Capture device 4, 4C AR glasses 5 AR display control device 6 Video display device 30 Photographed video input section 31 3DCG model generation section 32 Bone information generation section 33 3DCG/bone information transmission Section 40 Gaze sensor 41 AR display 50 Gaze input section 51 Gaze determination processing section 52 Gaze person information transmission section (Gaze information transmission section)
53 3DCG/bone information receiving unit (3D model posture information receiving unit)
54 Line-of-sight person information receiving unit (line-of-sight information receiving unit)
55 Mode determination section 56 Motion path information recording section 57A Redirection mode display control section 57B Real mode display control section 57C Return motion mode display control section 58 Virtual display section

Claims (7)

映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、
前記第2の人物が前記第1の人物を見ているか、又は、前記第2の人物が前記第1の人物から目をそらしたかを示す視線情報を受信する視線情報受信部と、
前記視線情報に基づいて、前記第2の人物が所定時間以上前記第1の人物を見続けている場合にはリダイレクションモードと判定し、前記第2の人物が前記第1の人物から目をそらした場合にはリアルモードと判定し、前記リダイレクションモードと判定された後、前記第2の人物が所定時間以上前記第1の人物から目をそらし続けている場合には復帰モーションモードと判定するモード判定部と、
前記リダイレクションモードと判定された場合には、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させるリダイレクションモード表示制御部と、
前記リアルモードと判定された場合には、前記第2の人物を実際の姿勢で前記AR表示装置に表示させるリアルモード表示制御部と、
前記復帰モーションモードと判定された場合には、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させる復帰モーションモード表示制御部と、
を備えることを特徴とするAR表示制御装置。
A second person viewing another video display device is displayed on an AR display device worn by a first person viewing the video display device so as to be on the side of the video display device being viewed by the first person. An AR display control device,
a line-of-sight information receiving unit that receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person;
Based on the line of sight information, if the second person continues to look at the first person for a predetermined period of time or more, the redirection mode is determined, and the second person looks away from the first person. If the second person continues to look away from the first person for a predetermined time or more after the redirection mode is determined, the mode is determined to be the return motion mode. A determination section;
When it is determined that the redirection mode is selected, a redirection mode display control unit causes the AR display device to display the second person looking back at the first person;
a real mode display control unit that displays the second person in an actual posture on the AR display device when the real mode is determined;
a return motion mode display control unit that causes the AR display device to display such that the second person who is turning towards the first person returns to an actual posture when the return motion mode is determined;
An AR display control device comprising:
前記第2の人物の頭部角度毎に頭部位置及び頭部回転量を示すモーションパス情報を予め記録するモーションパス情報記録部、をさらに備え、
前記リダイレクションモード表示制御部は、実際の姿勢における前記第2の人物の頭部位置及び頭部回転量を座標変換することで、前記第1の人物を振り向いたときの第2の人物の頭部角度を算出し、算出した当該頭部角度に応じたモーションパスで、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させることを特徴とする請求項1に記載のAR表示制御装置。
further comprising a motion path information recording unit that prerecords motion path information indicating a head position and a head rotation amount for each head angle of the second person,
The redirection mode display control unit coordinately transforms the head position and head rotation amount of the second person in the actual posture to display the head of the second person when looking back at the first person. 2. An angle is calculated, and the second person is displayed on the AR display device so as to look back at the first person using a motion path according to the calculated head angle. AR display control device.
前記復帰モーションモード表示制御部は、前記リダイレクションモード表示制御部におけるモーションパスと逆のモーションパスで、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させることを特徴とする請求項2に記載のAR表示制御装置。 The return motion mode display control section displays the AR display so that the second person who is turning toward the first person returns to his or her actual posture with a motion path that is opposite to the motion path in the redirection mode display control section. The AR display control device according to claim 2, wherein the AR display control device is configured to cause the device to display the information. 前記第2の人物の3次元モデル及び姿勢情報を受信する3次元モデル姿勢情報受信部、をさらに備え、
前記リダイレクションモード表示制御部、前記リアルモード表示制御部及び前記復帰モーションモード表示制御部は、前記第2の人物の3次元モデル及び姿勢情報を用いて、前記第2の人物を前記AR表示装置に表示させることを特徴とする請求項1から請求項3の何れか一項に記載のAR表示制御装置。
further comprising a 3D model posture information receiving unit that receives the 3D model and posture information of the second person,
The redirection mode display control unit, the real mode display control unit, and the return motion mode display control unit display the second person on the AR display device using the three-dimensional model and posture information of the second person. The AR display control device according to any one of claims 1 to 3, wherein the AR display control device displays an image.
前記AR表示装置から入力された前記第1の人物の視線検出結果に基づいて、前記第1の人物の視線が前記AR表示装置に表示されている第2の人物の領域に重なっているか否かにより、前記第1の人物が前記第2の人物を見ているか否かを判定する視線判定処理部と、
前記視線判定処理部の判定結果を、前記視線情報として、前記第2の人物が装着する他のAR表示装置に送信する視線情報送信部と、
をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載のAR表示制御装置。
Based on the first person's line of sight detection result input from the AR display device, whether or not the first person's line of sight overlaps the area of the second person displayed on the AR display device. a line of sight determination processing unit that determines whether the first person is looking at the second person;
a line-of-sight information transmitting unit that transmits the determination result of the line-of-sight determination processing unit as the line-of-sight information to another AR display device worn by the second person;
The AR display control device according to any one of claims 1 to 4, further comprising the following.
コンピュータを、請求項1から請求項5の何れか一項に記載のAR表示制御装置として機能させるためのプログラム。 A program for causing a computer to function as the AR display control device according to any one of claims 1 to 5. 他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、
前記撮影カメラの撮影映像を用いて、前記第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、
請求項1から請求項5の何れか一項に記載のAR表示制御装置と、を備え、
前記AR表示制御装置は、前記第2の人物の3次元モデル及び姿勢情報を用いて、映像表示装置を視聴する第1の人物が装着するAR表示装置に、前記第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示することを特徴とするAR表示システム。
a camera that photographs a second person viewing another video display device;
a three-dimensional model/posture information generation device that generates a three-dimensional model and posture information of the second person using a captured image of the photographing camera;
An AR display control device according to any one of claims 1 to 5,
The AR display control device displays the second person on the AR display device worn by the first person viewing the video display device, using the three-dimensional model and posture information of the second person. An AR display system characterized by displaying images on the side of a video display device that is viewed by a person.
JP2020026834A 2020-02-20 2020-02-20 AR display control device, its program, and AR display system Active JP7420585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020026834A JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020026834A JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Publications (2)

Publication Number Publication Date
JP2021131741A JP2021131741A (en) 2021-09-09
JP7420585B2 true JP7420585B2 (en) 2024-01-23

Family

ID=77551061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020026834A Active JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Country Status (1)

Country Link
JP (1) JP7420585B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence

Also Published As

Publication number Publication date
JP2021131741A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
US11205293B2 (en) Avatar display system in virtual space, avatar display method in virtual space, and computer program
US12170698B2 (en) Arm movement mimicking
US10171792B2 (en) Device and method for three-dimensional video communication
JP5208810B2 (en) Information processing apparatus, information processing method, information processing program, and network conference system
CN109671141B (en) Image rendering method and device, storage medium and electronic device
KR20190112712A (en) Improved method and system for video conferencing with head mounted display (HMD)
US11507203B1 (en) Body pose estimation using self-tracked controllers
US11099392B2 (en) Stabilized and tracked enhanced reality images
WO2010022351A2 (en) System and method for low bandwidth image transmission
US20210014468A1 (en) Information processing apparatus, information processing method, and recording medium
WO2013163699A1 (en) System and method for eye alignment in video
JP7560835B2 (en) Program and information processing method
JP7525598B2 (en) COMMUNICATION TERMINAL DEVICE, COMMUNICATION METHOD, AND SOFTWARE PROGRAM
US20160379407A1 (en) Virtual Fantasy System and Method of Use
JP2020065229A (en) Video communication method, video communication device, and video communication program
CN112783700A (en) Computer readable medium for network-based remote assistance system
JP2023152955A (en) Head-tracking-based media selection for video communication in virtual environment
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
CN112272817B (en) Method and apparatus for providing audio content in immersive reality
JP6969577B2 (en) Information processing equipment, information processing methods, and programs
JP7420585B2 (en) AR display control device, its program, and AR display system
JP5759439B2 (en) Video communication system and video communication method
WO2016182504A1 (en) A virtual reality headset
JP6516316B1 (en) Image processing apparatus, method, computer program
JP7370305B2 (en) Presentation system, server, second terminal and program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240111

R150 Certificate of patent or registration of utility model

Ref document number: 7420585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150