JPH0721407A - Method for displaying picture - Google Patents

Method for displaying picture

Info

Publication number
JPH0721407A
JPH0721407A JP19191593A JP19191593A JPH0721407A JP H0721407 A JPH0721407 A JP H0721407A JP 19191593 A JP19191593 A JP 19191593A JP 19191593 A JP19191593 A JP 19191593A JP H0721407 A JPH0721407 A JP H0721407A
Authority
JP
Japan
Prior art keywords
dimensional
function
brightness
color
display method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19191593A
Other languages
Japanese (ja)
Other versions
JP3278501B2 (en
Inventor
Masaaki Oka
正昭 岡
Masakazu Suzuoki
雅一 鈴置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP19191593A priority Critical patent/JP3278501B2/en
Publication of JPH0721407A publication Critical patent/JPH0721407A/en
Application granted granted Critical
Publication of JP3278501B2 publication Critical patent/JP3278501B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To attain a non-linear fog effect faithful to a landscape on the practical earth by high speed arithmetic processing without increasing the size of harware. CONSTITUTION:This picture display method generates display picture data on a two-dimensional screen from picture data consisting of three-dimensional information including depth information Z and displays a three-dimensional object on the two-dimensional screen. In the case of displaying an object so as to observe it faintly in accordance with a distance far from a visual point by mixing the color and brightness of an object, the color of fog and the brightness of air based upon a prescribed mixing coefficient to be a function of depth information Z, the mixing coefficient is generated from a hyperbola function.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、例えばコンピュータ
グラフィックスのように3次元的な画像を2次元スクリ
ーンに表示するようにする画像表示方法に関し、特に、
いわゆるフォグ(霧)効果により3次元的な視覚効果を
高める発明に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display method for displaying a three-dimensional image on a two-dimensional screen, such as computer graphics.
The present invention relates to an invention that enhances a three-dimensional visual effect by a so-called fog effect.

【0002】[0002]

【従来の技術】グラフィックコンピュータやゲーム機な
ど、コンピュータグラフィックスを応用した機器では、
3次元の物体や背景を2次元スクリーン上においてリア
ルに表現することが求められる。2次元スクリーン上に
おけるリアルな3次元表現の手法としてはシェーディン
グがよく用いられる。シェーディングは光源の位置や方
向を決め、それによって表現しようとしている物体にど
のような明暗(陰影)ができるかを計算し描画すること
により物体を3次元的(立体的)に見せる手法である。
2. Description of the Related Art In devices that apply computer graphics, such as graphic computers and game consoles,
It is required to realistically represent a three-dimensional object or background on a two-dimensional screen. Shading is often used as a realistic three-dimensional representation method on a two-dimensional screen. Shading is a method of making a three-dimensional (three-dimensional) object look by determining the position and direction of the light source, calculating what kind of light and shade (shadow) the object to be rendered can be drawn, and drawing it.

【0003】図7はシェーディングの原理を説明するも
のである。ここでは簡単のため平行光源によるシェーデ
ィングについて説明する。また、光源や物体は輝度だけ
を持ち、色については考えないものとする。
FIG. 7 illustrates the principle of shading. Here, for simplicity, the shading by the parallel light source will be described. In addition, the light source and the object have only brightness, and do not consider the color.

【0004】平行光源1の場合、光源の位置は与えられ
ず、方向と強さだけを持つ。物体2の点での陰影の強さ
を計算するには、その点での物体表面の法線ベクトルV
Iと光源の方向と強さを表わす光源ベクトルVLの内積
をとり、陰影の強さとする。このとき負の値は0に置き
換える。
In the case of the parallel light source 1, the position of the light source is not given, but it has only the direction and strength. To calculate the strength of the shadow at the point of the object 2, the normal vector V of the object surface at that point is calculated.
The inner product of I and the light source vector VL representing the direction and strength of the light source is taken as the shadow strength. At this time, the negative value is replaced with 0.

【0005】このように、シェーディングによる陰影は
物体の形や向きによって決まるため、物体が空間のどこ
にあっても同じような陰影が付く。そのためシェーディ
ングだけでは、どこまでも澄み渡った宇宙空間のような
ものを表現できるが、現実の地球上の風景を表現しにく
い。それは現実の地球上の風景には大気による光の減衰
があるため、図8に示すように、遠くにあるものほどぼ
んやりと見えるからである。
As described above, since the shading due to shading is determined by the shape and orientation of the object, the same shading is given wherever the object is in space. Therefore, it is possible to express a clear space like space by shading alone, but it is difficult to express the actual landscape on the earth. This is because, in the actual landscape on the earth, light is attenuated by the atmosphere, and as shown in FIG.

【0006】そこで、コンピュータグラフィックスで
も、視点から物体までの距離を使って、物体の明るさと
大気の明るさを混合(ブレンディング)し、遠くのもの
ほどぼんやり見えるようにすることがある。図9はこの
方法の一つを説明するものである。
Therefore, even in computer graphics, there is a case where the brightness of an object and the brightness of the atmosphere are mixed (blending) by using the distance from the viewpoint to the object so that the farther the object is, the more faint it looks. FIG. 9 illustrates one of these methods.

【0007】まず、大気により物体が完全に見えなくな
る地点Pmax と、大気の影響が現れない地点Pmin を決
め、これらの地点までの視点からの距離を、それぞれZ
max、Zmin と決める。次に視点から物体の位置Pzま
での距離をZ(奥行き情報)とする。物体の明るさをL
0、大気の明るさ(暗さ)をL1とすると、視点から見
た物体の明るさLは、 L=L0×(Zmax −Z)/(Zmax −Zmin ) +L1×(Z−Zmin )/(Zmax −Zmin ) (式1−1) により求められる。すなわち、これは、物体の明るさL
0と大気の明るさL1を線形に内挿する方法である。
First, a point Pmax at which an object is completely invisible due to the atmosphere and a point Pmin at which the influence of the atmosphere does not appear are determined, and the distances from the viewpoint to these points are respectively set to Z.
Determine max and Zmin. Next, let Z (depth information) be the distance from the viewpoint to the position Pz of the object. The brightness of the object is L
0, and the brightness (darkness) of the atmosphere is L1, the brightness L of the object seen from the viewpoint is L = L0 * (Zmax-Z) / (Zmax-Zmin) + L1 * (Z-Zmin) / ( Zmax-Zmin) (Equation 1-1). That is, this is the brightness L of the object.
This is a method of linearly interpolating 0 and the brightness L1 of the atmosphere.

【0008】図9は、この場合の内挿関数(混合係数の
関数) IL(Z)=(Z−Zmin )/(Zmax −Zmin ) (式1−2) を表わすグラフであり、視点(Z=0)からZmin まで
は0、Zmax から無限遠までは1にクリッピングされ
る。
FIG. 9 is a graph showing the interpolation function (function of the mixing coefficient) IL (Z) = (Z-Zmin) / (Zmax-Zmin) (Equation 1-2) in this case. It is clipped to 0 from (= 0) to Zmin and to 1 from Zmax to infinity.

【0009】このような線形関数による内挿による混合
係数によっても遠近感は得られるが、実際の大気による
光の減衰すなわちフォグ効果を考えると次のようなこと
がわかる。
The perspective can be obtained also by the mixing coefficient by the interpolation by such a linear function, but the following can be understood when considering the attenuation of light by the actual atmosphere, that is, the fog effect.

【0010】フォグ効果は、細かい水滴が空間を覆って
遠くの景色がぼやける現象である。これを物理的に考え
てみると、物体が距離Zから、わずかな距離dZだけ、
少し遠ざかると、その距離間には水滴の細かい粒がある
から、その分、物体は水滴に覆い隠される。
The fog effect is a phenomenon in which fine water drops cover a space and a distant view is blurred. Physically considering this, the object is a distance dZ from the distance Z,
If you move a little away, there will be fine particles of water droplets between the distances, and the object will be covered by the water droplets.

【0011】今、物体の距離Zの位置における輝度をL
とする。水滴が空中に浮かんでいる割合をa(a<1.0
)とすれば、わずかな距離dZだけ遠ざかる間に物体
の色は少しぼやけて、 (1−a・dZ)×L (式2) になる。
Now, the brightness at the position of the distance Z of the object is L
And The ratio of water droplets floating in the air is a (a <1.0
), The color of the object is slightly blurred while moving away by a slight distance dZ, and becomes (1-a · dZ) × L (Equation 2).

【0012】また、水滴自身の色をL1とすれば、逆に
水滴の色は、 a・dZ・L1 (式3) だけ加わるから、視点からの距離Z+dZの位置の物体
の輝度(L+dL)は結局、 L+dL=(1−a・dZ)L+a・dZ・L1 (式4) になる。これをZ=0のときL=L0という条件のもと
に解くと、 L=(L0−L1)×exp (−a・Z)+L1 (式5) L=L0×exp (−a・Z)+L1×(1−exp (−a・Z)) (式6) となる。これは、Z=0で元の色L0に、Z=∞でL1
に、それぞれ漸近する指数関数である。図10は、指数
関数{1−exp (−a・Z)}を示すグラフである。
If the color of the water droplet itself is L1, then the color of the water droplet is added by a.dZ.L1 (Equation 3). Therefore, the brightness (L + dL) of the object at the distance Z + dZ from the viewpoint is After all, L + dL = (1-a · dZ) L + a · dZ · L1 (Equation 4). When this is solved under the condition of L = L0 when Z = 0, L = (L0-L1) * exp (-a.Z) + L1 (Equation 5) L = L0 * exp (-a.Z) + L1 × (1-exp (−a · Z)) (Equation 6). This is the original color L0 at Z = 0 and L1 at Z = ∞.
, Are asymptotic exponential functions. FIG. 10 is a graph showing the exponential function {1-exp (-a · Z)}.

【0013】ここで、線形な内挿の場合と同様に、Zma
x 、Zmin を設定し、式6を少し修正して、次の式7の
ようにすると、内挿関数INL(Z)は、図11のグラ
フのようになる。
Here, as in the case of linear interpolation, Zma
When x and Zmin are set and Expression 6 is slightly modified to obtain Expression 7, the interpolation function INL (Z) becomes as shown in the graph of FIG.

【0014】 L=L0×(1−INL(Z))+L1×INL(Z) INL(Z)=(1−exp (−a(Z−Zmin ))) ÷(1−exp (−a(Zmax −Zmin ))) (式7)L = L0 × (1−INL (Z)) + L1 × INL (Z) INL (Z) = (1-exp (−a (Z−Zmin))) ÷ (1−exp (−a (Zmax -Zmin))) (Equation 7)

【0015】[0015]

【発明が解決しようとする課題】図9と図11との比較
から明らかなように、線形な内挿では現実のフォグ効果
から遠く異なり、現実感に乏しい。現実感のあるフォグ
効果を得るためには(式7)で与えられる非線形な内挿
による混合係数を用いればよいが、式7の計算には指数
演算が必要であり、時間がかかり、ゲーム機などの簡易
システムでは困難であった。
As is apparent from the comparison between FIG. 9 and FIG. 11, linear interpolation is far from the actual fog effect and is not realistic. In order to obtain a realistic fog effect, the mixing coefficient obtained by the non-linear interpolation given by (Equation 7) may be used, but the calculation of Equation 7 requires exponential calculation, which takes time, It was difficult with such a simple system.

【0016】この発明は、以上の点にかんがみ、式7と
同様の非線形な内挿を高速に行ない、現実感のあるフォ
グ効果を得ることができる画像表示方法を提供すること
を目的とするものである。
In view of the above points, it is an object of the present invention to provide an image display method capable of performing a non-linear interpolation similar to the equation 7 at high speed and obtaining a realistic fog effect. Is.

【0017】[0017]

【課題を解決するための手段】上記課題を解決するた
め、この発明においては、内挿関数として双曲線関数を
用いる。
In order to solve the above problems, the present invention uses a hyperbolic function as an interpolation function.

【0018】すなわち、この発明は、奥行き情報を含む
3次元情報からなる画像データから、2次元スクリーン
上の表示画像データを生成し、3次元の物体を上記2次
元スクリーン上に表示するようにする画像表示方法にお
いて、上記物体の明るさと、大気の明るさとを、上記奥
行き情報の関数である所定の混合係数を用いて混合し
て、視点から遠くのものほど、ぼんやりと見えるように
表示すると共に、上記混合係数を双曲線関数から生成す
ることを特徴とする。
That is, according to the present invention, display image data on a two-dimensional screen is generated from image data composed of three-dimensional information including depth information, and a three-dimensional object is displayed on the two-dimensional screen. In the image display method, the brightness of the object and the brightness of the atmosphere are mixed using a predetermined mixing coefficient that is a function of the depth information, and the more distant from the viewpoint, the more dimly displayed. , The above mixing coefficient is generated from a hyperbolic function.

【0019】[0019]

【作用】図2は、−1/Zの双曲線関数のグラフのZ>
0の部分である。この図2から明らかなように、これ
は、式7の内挿関数(指数関数)のグラフ(図11)と
同様に、上に凸な関数であることがわかる。この図2の
関数を、図3に示すように、Z方向にb、Z方向と直交
する方向にcだけ平行移動することにより、前述の式7
と同様のZmax 、Zmin を設定するようにすると、次式
のような内挿関数IGL(Z)をつくることができる。
2 is a graph of a hyperbolic function of -1 / Z, where Z>
It is the 0 part. As is clear from FIG. 2, this is a convex function as in the graph (FIG. 11) of the interpolation function (exponential function) of Expression 7. As shown in FIG. 3, the function of FIG. 2 is translated by b in the Z direction and by c in the direction orthogonal to the Z direction to obtain the equation 7
By setting Zmax and Zmin similar to, it is possible to create an interpolating function IGL (Z) as shown below.

【0020】 L=L0×(1−IGL(Z))+L1×IGL(Z) (式8−1) IGL(Z)=K/(Z+b)+c (K<0) (式8−2) この内挿関数IGL(Z)に、Z=Zmax 、Z=Zmin
を代入すると、 IGL(Zmin )=K/(Zmin +b)+c=0 (式8−3) IGL(Zmax )=K/(Zmax +b)+c=1.0 (式8−4) が得られる。式(8−3)、式(8−4)は、b、cに
ついて2次方程式となるが、平行移動量の少ないbを選
ぶと次のように解ける。
L = L0 × (1-IGL (Z)) + L1 × IGL (Z) (Equation 8-1) IGL (Z) = K / (Z + b) + c (K <0) (Equation 8-2) Z = Zmax, Z = Zmin in the interpolation function IGL (Z)
Is substituted, IGL (Zmin) = K / (Zmin + b) + c = 0 (Equation 8-3) IGL (Zmax) = K / (Zmax + b) + c = 1.0 (Equation 8-4) is obtained. Equations (8-3) and (8-4) are quadratic equations for b and c, but can be solved as follows if b with a small amount of parallel movement is selected.

【0021】[0021]

【数1】 [Equation 1]

【0022】[0022]

【数2】 ここで、Kはグラフの曲率を変えるパラメータである。[Equation 2] Here, K is a parameter that changes the curvature of the graph.

【0023】図3と図11を比較すれば明らかなよう
に、内挿関数IGL(Z)のグラフは、正確なフォグ効
果の内挿関数INL(Z)のグラフとよく似ており、式
8−2が式7の近似になっていることがわかる。したが
って、内挿関数INL(Z)の代わりに内挿関数IGL
(Z)を用いることにより、表示画像について、現実の
フォグ効果に近似した効果を得ることができる。
As is clear from a comparison between FIG. 3 and FIG. 11, the graph of the interpolation function IGL (Z) is very similar to the graph of the exact fog effect interpolation function INL (Z), and It can be seen that −2 is an approximation of Equation 7. Therefore, instead of the interpolation function INL (Z), the interpolation function IGL
By using (Z), it is possible to obtain an effect similar to the actual fog effect for the display image.

【0024】ところで、この発明が対象とする3次元の
コンピュータグラフィックスでは、物体の描画に際し
て、物体を3次元空間から2次元スクリーン画面上に透
視変換するため、物体についての3次元座標を視点から
の距離Zで割り算する必要があり、Zによる割り算を高
速に実行する機能を備えたものが多い。
By the way, in the three-dimensional computer graphics to which the present invention is applied, when the object is drawn, the object is perspective-transformed from the three-dimensional space onto the two-dimensional screen screen, so that the three-dimensional coordinates of the object are viewed from the viewpoint. It is necessary to divide by the distance Z of, and many have a function of executing the division by Z at high speed.

【0025】上述の双曲線関数は、距離Zで割り算を行
うものであるので、この発明では、透視変換のための割
り算機能を流用して、上述のような非線形なフォグ計算
を近似的に行ない、現実感のあるフォグ効果をハードウ
エア規模を増すことなく高速に実現できる。
Since the above-mentioned hyperbolic function divides by the distance Z, the present invention uses the division function for perspective transformation to approximately perform the above-mentioned nonlinear fog calculation. Realistic fog effect can be realized at high speed without increasing the hardware scale.

【0026】[0026]

【実施例】以下、この発明のよる画像表示方法の一実施
例を図を参照しながら説明する。図4は、この発明の一
実施例を実行するためのシステムの一例を示すブロック
図である。このブロック図では、この発明が主として対
象とするグラフィックコンピュータやゲーム機のうち、
3次元のコンピュータグラフィックスを実行し、描画を
行なう部分だけを示している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the image display method according to the present invention will be described below with reference to the drawings. FIG. 4 is a block diagram showing an example of a system for carrying out an embodiment of the present invention. In this block diagram, among the graphic computers and game consoles to which the present invention mainly applies,
Only the part that executes three-dimensional computer graphics and draws is shown.

【0027】図4の説明に先立ち、3次元のコンピュー
タグラフィックスによる画像描画処理の概要を説明す
る。コンピュータグラフィックスでは、描画しようとす
る物体は小さな基本図形(ポリゴン(多角形))に分割
され、そのポリゴンの形、位置、向き、色、模様などが
画像を決めるポリゴンデータとして与えられる。ポリゴ
ンの形、位置、向きは、その頂点の座標で決まる。
Prior to the description of FIG. 4, an outline of the image drawing processing by three-dimensional computer graphics will be described. In computer graphics, an object to be drawn is divided into small basic figures (polygons), and the shape, position, orientation, color, pattern, etc. of the polygons are given as polygon data that determines an image. The shape, position, and orientation of a polygon are determined by the coordinates of its vertices.

【0028】画像描画処理としては、先ず、例えばメモ
リや記録媒体に蓄えられている描画データを読み込み、
その描画データから物体を構成する小ポリゴンの頂点座
標と輝度データを得る。次に、例えば所定の入力手段か
ら入力された視点位置の情報を元に、当該視点に正対す
るスクリーンを仮想して、小ポリゴンの頂点座標を、そ
のスクリーン上の座標に変換する。
As the image drawing process, first, for example, the drawing data stored in the memory or the recording medium is read,
From the drawing data, the vertex coordinates of the small polygons forming the object and the brightness data are obtained. Next, for example, based on the viewpoint position information input from a predetermined input means, the screen that directly faces the viewpoint is hypothesized, and the vertex coordinates of the small polygon are converted into the coordinates on the screen.

【0029】この頂点座標の座標変換は、視点を基準に
した物体の向きに変換のための3次元座標変換の処理
と、上記のスクリーンに対して視点からの物体までの距
離Zに応じた透視変換(2次元座標変換)とを行う。3
次元座標変換は、座標変換マトリクスを用いて行い、透
視変換は、頂点の奥行き情報(Z座標情報)を用いた割
り算演算により行うものである。
The coordinate transformation of the vertex coordinates is a three-dimensional coordinate transformation process for transforming the orientation of the object based on the viewpoint, and a perspective according to the distance Z from the viewpoint to the object on the screen. Conversion (two-dimensional coordinate conversion) is performed. Three
The dimensional coordinate conversion is performed using a coordinate conversion matrix, and the perspective conversion is performed by a division operation using depth information (Z coordinate information) of the vertices.

【0030】次式10−1、式10−2は透視変換で実
行される計算である。ここでX、Yは、3次元座標変換
後の3次元空間のX座標、Y座標であり、hは視点から
スクリーンまでの距離、SX、SYはスクリーン上のX
座標、Y座標である。
The following equations 10-1 and 10-2 are calculations executed by perspective transformation. Here, X and Y are the X and Y coordinates of the three-dimensional space after the three-dimensional coordinate conversion, h is the distance from the viewpoint to the screen, and SX and SY are the X on the screen.
The coordinates are the Y coordinate.

【0031】 SX=X×h/Z (式10−1) SY=Y×h/Z (式10−2) そして、得られた変換後の頂点座標データに従ってビデ
オRAM上にポリゴンの描画を、与えられた輝度値によ
り行う。このときに、フォグ効果の処理を行う場合に
は、上述の内挿関数を用いて小ポリゴンの輝度値を置き
換える。
SX = X × h / Z (Equation 10-1) SY = Y × h / Z (Equation 10-2) Then, the polygon is drawn on the video RAM according to the obtained converted vertex coordinate data. It is performed by the given brightness value. At this time, when the fog effect processing is performed, the above-described interpolation function is used to replace the brightness value of the small polygon.

【0032】図4は、以上の処理を高速に行う画像処理
システムの構成となっている。この図4のシステムにお
いては、システムバス11に対して、CPU12、メイ
ンメモリ13、ジェオメトリプロセッサ14、ラスター
プロセッサ15が接続され、ラスタープロセッサ15に
対してビデオRAM16が接続される。そして、ビデオ
RAM16から読み出されたデジタルビデオ信号がD/
Aコンバータによりアナログビデオ信号に変換され、表
示モニター装置に供給されて、その画面に表示される。
FIG. 4 shows the configuration of an image processing system for performing the above processing at high speed. In the system of FIG. 4, the CPU 12, the main memory 13, the geometry processor 14, and the raster processor 15 are connected to the system bus 11, and the video RAM 16 is connected to the raster processor 15. The digital video signal read from the video RAM 16 is D /
It is converted into an analog video signal by the A converter, supplied to the display monitor device, and displayed on the screen.

【0033】CPU12は、システム全体のコントロー
ルやシステムバス11を介してのブロック間のデータ転
送を行なう。メインメモリ13には、プログラムやデー
タが格納される。ジェオメトリプロセッサ14は、与え
られたプログラムやデータから描画される画像を決める
座標計算や画素値(輝度や色)の計算を行なう。ラスタ
ープロセッサ15は、ジェオメトリプロセッサでの計算
結果を使ってビデオRAM16に描画を行なう。
The CPU 12 controls the entire system and transfers data between blocks via the system bus 11. Programs and data are stored in the main memory 13. The geometry processor 14 calculates coordinates for determining an image to be drawn from a given program or data and calculates pixel values (luminance or color). The raster processor 15 draws on the video RAM 16 using the calculation result of the geometry processor.

【0034】図5はジェオメトリプロセッサ14の構成
例を詳細に表わしたもので、ジェオメトリプロセッサ1
4は、座標変換や画素値計算をするための積和演算器2
1と、割り算器22とを備えて構成される。割り算器2
2は、この例では、透視変換とフォグ効果の内挿計算の
ために用いられる。
FIG. 5 shows a detailed configuration example of the geometry processor 14, in which the geometry processor 1
4 is a product-sum calculator 2 for coordinate conversion and pixel value calculation
1 and a divider 22. Divider 2
2 is used in this example for perspective transformation and fog effect interpolation calculations.

【0035】図1は、この発明による画像表示方法に従
ってフォグ効果を計算する手順の一例を示すフローチャ
ートである。ここでは、座標変換や画素値変換や透視変
換を行なう手順についても示している。
FIG. 1 is a flow chart showing an example of the procedure for calculating the fog effect according to the image display method according to the present invention. Here, a procedure for performing coordinate conversion, pixel value conversion, and perspective conversion is also shown.

【0036】[ステップS1]先ず、CPU12は、メ
インメモリ13のプログラムとデータに従い、3次元空
間における物体を構成する小ポリゴンの頂点座標と輝度
を、ジェオメトリプロセッサ14の積和演算器21によ
り計算する。
[Step S1] First, the CPU 12 calculates the vertex coordinates and brightness of the small polygons forming the object in the three-dimensional space by the product-sum calculator 21 of the geometry processor 14 according to the program and data in the main memory 13. To do.

【0037】[ステップS2]次に、ステップS2で
は、ジェオメトリプロセッサ14は、その割り算器22
を使用して、前述の式10−1、式10−2の演算を行
って、小ポリゴンの頂点の3次元座標から透視変換を行
ない、スクリーン座標を求める。
[Step S2] Next, in step S2, the geometry processor 14 makes the divider 22
Is used to perform the calculations of the above equations 10-1 and 10-2 to perform perspective transformation from the three-dimensional coordinates of the vertices of the small polygon to obtain the screen coordinates.

【0038】[ステップS3]小ポリゴンの頂点の3次
元座標のうちのZ座標から、前述の式8−2に従って内
挿関数IGL(Z)を求める。その際、ジェオメトリプ
ロセッサ14は、透視変換用の割り算器22を用いて内
挿関数IGL(Z)を計算する。
[Step S3] The interpolation function IGL (Z) is obtained from the Z coordinate of the three-dimensional coordinates of the vertices of the small polygon according to the above-mentioned equation 8-2. At that time, the geometry processor 14 calculates the interpolation function IGL (Z) using the perspective-dividing divider 22.

【0039】[ステップS4]視点から見た物体の明る
さLを、式8−1に従ってジェオメトリプロセッサ14
で計算する。そして、その計算結果の明るさLで小ポリ
ゴンの輝度を置き換え、フォグ効果を生成する。
[Step S4] The brightness L of the object viewed from the viewpoint is calculated according to the equation 8-1 by the geometry processor 14
Calculate with. Then, the brightness L of the calculation result is replaced with the brightness of the small polygon to generate the fog effect.

【0040】[ステップS5]物体を構成する全ての小
ポリゴンについて、ステップS1からステップS4を繰
り返す。
[Step S5] Steps S1 to S4 are repeated for all the small polygons forming the object.

【0041】次に、図6はこの発明による画像表示方法
の別の実施例を示すフローチャートである。
Next, FIG. 6 is a flow chart showing another embodiment of the image display method according to the present invention.

【0042】この例は、式8−2における定数bが0で
ある場合、すなわちZmax だけが指定される場合であ
る。式8−1〜式8−4は、それぞれ L=L0×(1−IHL(Z))+L1×IHL(Z) (式11−1) IHL(Z)=K/Z+c (式11−2) IHL(Zmax )=K/Zmax +c=1.0 (式11−3) c=Zmax −K (式11−4) となる。
In this example, the constant b in the equation 8-2 is 0, that is, only Zmax is specified. Formula 8-1 to Formula 8-4 are respectively L = L0 * (1-IHL (Z)) + L1 * IHL (Z) (Formula 11-1) IHL (Z) = K / Z + c (Formula 11-2) IHL (Zmax) = K / Zmax + c = 1.0 (Equation 11-3) c = Zmax-K (Equation 11-4).

【0043】ここで、 IHL(Z)=K/Z+c=(K/h)×(h/Z)+
c である。したがって、この場合は透視変換用の割り算機
能が使用できるだけでなく、透視変換の際の計算結果
(h/Z)を使用して、より高速にフォグ効果の計算が
行なえる。
Here, IHL (Z) = K / Z + c = (K / h) × (h / Z) +
c. Therefore, in this case, not only the division function for perspective transformation can be used, but also the calculation result (h / Z) at the time of perspective transformation can be used to calculate the fog effect at higher speed.

【0044】この図6の例で、図1の例と異なるのは、
ステップS3がステップS3´に変わるだけである。ス
テップS3´では、小ポリゴンの頂点の3次元座標のう
ちのZ座標から式11に従って内挿関数IHL(Z)を
求める。その際、透視変換の際の割り算結果を用いて内
挿関数IHL(Z)が計算される。
The example of FIG. 6 differs from the example of FIG. 1 in that
Only step S3 is changed to step S3 '. In step S3 ′, the interpolation function IHL (Z) is obtained from the Z coordinate of the three-dimensional coordinates of the vertices of the small polygon according to the equation 11. At that time, the interpolation function IHL (Z) is calculated using the division result in the perspective transformation.

【0045】なお、以上の説明では、説明の簡単のた
め、輝度のみについて説明したが、カラー表示の場合に
は、物体の色と、フォグの色とを混合することにより、
フォグ効果を得るようにすることができる。その場合に
は、例えば、物体の色とフォグの色は、それぞれ3原色
で構成し、各原色情報について、上述の内挿演算を行っ
て表示色を決定するようにすればよい。
In the above description, for the sake of simplicity, only the luminance has been described. However, in the case of color display, by mixing the color of the object and the color of the fog,
The fog effect can be obtained. In that case, for example, the color of the object and the color of the fog are each composed of three primary colors, and the display color is determined by performing the above-described interpolation calculation for each primary color information.

【0046】[0046]

【発明の効果】以上説明したように、この発明による画
像表示方法によれば、コンピュータグラフィックスによ
る映像の現実感を増す効果のあるフォグ効果のための混
合係数を生成するための内挿関数を、現実のものに正確
に対応する指数関数に代えて、双曲線関数を用いて近似
したことにより、現実の地球上の風景に忠実な非線形の
フォグ効果を、ハードウエア規模を増すことなく高速演
算処理により実現することができる。
As described above, according to the image display method of the present invention, the interpolation function for generating the mixing coefficient for the fog effect which has the effect of increasing the reality of the image by computer graphics is used. By approximating using a hyperbolic function instead of an exponential function that accurately corresponds to the real one, a non-linear fog effect faithful to the actual landscape on the earth can be processed at high speed without increasing the hardware scale. Can be realized by

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明による画像表示方法の一実施例を説明
するためのフローチャートである。
FIG. 1 is a flow chart for explaining an embodiment of an image display method according to the present invention.

【図2】双曲線関数のグラフの例の一部を示す図であ
る。
FIG. 2 is a diagram showing a part of an example of a graph of a hyperbolic function.

【図3】この発明に使用する双曲線関数による内挿関数
のグラフの例を示す図である。
FIG. 3 is a diagram showing an example of a graph of an interpolation function by a hyperbolic function used in the present invention.

【図4】この発明の一実施例を実行するシステムの構成
例を示すブロック図である。
FIG. 4 is a block diagram showing a configuration example of a system for carrying out an embodiment of the present invention.

【図5】図4のシステムの一部分の構成例を示す図であ
る。
5 is a diagram showing a configuration example of a part of the system of FIG.

【図6】この発明による画像表示方法の他の実施例を説
明するためのフローチャートである。
FIG. 6 is a flowchart for explaining another embodiment of the image display method according to the present invention.

【図7】シェーディングを説明する図である。FIG. 7 is a diagram illustrating shading.

【図8】フォグ効果を説明する図である。FIG. 8 is a diagram illustrating a fog effect.

【図9】線形な内挿関数のグラフの例を示す図である。FIG. 9 is a diagram showing an example of a graph of a linear interpolation function.

【図10】指数関数のグラフの例を示す図である。FIG. 10 is a diagram showing an example of a graph of an exponential function.

【図11】指数関数による内挿関数のグラフの例を示す
図である。
FIG. 11 is a diagram showing an example of a graph of an interpolation function using an exponential function.

【符号の説明】[Explanation of symbols]

11 システムバス 12 CPU 13 メインメモリ 14 ジェオメトリプロセッサ 15 ラスタープロセッサ 21 積和演算器 22 割り算器 11 System Bus 12 CPU 13 Main Memory 14 Geometry Processor 15 Raster Processor 21 Sum of Products Calculator 22 Divider

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 奥行き情報を含む3次元情報からなる画
像データから、2次元スクリーン上の表示画像データを
生成し、3次元の物体を上記2次元スクリーン上に表示
するようにする画像表示方法において、 上記物体の色や明るさと、フォグの色や大気の明るさと
を、上記奥行き情報の関数である所定の混合係数を用い
て混合して、視点から遠くのものほど、ぼんやりと見え
るように表示すると共に、 上記混合係数を双曲線関数から生成することを特徴とす
る画像表示方法。
1. An image display method for generating display image data on a two-dimensional screen from image data composed of three-dimensional information including depth information and displaying a three-dimensional object on the two-dimensional screen. , The color and brightness of the object and the color of fog and the brightness of the atmosphere are mixed by using a predetermined mixing coefficient that is a function of the depth information, and the farther from the viewpoint, the more vague the display. And an image display method, wherein the mixing coefficient is generated from a hyperbolic function.
【請求項2】 請求項1に記載の画像表示方法におい
て、 上記3次元情報からなる画像データから、奥行き情報を
使用する割り算を含む幾何演算を行って上記2次元スク
リーン上の表示画像データを生成し、 上記混合係数を生成するための双曲線関数を計算するた
めの割り算を、上記割り算機能を用いて行うようにした
画像表示方法。
2. The image display method according to claim 1, wherein display image data on the two-dimensional screen is generated by performing a geometric operation including division using depth information from the image data including the three-dimensional information. Then, the image display method in which the division for calculating the hyperbolic function for generating the mixing coefficient is performed using the division function.
【請求項3】 請求項2に記載の画像表示方法におい
て、 上記3次元情報からなる画像データから、上記2次元表
示画像データを生成するときの割り算結果を用いて上記
混合係数を用いた処理を行うようにしたことを特徴とす
る画像表示方法。
3. The image display method according to claim 2, wherein processing using the mixing coefficient is performed using a division result when the two-dimensional display image data is generated from the image data including the three-dimensional information. An image display method characterized by being performed.
JP19191593A 1993-07-06 1993-07-06 Image processing apparatus and method Expired - Lifetime JP3278501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19191593A JP3278501B2 (en) 1993-07-06 1993-07-06 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19191593A JP3278501B2 (en) 1993-07-06 1993-07-06 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JPH0721407A true JPH0721407A (en) 1995-01-24
JP3278501B2 JP3278501B2 (en) 2002-04-30

Family

ID=16282566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19191593A Expired - Lifetime JP3278501B2 (en) 1993-07-06 1993-07-06 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3278501B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996028794A1 (en) * 1995-03-10 1996-09-19 Hitachi, Ltd. Three-dimensional graphic display device
WO2000025269A1 (en) * 1998-10-27 2000-05-04 Sony Computer Entertainment Inc. Recording medium, image processing device, and image processing method
US6184891B1 (en) * 1998-03-25 2001-02-06 Microsoft Corporation Fog simulation for partially transparent objects
JP2001160152A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium
JP2002042153A (en) * 2000-07-27 2002-02-08 Namco Ltd Game system and information storage medium
JP2002236934A (en) * 2000-08-23 2002-08-23 Nintendo Co Ltd Method and device for providing improved fog effect in graphic system
US6563497B1 (en) 1998-05-15 2003-05-13 Sony Corporation Image processing apparatus
JP2009080489A (en) * 2008-10-27 2009-04-16 Fujifilm Corp Camera and image input method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100277803B1 (en) * 1995-03-10 2001-01-15 가나이 쓰도무 3D graphic display
US6219062B1 (en) * 1995-03-10 2001-04-17 Hitachi, Ltd. Three-dimensional graphic display device
WO1996028794A1 (en) * 1995-03-10 1996-09-19 Hitachi, Ltd. Three-dimensional graphic display device
US6184891B1 (en) * 1998-03-25 2001-02-06 Microsoft Corporation Fog simulation for partially transparent objects
US6563497B1 (en) 1998-05-15 2003-05-13 Sony Corporation Image processing apparatus
WO2000025269A1 (en) * 1998-10-27 2000-05-04 Sony Computer Entertainment Inc. Recording medium, image processing device, and image processing method
US7015908B2 (en) 1999-12-03 2006-03-21 Namco Ltd. Image generation system and information storage medium
JP2001160152A (en) * 1999-12-03 2001-06-12 Namco Ltd Image generation system and information storage medium
JP2002042153A (en) * 2000-07-27 2002-02-08 Namco Ltd Game system and information storage medium
JP2002236934A (en) * 2000-08-23 2002-08-23 Nintendo Co Ltd Method and device for providing improved fog effect in graphic system
JP4698893B2 (en) * 2000-08-23 2011-06-08 任天堂株式会社 Method, graphics system, and program for providing improved fog effects
JP2009080489A (en) * 2008-10-27 2009-04-16 Fujifilm Corp Camera and image input method
JP4611412B2 (en) * 2008-10-27 2011-01-12 富士フイルム株式会社 Camera and image input method

Also Published As

Publication number Publication date
JP3278501B2 (en) 2002-04-30

Similar Documents

Publication Publication Date Title
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
JP3763136B2 (en) Drawing method and drawing apparatus
US5097427A (en) Texture mapping for computer graphics display controller system
JP2667835B2 (en) Computer Graphics Display
JP3107452B2 (en) Texture mapping method and apparatus
US5412402A (en) Electronic graphic systems
US6246414B1 (en) Image processing in which polygon is divided
JP3738924B2 (en) Drawing apparatus and method
US5877769A (en) Image processing apparatus and method
JP2003256865A (en) Method and program for generating 2D image of cartoon expression from 3D object data
JPH08101922A (en) Picture editing and forming device and picture editing and forming method
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
JPH07254072A (en) Texture mapping method and device therefor
JP3278501B2 (en) Image processing apparatus and method
JPH03500697A (en) Quadratic interpolation for shadow image generation
GB2051525A (en) C.G.I.-Surface textures
JP2973573B2 (en) Image conversion device
KR0179354B1 (en) Texture mapping method and image processing apparatus
JPH0935084A (en) Image information processor and image information processing method
KR100848687B1 (en) 3D graphics processing device and its operation method
JP3064799B2 (en) Texture mapping device
JP2001283254A (en) Three-dimensional graphic plotting device and its method
JP3501479B2 (en) Image processing device
JPH05342368A (en) Method and device for generating three-dimensional picture
JP3453410B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080215

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090215

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 12

EXPY Cancellation because of completion of term