JP2923648B2 - Method and apparatus for generating color characteristics of an object - Google Patents

Method and apparatus for generating color characteristics of an object

Info

Publication number
JP2923648B2
JP2923648B2 JP63307082A JP30708288A JP2923648B2 JP 2923648 B2 JP2923648 B2 JP 2923648B2 JP 63307082 A JP63307082 A JP 63307082A JP 30708288 A JP30708288 A JP 30708288A JP 2923648 B2 JP2923648 B2 JP 2923648B2
Authority
JP
Japan
Prior art keywords
bit resolution
color information
data
color
represented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63307082A
Other languages
Japanese (ja)
Other versions
JPH021894A (en
Inventor
リチャード・エコノミイ
ウォルター・ロバート・ステイナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JENERARU EREKUTORITSUKU CO
Original Assignee
JENERARU EREKUTORITSUKU CO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JENERARU EREKUTORITSUKU CO filed Critical JENERARU EREKUTORITSUKU CO
Publication of JPH021894A publication Critical patent/JPH021894A/en
Application granted granted Critical
Publication of JP2923648B2 publication Critical patent/JP2923648B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Color Image Communication Systems (AREA)

Description

【発明の詳細な説明】 発明の背景 この発明は計算機画像発生(CIG)に用いるカラー・
セル生地、更に具体的に云えば、表示の為の適切な色情
報を求める予備的な処理が、他のCIG方式で使われてい
た極く普通の赤、緑、青(RGB)、又は赤、緑、青、半
透明度(RGBT)の色空間ではなく、YIQ色空間で行なわ
れる様な実時間CIG装置に対するカラー・セル生地に関
する。
Description: BACKGROUND OF THE INVENTION The present invention relates to a color image generator for computer image generation (CIG).
Preliminary processing to find the appropriate color information for the cell fabric, or more specifically, the display, is a very common red, green, blue (RGB), or red used in other CIG schemes. , Green, blue, translucent (RGBT) color space, rather than a color cell fabric for real-time CIG devices such as those performed in the YIQ color space.

例えば1986年12月19日に出願された係属中の米国特許
出願通し番号第943,690号では、CIG装置に役立つ全色セ
ル生地発生器は、CIG装置の解像度の高い表示チャンネ
ルにあるRGBT成分の各々に対し、生地を計算する16個の
並列通路を必要とする。並列計算動作を行なう前に、セ
ル・マップ・データを圧縮しても、解像度の高い1チャ
ンネル当たり、64個の並列論理通路が未だ残っている。
それに伴うハードウエアとそれに関連する寸法及びコス
トは、CIG装置でこのカラー・セル生地方式を利用する
ことが出来ない程のものであり、その為、白黒生地しか
利用することが出来ない。
For example, in pending U.S. patent application Ser.No. 943,690 filed Dec. 19, 1986, a full color cell fabric generator useful for CIG devices is provided for each of the RGBT components in the high resolution display channel of the CIG device. On the other hand, it requires 16 parallel paths to calculate the dough. Even if the cell map data is compressed before performing the parallel calculation operation, 64 parallel logical paths per high-resolution channel still remain.
The associated hardware and associated dimensions and costs are such that this color cell fabric scheme cannot be used in CIG devices, and therefore only black and white fabric can be used.

一般的に人間の目は、輝度の変化よりも、色の変化に
対して感度が低い。目が輝度に対して比較的感度が高い
と共に、色の変化に対して比較的感度が鈍いことを活用
して、像のカラー・セル生地を呈示するCIG装置の計算
負荷並びに必要なハードウエアを減少しながらも、観察
者が適切な色情報並びに訓練の為の手掛かりが得られる
様に、像の適切な演色を保つことが望ましい。
Generally, human eyes are less sensitive to color changes than to luminance changes. Taking advantage of the fact that the eyes are relatively sensitive to luminance and relatively insensitive to color changes, the computational load of the CIG device that presents the color cell fabric of the image and the necessary hardware are reduced. While decreasing, it is desirable to maintain the proper color rendering of the image so that the observer has the appropriate color information and training clues.

典型的には、CIG装置は、航空機を操縦すると云う様
な課題を行なう為に、オペレータ/観察者を訓練する為
に利用することが出来る。表示される像は必ずしも、カ
メラによって作られた場面の映像から予想される程に、
現実感を持たなくてもよいが、被訓練員が模擬した場面
に対する反作用として条件反射をし、模擬するものと同
様な現実の外部の環境に応答して、同じ反作用を行なう
と予想される様にする為に、十分な現実感がなければな
らない。
Typically, CIG devices can be used to train operators / observers to perform tasks such as flying an aircraft. The displayed image is not necessarily as expected from the video of the scene created by the camera.
Although it is not necessary to have a sense of reality, it is expected that the trainee makes a conditional reflection as a reaction to the simulated scene and performs the same reaction in response to the same external environment as the simulated one. In order to do so, there must be enough realism.

この発明では、上に述べた問題を解決する実際的な解
決策としての将来性のある1つの可能性が、カラー・セ
ル生地処理にYIQ方式を使うことである。YIQ方式では、
Yが輝度又は明るさを表わし、夫々同相及び直角位相の
I及びQがクロマを表わす。
In the present invention, one potential possibility as a practical solution to the above mentioned problem is to use the YIQ scheme for color cell fabric processing. In the YIQ method,
Y represents luminance or brightness, and I and Q in phase and quadrature respectively represent chroma.

カラー・テレビ装置は、MIQビデオを用い、Mが輝度
を表わし、I及びQが表示すべき像のクロマを表わす
が、一般的に処理はアナログ信号又は連続的な信号を用
いて行なわれ、倍率及び負の信号の値に対する特別の考
慮をしなくてもよい。これと対照的に、計算機画像発生
装置では、処理はディジタル領域又は離散的な領域で行
なうのが典型的であり、精度が予定のビット数に制限さ
れており、負の値を持つ関数を能率よく処理する為に、
データの修正を利用することがある。
Color television devices use MIQ video, where M represents luminance and I and Q represent the chroma of the image to be displayed, but generally the processing is performed using analog or continuous signals, And no special consideration for negative signal values. In contrast, in computer image generators, processing is typically performed in the digital or discrete domain, where accuracy is limited to a predetermined number of bits and functions with negative values can be efficiently implemented. To process well,
Data modification may be used.

従って、この発明の目的は、計算機画像発生装置でカ
ラー・セル生地情報を処理するのに必要なハードウエア
及び論理回路を少なくすることである。
Accordingly, it is an object of the present invention to reduce the hardware and logic circuitry required to process color cell fabric information in a computer image generator.

別の目的は、計算機画像発生装置でYIQカラー・セル
生地処理を用いる装置と方法を提供することである。
Another object is to provide an apparatus and method for using YIQ color cell fabric processing in a computer image generator.

発明の要約 この発明では、赤、緑及び青(RGB)の原像の記述子
が対応する輝度(明るさ)、同相成分及び直角位相成分
(YIQ)形式に変換される。この発明の一面では、デー
タベース又はセル生地マップから利用し得る様なRGBデ
ータがYIQデータに変換され、この後YIQデータが別のデ
ータベース又はセル生地マップに記憶され、このマップ
が像を処理する為のデータベースとして使われる。RGB
データからYIQデータへの変換は、物体のカラー・セル
生地の属性を定義する用法の変更に過ぎず、従って変換
は能率よく行なうことが出来る。勿論、対応するRGBデ
ータを発生したり或いは呼出したりせずに、データベー
ス又はカラー・セル生地情報は直接的にYIQ形式で限定
することが出来る。
SUMMARY OF THE INVENTION In the present invention, red, green and blue (RGB) original image descriptors are converted to corresponding luminance (brightness), in-phase and quadrature (YIQ) forms. In one aspect of the invention, RGB data, such as those available from a database or cell fabric map, is converted to YIQ data, and then the YIQ data is stored in another database or cell fabric map, and the map is used to process the image. Used as a database for RGB
The conversion from data to YIQ data is only a change in the usage that defines the attributes of the color cell fabric of the object, and the conversion can be performed efficiently. Of course, the database or color cell fabric information can be limited directly to the YIQ format without generating or recalling the corresponding RGB data.

この発明の別の利点を達成する為、フルスケール単位
で表わされたYIQデータは、処理の前に倍率をかけて選
定し直し(即ち、I及び/又はQの負の値に対して正の
値を改めて割当て)、こうしてY,I及びQの値が、一層
少ない数のビットによって表わされ、従って処理の為に
必要な並列ビット伝送通路が一層少なくて済む様にする
ことが出来る。更に、人間の目は、明るさの変化より
も、色の変化に対する感度が低いから、明るさを表わす
Yの値は普通のセル生地の解像度で、即ち、ある細度レ
ベルで計算し、これに対して(クロマ又は色を表わす)
I及びQの値は、普通のセル生地の解像度の1/4又は1/1
6と云う様な低下したセル生地の解像度又は一層粗い細
度レベルで計算して、更にハードウエアを節約すること
が出来る。
To achieve another advantage of the present invention, the YIQ data expressed in full scale units is rescaled (ie, positive for negative values of I and / or Q) before processing. ), Thus allowing the values of Y, I and Q to be represented by a smaller number of bits, thus requiring less parallel bit transmission paths for processing. Furthermore, since the human eye is less sensitive to color changes than brightness changes, the value of Y representing brightness is calculated at the resolution of ordinary cell fabric, i.e. at a certain level of fineness. For (representing chroma or color)
The values of I and Q are 1/4 or 1/1 of the resolution of ordinary cell fabric.
Calculations at a reduced cell fabric resolution, such as 6, or at a coarser granularity level can save further hardware.

RGBデータを処理する装置では、R,G及びB成分の各々
に対し、典型的には16ビットの解像度及び対応する16個
の並列データ通路を用いて、通路の合計は48個になる
が、I及びQをYの解像度の1/4で処理する様な、この
発明に従って倍率をかけ、選定し直したYIQデータを処
理する装置では、Yに対して16個の並列データ通路が必
要であるが、I及びQの各々に対しては、4個の並列デ
ータ通路しか必要としない。この発明でYIQ処理を行な
う時の並列データ通路の合計が24個になる結果、RGB方
式に比べて2:1の節約になる。最終的に表示される物体
の色は、YIQ処理を使う時、RGB処理によって得られるも
のに比べて、若干低下することが予想されるが、この発
明によるYIQ処理を使う時のハードウエアの節約並びに
それに関連した経費の節約は、特に実際の物体との密接
な色の対応関係が重要とは見なされない様な装置では、
この低下を補って余りある。更に、主観試験によると、
従来のRGBT処理とこの発明のYIQT処理との間には、知覚
し得る様な差異が殆んどないことが判った。
For devices that process RGB data, for each of the R, G and B components, typically using a 16-bit resolution and the corresponding 16 parallel data paths, the total number of paths is 48, An apparatus for processing scaled and reselected YIQ data according to the present invention, such as processing I and Q at 1/4 of the resolution of Y, requires 16 parallel data paths for Y. However, for each of I and Q, only four parallel data paths are required. As a result of a total of 24 parallel data paths when performing YIQ processing according to the present invention, a 2: 1 saving is achieved as compared with the RGB method. The color of the final displayed object is expected to be slightly lower when using YIQ processing than that obtained by RGB processing, but hardware savings when using YIQ processing according to the present invention. And the associated cost savings, especially in devices where close color correspondence with the actual object is not considered important.
There is much more to compensate for this drop. Furthermore, according to a subjective test,
It has been found that there is almost no perceptible difference between the conventional RGBT processing and the YIQT processing of the present invention.

処理の後、この結果得られた、倍率をかけ、選定し直
した単位で表わされるY,I及びQの値を、テーブル・ル
ッアップ等の助けを借りて、もとのフルスケールのY,I
及びQ単位に倍率を戻す。典型的にはディジタル形式の
フルスケールのY,I及びQの値は、RGBの値に変換するこ
とが出来る。こうして得られたRGBの値を、表示回路で
最終的に使う前に、更に処理して条件づける回路に供給
することが出来る。
After processing, the resulting Y, I and Q values, expressed in scaled and reselected units, are converted to the original full scale Y, I with the help of a table lookup, etc.
And return the magnification to Q units. Full scale Y, I and Q values, typically in digital form, can be converted to RGB values. The RGB values thus obtained can be further processed and supplied to a conditioning circuit before final use in a display circuit.

半透明度データはRGBTデータベース又はカラー・セル
生地マップの一部分である。この発明の1実施例では、
RGBTデータベースからの半透明度データを、RGBTデータ
ベースから取出したYIQデータのYデータ成分と同様に
処理することが出来る。別の実施例では、YIQデータが
前に述べた様に処理され、Yデータの値は、もとのフル
スケールのY単位に倍率を戻した後、それを使ってテー
ブル・ルックアップのアクセスを行なう。これによっ
て、フルスケール単位の半透明度の値を持つ信号が得ら
れる。半透明度を表わすこの信号は、典型的にはディジ
タル形式であるが、半透明度Yデータと同様に、表示回
路で最終的に使う前に、更に処理して条件づける回路に
供給することが出来る。
The translucency data is part of an RGBT database or a color cell texture map. In one embodiment of the present invention,
The translucency data from the RGBT database can be processed in the same way as the Y data component of the YIQ data extracted from the RGBT database. In another embodiment, the YIQ data is processed as described above, and the value of the Y data is scaled back to the original full-scale Y unit before using it to access the table lookup. Do. As a result, a signal having a translucency value in units of full scale is obtained. This signal, representing translucency, is typically in digital form, but, like the translucency Y data, can be provided to circuitry for further processing and conditioning before final use in the display circuit.

この発明の新規と考えられる特徴は特許請求の範囲に
具体的に記載してあるが、この発明自体の構成、作用及
びその他の目的並びに利点は、以下図面について詳しく
説明する所から、最もよく理解されよう。
The novel features of the present invention are specifically described in the appended claims, but the structure, operation, and other objects and advantages of the present invention will be best understood from the following detailed description of the drawings. Let's do it.

詳しい説明 1986年12月19日に出願された係属中の米国特許出願通
し番号第943,690号に例示されている様なあるカラー生
地発生方式では、色空間を限定する為に、互いに直交す
る赤、緑及び青(RGB)のカラー軸が使われている。物
体に於ける光の透過の程度を表わす半透明度(T)と呼
ぶ別の特性(これはなし(不透明)から全部(透明)ま
で変り得る)をRGBデータと一緒に、それと同様に処理
することが出来る。
DETAILED DESCRIPTION In one color fabric generation system, such as that illustrated in pending U.S. patent application Ser. No. 943,690 filed Dec. 19, 1986, in order to limit the color space, red and green are orthogonal to each other. And blue (RGB) color axes. Another property, called translucency (T), which describes the degree of light transmission through an object, which can vary from none (opaque) to full (transparent), can be processed in the same way with RGB data. I can do it.

この発明をどう使うかを説明する例として、この発明
を1986年5月21日に出願された係属中の米国特許出願通
し番号第865,591号に例示される様なCIG装置に使った場
合について説明する。この米国特許出願に示される様な
セルの混合及びセルの平滑化に必要な情報が得られる様
にする為、フルカラーのセル生地は、CIG装置の高解像
度のチャンネルで、4つのRGBT成分の各々に対し、生地
を計算する16個の並列通路を用いる。
As an example of how to use the invention, a description will be given of the case where the invention is used in a CIG device as exemplified in pending U.S. patent application Ser. No. 865,591 filed May 21, 1986. . To provide the necessary information for cell mixing and cell smoothing as shown in this U.S. patent application, the full color cell fabric is a high resolution channel of the CIG device, each of the four RGBT components. On the other hand, 16 parallel passages for calculating the dough are used.

図面全体にわたり、同様な部分には同じ参照数字を用
いているが、第1図には、RGB直交系及びこの発明のYIQ
直交系の間の関係が示されている。この明細書に云うY
成分は明るさ(輝度)を表わし、I及びQ成分は色信号
のクロマを表わす。I及びQ部分は同相成分及び直角位
相成分と呼ぶこともある。後で詳しく説明するが、Y成
分を、対応するRGB系での処理で使われるのと同じ画素
の解像度で表わし、これに対してI及びQ成分を夫々そ
れより低い画素の解像度で表わす時、この発明の利点が
得られる。
Although the same reference numerals are used for similar parts throughout the drawings, FIG. 1 shows the RGB orthogonal system and the YIQ of the present invention.
The relationship between orthogonal systems is shown. Y in this specification
The component represents brightness (luminance), and the I and Q components represent chroma of a chrominance signal. The I and Q portions may be referred to as in-phase and quadrature components. As will be described in detail later, when the Y component is represented by the same pixel resolution as that used in the processing in the corresponding RGB system, while the I and Q components are represented by the lower pixel resolutions respectively, The advantages of the present invention are obtained.

図示の様に、RGB系10は、夫々R,G,Bと記した互いに直
交する3つの軸によって表わすことが出来る。直交3軸
系10の各々の軸が、系の原点からの対応するRGB色の単
調に変化する色強度を表わす。1つの軸の色の純粋な演
色でない色には、3軸系内で、赤、緑及び青の原色の夫
々の強度の組合せを表わす位置が割当てられる。典型的
には、各軸は256個、即ち、28個の離散的な強度に分割
され、原点(0,0,0)が黒を表わし、点(255,255,255)
が白を表わす。
As shown, the RGB system 10 can be represented by three mutually orthogonal axes labeled R, G, and B, respectively. Each axis of the orthogonal triaxial system 10 represents the monotonically varying color intensity of the corresponding RGB color from the origin of the system. A color that is not a pure color rendering of one axis color is assigned a position within the three-axis system that represents the respective intensity combination of the red, green, and blue primaries. Typically, each axis 256, i.e., is divided into two eight discrete intensity, the origin (0,0,0) represents black, points (255, 255, 255)
Represents white.

同様に、YIQ系20は夫々Y,I及びQと記した互いに直交
する3軸で表わすことが出来る。Y軸が単調に変化する
明るさ又は輝度特性を表わし、I及びQ軸が夫々単調に
変化するクロマ情報を表わす。YIQ系の向き、特にデー
タベースを構成する為に使われる様な現存のRGB系から
の向きを決定する1つの方法は、Y軸をRGB系の原点
(0,0,0)から点(255,255,255)又は、TGB系の同じR,G
及びB座標を持つこの他の任意の点までのベクトルと一
致する様に指定し、Y,I及びQ軸の直交性及び相対的な
位置を保つことである。この様な変換を行なうと、RGB
系の1点の座標は、次の式に従って、YIQ系内の対応す
る点に写像することが出来る。
Similarly, the YIQ system 20 can be represented by three mutually orthogonal axes labeled Y, I and Q, respectively. The Y-axis represents a monotonically changing brightness or luminance characteristic, and the I and Q axes each represent monotonically changing chroma information. One way to determine the orientation of the YIQ system, especially from an existing RGB system such as that used to construct a database, is to set the Y axis at the point (255,255,255) from the RGB system origin (0,0,0). Or, the same R, G of TGB system
And to match the vector to any other point with the B and B coordinates to maintain the orthogonality and relative position of the Y, I and Q axes. With such a conversion, RGB
The coordinates of one point in the system can be mapped to the corresponding point in the YIQ system according to the following equation:

Y=0.299R+0.587G+0.114B (1) I=0.596R−0.274G−0.322B (2) Q=0.211R−0.523G+0.312B (3) こゝでY,I及びQは、RGB系内の座標R,G及びBを持つ点
に対応する、YIQ系内の点の座標を表わす。RGB系内の各
々の軸に沿った値が0乃至255の範囲内(即ち、256ビッ
ト)であれば、Yは0乃至255の範囲、Iは約−151乃至
+151の範囲、Qは約−133乃至+133の範囲である。RGB
データベース内の各点をYIQ系内の対応する点に変換し
て、YIQデータベースを作ることが出来る。勿論、対応
するR,G及びB座標を決定しなくても、RGBデータベース
を作成するのと同様に、Y,I及びQ座標を直接的に指定
して、データベースに記憶することが出来る。更に、RG
B系もYIQ系もデータ点を定める用法を表わすものである
から、一方の系から他方の系への変換には大がゝりな計
算を必要としない。式(1)、(2)及び(3)から得
られたY,I及びQ座標を直接的に操作するこが可能であ
るが、この結果得られたY,I及びQ座標に倍率をかけ、
そのI及びQの値を必要であれば正の数に変換する方が
更に便利であることが判った。
Y = 0.299R + 0.587G + 0.114B (1) I = 0.596R-0.274G-0.322B (2) Q = 0.211R-0.523G + 0.312B (3) Here, Y, I and Q in the RGB system Represents the coordinates of a point in the YIQ system corresponding to a point having coordinates R, G and B. If the value along each axis in the RGB system is in the range of 0 to 255 (ie, 256 bits), then Y is in the range of 0 to 255, I is in the range of about -151 to +151, and Q is in the range of about -151. The range is from 133 to +133. RGB
Each point in the database can be converted to a corresponding point in the YIQ system to create a YIQ database. Of course, the Y, I, and Q coordinates can be directly specified and stored in the database, as in the case of creating the RGB database, without determining the corresponding R, G, and B coordinates. Furthermore, RG
Since both the B and YIQ systems represent usages that determine data points, the conversion from one system to the other does not require extensive calculations. Although it is possible to directly manipulate the Y, I and Q coordinates obtained from equations (1), (2) and (3), the resulting Y, I and Q coordinates are scaled. ,
It has been found more convenient to convert the I and Q values to positive numbers if necessary.

第2図には、この発明に従ってRGBデータをYIQ情報に
変換するのに役立つ装置が示されている。RGBTデータベ
ース又はセル生地マップ30が、磁気ディスク又はテープ
の様なバルク記憶媒質に記憶された場面記述子を持って
いる。関連した制御作用と共にRGBTデータベースを使う
装置が、前に引用した系属中の米国特許出願通し番号第
943,690号に記載されている。図面に示す装置が、半透
明度に関係する成分を必要としない様な、RGBデータベ
ースを用いる操作にも同じ様に使えることを承知された
い。
FIG. 2 shows an apparatus useful for converting RGB data into YIQ information in accordance with the present invention. An RGBT database or cell texture map 30 has scene descriptors stored on a bulk storage medium such as a magnetic disk or tape. A device that uses an RGBT database with associated control functions is described in U.S. Patent Application Serial No.
No. 943,690. It should be appreciated that the apparatus shown in the figures can be used equally well for operations using RGB databases, such as those that do not require translucency related components.

表示装置(図面に示してない)に表示すべき画素の特
性を決定する等の為に、データベース30のRGBTデータを
必要とする時、R,G及びBデータ点の記述子はデータベ
ース30の夫々の出力から利用出来る様にし、これに対し
て関連するTデータ点の記述子は、データベース30の別
の出力から利用し得る様にする。公知の様に、CIG装置
からのタイミング及び同期信号(図面に示してない)に
応答して、データベース30からRGBTデータを要請する。
R,G及びBデータを受取る為に入力がデータベース30の
出力に結合されている変換回路35が、供給されたR,G及
びBデータに応答して、式(1)、(2)及び(3)に
従って、対応するY,I及びQ座標を発生する。この結果
変換回路35の出力に利用出来るY,I及びQ座標情報が、
倍率回路38の入力に供給される。半透明度情報Tは、変
換回路35の内部遅延を埋合せる様に遅延させることが出
来るが、それがデータベース30の別の出力から、倍率回
路38の別の入力に結合され、この為、倍率回路38が受取
るYIQデータが、データベース30から供給されたRGBTデ
ータと対応する。倍率回路38が供給されたY,I,Q及びT
情報に夫々倍率をかけ、I及び/又はQの値が、もし最
初に負であれば、それを正の値として選定し直す。この
結果得られた倍率をかけ、選定し直した値,,及
び(又はY′,I′,Q′及びT′)が夫々倍率回路38の
出力に利用出来る様になる。タイミング及び同期信号
(図面に示してない)がYIQデータの変換及びY′I′
Q′T′データの記憶の調整をする為に、同期源(図面
に示してない)から、データベース30、変換回路35及び
倍率回路38に供給される。変換回路35及び倍率回路38
は、公知の様に、計算機プログラムの一部分として構成
するのが便利である。
When the RGBT data of the database 30 is needed to determine the characteristics of the pixels to be displayed on the display device (not shown), the descriptors of the R, G, and B data points are respectively stored in the database 30. The descriptor of the associated T data point is made available from another output of the database 30. As is well known, the database 30 requests RGBT data in response to timing and synchronization signals (not shown) from the CIG device.
A conversion circuit 35, whose input is coupled to the output of the database 30 for receiving R, G and B data, responds to the supplied R, G and B data in accordance with equations (1), (2) and ( According to 3), generate corresponding Y, I and Q coordinates. As a result, the Y, I, and Q coordinate information that can be used for the output of the
It is supplied to the input of a magnification circuit 38. The translucency information T can be delayed so as to compensate for the internal delay of the conversion circuit 35, which is coupled from another output of the database 30 to another input of the magnification circuit 38, so that the magnification circuit The YIQ data received by 38 corresponds to the RGBT data supplied from database 30. Y, I, Q and T supplied with the magnification circuit 38
Each of the information is multiplied by a factor, and if the value of I and / or Q is initially negative, it is re-selected as a positive value. The resulting multiplied and multiplied values, and the re-selected values, and (or Y ', I', Q 'and T') are made available to the output of the magnification circuit 38, respectively. Timing and synchronization signals (not shown) convert YIQ data and Y'I '
To adjust the storage of the Q'T 'data, it is supplied from a synchronization source (not shown) to a database 30, a conversion circuit 35 and a magnification circuit 38. Conversion circuit 35 and magnification circuit 38
Is conveniently configured as a part of a computer program, as is well known.

現在好ましいと考えられる実施例では、変換回路35及
び倍率回路38は、倍率回路38の夫々の出力に利用し得る
倍率をかけたY′,I′,Q′及びT′データを発生する為
にオフラインで動作させる。これらのデータがY′I′
Q′T′データベース又はセル生地マップ40に供給さ
れ、その中に記憶される。データベース40は、Y′,
I′,Q′及びT′データに対する夫々の出力を持ってい
るが、後で説明する様に、処理回路にY′,I′,Q′及び
T′データを供給する様に接続することが出来る。
In the presently preferred embodiment, conversion circuit 35 and magnification circuit 38 are used to generate the scaled Y ', I', Q ', and T' data which are available to the respective outputs of magnification circuit 38. Work offline. These data are Y'I '
It is supplied to the Q'T 'database or cell fabric map 40 and stored therein. The database 40 contains Y ',
It has respective outputs for the I ', Q', and T 'data, but can be connected to provide Y', I ', Q', and T 'data to the processing circuitry, as described below. I can do it.

倍率回路38が、セル生地マップ全体にわたって、変換
回路35から受取ったY,I及びQセル生地信号の各々に対
する最大値及び最小値を決定する。Y′I′Q′T′セ
ル生地マップ40にあるY′,I′及びQ′生地セルの各々
には、圧縮された生地セルの値を表わす好ましくは4ビ
ットの圧縮された値が割当てられる。Y′,I′及びQ′
に対して割当てられる値は、対応するY,I及びQの圧縮
前のセル生地の値の最小値及び最大値の間の、夫々圧縮
前の生地信号の相対的な位置に基づいて決定される。生
地セルの値を圧縮する為に4ビットを使うと、割当てし
直した最小値は0で表わすことが出来、割当てし直した
最大値は15で表わすことが出来る。最初にY,I及びQセ
ル生地の値全体にわたって、もとの値を標本化して、最
小値及び最大値を決定し、その後圧縮されたY′,I′及
びQ′の値を割当てることにより、圧縮された値の利用
し得る範囲全体を使うから、利用し得る圧縮された値の
効率のよい割当てが保証される。
A scaling circuit 38 determines the maximum and minimum values for each of the Y, I and Q cell texture signals received from the conversion circuit 35 throughout the cell texture map. Each of the Y ', I' and Q 'fabric cells in the Y'I'Q'T'cell fabric map 40 is assigned a preferably 4-bit compressed value representing the value of the compressed fabric cell. . Y ', I' and Q '
Are determined based on the relative positions of the uncompressed fabric signals, respectively, between the minimum and maximum values of the corresponding uncompressed cell fabric values of Y, I, and Q. . Using 4 bits to compress the value of the fabric cell, the reassigned minimum can be represented by 0 and the reassigned maximum can be represented by 15. By first sampling the original values over the values of the Y, I and Q cell dough to determine the minimum and maximum values, then assigning the compressed Y ', I' and Q 'values Since the entire available range of compressed values is used, an efficient allocation of available compressed values is guaranteed.

回路部品の間の接続を1本の線で全体的に示してある
が、装置全体のスループットを増加する為に、希望する
場合、並列データ転送を用いてもよいことは云うまでも
ない。更に、R,G,B及びT成分と、Y,I,Q及びT成分のデ
ータの各々に対し、別々の接続及び回路を希望によって
用いてもよい。
Although the connections between the circuit components are generally indicated by a single line, it will be appreciated that parallel data transfer may be used, if desired, to increase the overall throughput of the device. Further, separate connections and circuits may be used as desired for each of the R, G, B, and T components and the Y, I, Q, and T components of data.

データベース40が、表示すべき場面の内、処理すべき
部分に関係する信号指令(図面に示してない)に応答し
て、適切な細度レベル又は解像度で、Y′,I′,Q′及び
T′データを夫々の出力に供給する。例えば、R,G,B及
びT成分の各々と、変換されたYIQデータのY,I及びQ成
分の各々とが、16ビットの解像度で表わされるRGBTデー
タを利用することが出来るが、これに対応する倍率をか
けたY′,I′,Q′及びT′データの各々は4ビットの解
像度で表わすことが出来る。
The database 40 responds to signal commands (not shown in the drawings) relating to the portion of the scene to be displayed that is to be processed, at the appropriate level of fineness or resolution, with Y ', I', Q 'and Supply T 'data to each output. For example, each of the R, G, B, and T components and each of the Y, I, and Q components of the converted YIQ data can use RGBT data represented by a 16-bit resolution. Each of the corresponding scaled Y ', I', Q ', and T' data can be represented with a 4-bit resolution.

更に、RGBT情報は相異なる細度レベル(LOD)で記憶
することが出来る。あるLODの解像度が、視点から表示
すべき場面への予定の距離区間に対応する。予定の区
域、即ち最も小さい単位のセル又は画素を物体の定義の
為に持っていて、従って解像度が最も細かい様な、最も
細度の高いLODは、視点に最も接近しており、この後の
各々の一層粗いLODは、セルが一層大きく、それに対応
して細度が一層低く、解像度が一層粗くなる。予定のLO
Dの物体に対するRGBT情報は、一般的にデータベース30
内のその予定のLODの所に全て記憶されている。然し、
この発明の利点を達成する為には、RGBTデータに対応す
るY′データは、データベース40内で、データベース30
のRGBTデータのLODの所に記憶することが出来るが、関
連するI′及びQ′データは、データベース40内で、そ
れより粗いLOD、典型的には次に粗いLODの所に記憶され
る。Y,I及びQの記憶の詳細は、後で第4図及び第5図
について説明する。更に、希望する場合、Y′,I′,Q′
及びT′の各々を記憶する為に、別々のデータベース
(図面に示してない)を用いてもよい。
Further, RGBT information can be stored at different levels of fineness (LOD). The resolution of a certain LOD corresponds to a predetermined distance section from a viewpoint to a scene to be displayed. The intended area, i.e., the smallest unit cell or pixel for defining the object, and thus the finest LOD, such as the finest resolution, is closest to the viewpoint and Each coarser LOD has a larger cell, correspondingly less fineness and coarser resolution. Scheduled LO
RGBT information for object D is generally stored in database 30
In the place of the scheduled LOD. But
To achieve the advantages of the present invention, the Y 'data corresponding to the RGBT data is stored in the database 40 in the database 30.
The associated I 'and Q' data is stored in the database 40 at the coarser LOD, typically at the next coarser LOD. Details of the storage of Y, I, and Q will be described later with reference to FIGS. Further, if desired, Y ', I', Q '
And a separate database (not shown in the figure) may be used to store each of T. and T '.

第3図には、YIQT色情報を処理する装置が示されてい
る。平滑及び混合動作の詳しい説明は、前に引用した係
属中の米国特許出願第865,591号を参照されたい。こゝ
では、この発明を理解するのに必要な範囲の処理を説明
する。データベース40(第2図)からの2種類の細度レ
ベル(LOD)又は解像度に於ける倍率をかけた値Y′
が、LOD(N)Y′平滑回路50及びLOD(N+M)Y′平
滑回路52の夫々の入力に供給される。同様に、データベ
ース40(第2図)からの夫々2種類のLODに於ける倍率
をかけ並びに/又は選定し直した値I′及びQ′と倍率
をかけた値T′が、LOD(N)及びLOD(N+M)I′平
滑回路54、LOD(N)及びLOD(N+M)Q′平滑回路56
及びLOD(N)及びLOD(N+M)T′平滑回路58の夫々
の入力に供給される。不要の繰返しを避ける為、I′,
Q′及びT′チャンネルについては、1つの平滑回路だ
けを示してある。I′,Q′及びT′チャンネルに対する
回路は、Y′チャンネルに対する回路と同様に構成する
ことが出来ることを承知されたい。添字N及びN+Mは
夫々の細度レベルを表わす。
FIG. 3 shows an apparatus for processing YIQT color information. For a detailed description of the smoothing and mixing operations, see the above-cited pending US Patent Application No. 865,591. Here, a description will be given of processing within a range necessary for understanding the present invention. Two multiplicity values in resolution (LOD) or resolution Y 'from database 40 (FIG. 2)
Are supplied to respective inputs of the LOD (N) Y 'smoothing circuit 50 and the LOD (N + M) Y' smoothing circuit 52. Similarly, the multiplied and / or reselected values I 'and Q' and the multiplied value T 'from the database 40 (FIG. 2) are the LOD (N) And LOD (N + M) I 'smoothing circuit 54, LOD (N) and LOD (N + M) Q' smoothing circuit 56
And LOD (N) and LOD (N + M) T 'are supplied to respective inputs of the smoothing circuit 58. To avoid unnecessary repetition, I ',
For the Q 'and T' channels, only one smoothing circuit is shown. It should be appreciated that the circuitry for the I ', Q', and T 'channels can be configured similarly to the circuitry for the Y' channel. The subscripts N and N + M represent the respective levels of fineness.

Y′平滑回路50及びY′平滑回路52の出力には、夫々
LOD(N)及びLOD(N+M)の平滑された値Y′SN及び
Y′S(N+M)を利用し得るが、それがY′混合回路60の夫
々の入力に結合される。混合回路60がY′SN信号及び
Y′S(N+M)信号の値を比例的に混合する。Y′SN信号及
びY′S(N+M)信号の混合した値を表わすY′B信号が
Y′混合回路60の出力に出る。Y′混合回路60の出力が
倍率手段70の入力に接続される。倍率手段70が供給され
て来た混合YB信号に作用する。これは倍率をかけた単位
で表わされており、こうしてYB信号の値を式(1)から
得られたのと同じY信号の単位に倍率を変える様に又は
変換する様にする。倍率手段70の出力には、倍率をかけ
直したY信号が出る。
The outputs of the Y 'smoothing circuit 50 and the Y' smoothing circuit 52 are respectively
Smoothed values of LOD (N) and LOD (N + M), Y'SN and Y 'S (N + M) , may be utilized, which are coupled to respective inputs of Y 'mixing circuit 60. A mixing circuit 60 proportionally mixes the values of the Y'SN signal and the Y 'S (N + M) signal. Y 'SN signal and Y' S (N + M) Y represents a mixed value of the signal 'B signal Y' out to an output of the mixing circuit 60. The output of the Y 'mixing circuit 60 is connected to the input of the magnification means 70. Acting on mixing Y B signal magnification means 70 came supplied. This is expressed in units multiplied by the magnification, thus the way to or convert such changing magnification units of the same Y signal as obtained values of Y B signals from equation (1). At the output of the magnification means 70, a Y signal remultiplied is output.

同様に、I′平滑回路54の出力がI′混合回路62の入
力に接続され、I′混合回路62の出力が倍率回路72の入
力に接続される。同様に、Q′平滑回路56の出力がQ′
混合回路64の入力に接続され、Q′混合回路64の出力が
倍率回路74の入力に接続される。倍率回路72,74の出力
には、倍率をかけ直したI及びQ信号が出る。供給され
て来たIB及びQB信号の値に倍率をかけ直す他に、倍率回
路72及び74は夫々、適切な場合、倍率をかけ直した値に
負の値を割当てる。
Similarly, the output of the I 'smoothing circuit 54 is connected to the input of the I' mixing circuit 62, and the output of the I 'mixing circuit 62 is connected to the input of the magnification circuit 72. Similarly, the output of the Q 'smoothing circuit 56 is Q'
The output of the Q 'mixing circuit 64 is connected to the input of the magnification circuit 74. At the outputs of the magnification circuits 72 and 74, I and Q signals which have been remultiplied are output. Besides redial the magnification value of the came is supplied I B and Q B signals, the multiplying circuit 72 and 74 respectively, where appropriate, assigns a negative value to a value that call again the magnification.

別個の半透明度信号を処理する時、倍率をかけた半透
明度信号T′が、LOD(N)及びLOD(N+M)に対する
T′平滑回路58の入力に供給される。平滑回路58、T′
混合回路66及び倍率回路76による半透明度データの処理
は、倍率をかけたY′データに対するY′平滑回路50、
Y′平滑回路52、Y′混合回路60及び倍率回路70によっ
て行なわれる処理と同様である。倍率回路76の出力から
出る倍率をかけ直した半透明度T信号は、RGBTデータベ
ース30の半透明度信号と同じ単位でディジタル形式(即
ち離散的な形)で表わされ、倍率回路76の出力に出る。
When processing the separate translucency signals, a scaled translucency signal T 'is provided to the input of a T' smoothing circuit 58 for LOD (N) and LOD (N + M). Smoothing circuit 58, T '
The processing of the translucency data by the mixing circuit 66 and the magnification circuit 76 is performed by the Y ′ smoothing circuit 50 for the scaled Y ′ data,
The processing is the same as that performed by the Y 'smoothing circuit 52, the Y' mixing circuit 60, and the magnification circuit 70. The translucent T signal remultiplied by the magnification output from the output of the magnification circuit 76 is expressed in a digital form (ie, a discrete form) in the same unit as the translucency signal of the RGBT database 30, and is output to the output of the magnification circuit 76. .

倍率回路70,72,74からのY,I及びQ信号が変換器80に
供給される。変換器80が、式(1)、(2)及び(3)
から導き出した下記の式 R=Y+0.956I+0.621Q (4) G=Y−0.272I−0.647Q (5) B=Y−1.106I+I.703Q (6) に従って、供給されて来たY,I,Q情報から、R,G及びBの
値を決定する。合成RGBデータの値が変換器80の夫々の
出力に所要の形式で発生され、倍率回路76,78からの適
切な半透明度信号Tと共にこの後処理及び条件づけが行
なわれてから、前に引用した2つの米国特許出願に詳し
く記載されている様に、最終的な表示が行なわれる。
The Y, I and Q signals from the magnification circuits 70, 72 and 74 are supplied to the converter 80. The converter 80 has the formula (1), (2) and (3)
R = Y + 0.956I + 0.621Q (4) G = Y−0.272I−0.647Q (5) B = Y−1.106I + I.703Q (6) From the Q information, the values of R, G and B are determined. The value of the composite RGB data is generated in the required format at each output of the converter 80, and is post-processed and conditioned with the appropriate translucency signal T from the scaling circuits 76, 78 before being quoted before. The final display is made as described in detail in the two U.S. patent applications.

半透明度情報をY信号成分と共に符号化する時、T倍
率回路78を使う。この入力がY′混合回路60の出力に接
続され、Y′B信号を受取る。T倍率回路78がその出力
に倍率をかけ直したT信号を発生する。半透明度情報を
この様に符号化する時、半透明度チャンネルの部品、即
ち、T′平滑回路58、T′混合回路66及び倍率回路76は
必要としない。Y倍率回路70、I倍率回路72、Q倍率回
路74及びT倍率回路76,78は、何れもテーブル・ルック
アップになっていて、入力がそれに対して供給されて来
た夫々の混合信号を受取る様にすることが出来る。夫々
の入力信号を使って、ルックアップ・テーブルをアドレ
スし、それに応答して、ディジタル信号の夫々の信号が
得られる。
When encoding the translucency information together with the Y signal component, a T magnification circuit 78 is used. This input is 'connected to the output of the mixing circuit 60, Y' Y receive B signal. A T magnification circuit 78 generates a T signal in which the output is multiplied again. When translucent information is encoded in this manner, the components of the translucent channel, ie, the T 'smoothing circuit 58, the T' mixing circuit 66, and the magnification circuit 76 are not required. Each of the Y magnification circuit 70, the I magnification circuit 72, the Q magnification circuit 74, and the T magnification circuits 76 and 78 are in a table lookup, and the input receives the respective mixed signal supplied thereto. It can be like. Each input signal is used to address a look-up table, and in response, a respective one of the digital signals is obtained.

この発明の1例では、Y′,I′,Q′及びT′は何れも
4ビットの圧縮データの値によって表わすことが出来
る。対応する平滑及び混合回路での処理により、更に端
数データの4ビットが、この結果得られる各々の混合さ
れたY′,I′,Q′及びT′信号の値に付加えられ、それ
が夫々の倍率回路に供給される。この結果、全体として
8ビットの圧縮データの値を使って、対応する倍率回路
70,72,74,76,78のルックアップ・テーブルをアドレスす
ることが出来る。ルックアップ・テーブルの出力は、倍
率回路の出力であるが、これはルックアップ・テーブル
をアドレスするのに使われた圧縮されたデータの値に対
応する圧縮されていないY,I,Q及びTデータの値に基づ
いて予定の形で割当てられる。
In one embodiment of the present invention, Y ', I', Q ', and T' can all be represented by 4-bit compressed data values. By processing in the corresponding smoothing and mixing circuits, an additional 4 bits of fractional data are added to the value of each resulting mixed Y ', I', Q 'and T' signal, which is respectively Is supplied to the multiplication circuit. As a result, using the value of the compressed data of 8 bits as a whole, the corresponding magnification circuit
70, 72, 74, 76, 78 lookup tables can be addressed. The output of the look-up table is the output of the scaling circuit, which is the uncompressed Y, I, Q and T corresponding to the values of the compressed data used to address the look-up table. Assigned in a scheduled manner based on the value of the data.

第4図には、この発明による予定の区域90及び予定の
LODに対するYデータ記憶装置が略図で示されている。
各々のセル又は画素位置に記憶される値は、Ymnの様な
2つの添字を持つYによって表わされる。mは行を表わ
し、nは列を表わす。輝度Yデータの中に符号化されて
いない時の半透明度データTが、輝度Yデータと同じ解
像度で記憶される。
FIG. 4 shows a scheduled area 90 and a scheduled area 90 according to the invention.
The Y data storage for LOD is shown schematically.
The value stored in each cell or pixel location is represented by Y with two subscripts, such as Y mn . m represents a row and n represents a column. The translucency data T when not encoded in the luminance Y data is stored at the same resolution as the luminance Y data.

第5図には、同じ予定の区域90に対し、第4図のYデ
ータと対応するIデータの記憶装置が略図で示されてい
る。各々のセル又は画素位置に記憶される値は、Ixy
様な2つの添字を持つIによって表わされる。こゝでx
は行を表わし、yは列を表わす。第5図に示すのと同様
なデータ記憶方式を、第4図のYデータに対応するQデ
ータを記憶するのに使うことが出来る。
FIG. 5 schematically shows the storage of I data corresponding to the Y data of FIG. 4 for the same scheduled area 90. The value stored in each cell or pixel location is represented by I with two indices, such as I xy. X
Represents a row, and y represents a column. A data storage scheme similar to that shown in FIG. 5 can be used to store Q data corresponding to the Y data in FIG.

第5図のIデータ(従って、Qデータも)の1つのセ
ル94が、第4図のYデータの1個のセル91の4倍の区域
をカバーすることに注意されたい。云い換えれば、YIQ
データでは、Yデータ点が予定のLODの所に記憶され、
対応するI及びQデータ点は夫々次に粗いLODの所に記
憶される。従って、Yデータ(第5図)の4つのセル9
1,93,95,97を限定するデータは、夫々座標Y11I11Q11,Y
12I11Q11,Y21I11Q11及びY22I11Q11を持つセルからのデ
ータによって表わされる。即ち、4つのY座標の各々
が、同じ1対のI及びQ座標と関連している。希望によ
り、対応する輝度Yに対し、I及びQデータは他の一層
粗いLODの所に記憶することが出来る。
Note that one cell 94 of the I data (and thus also the Q data) of FIG. 5 covers four times the area of one cell 91 of the Y data of FIG. In other words, YIQ
In the data, the Y data point is stored at the scheduled LOD,
The corresponding I and Q data points are each stored at the next coarser LOD. Therefore, four cells 9 of Y data (FIG. 5)
The data limiting 1,93,95,97 are the coordinates Y 11 I 11 Q 11 , Y
It is represented by data from cells having 12 I 11 Q 11 , Y 21 I 11 Q 11 and Y 22 I 11 Q 11 . That is, each of the four Y coordinates is associated with the same pair of I and Q coordinates. If desired, for the corresponding luminance Y, the I and Q data can be stored at other coarser LODs.

この発明の一面では、倍率回路38(第2図)が、典型
的にはディジタル形式で表わされていて、夫々16ビット
の解像度を持つY,I,Q及びTデータを受取り、夫々の出
力に倍率をかけたデータY′,I′,Q′及びT′が利用出
来る様にする。倍率回路38に供給されるY,I,G及びTデ
ータが倍率をかけられ、又は0乃至15(即ち、4ビット
の解像度で表わすことが出来る)の範囲に写像され、必
要な場合、I及び/又はQデータは正の値に選定し直さ
れる。半透明度データTは輝度データYと同様な論理に
従って倍率がかけられる。Y,I,Q及びTデータの中間の
値(即ち、最小値と最大値の間)は、最小値及び最大値
の間が一様な間隔であると仮定すると(即ち、1次変
換)、0乃至15の範囲に写像される。
In one aspect of the present invention, a magnification circuit 38 (FIG. 2) receives Y, I, Q and T data, each typically represented in digital form, having a resolution of 16 bits, and outputs respective data. To make the data Y ', I', Q 'and T' available. The Y, I, G and T data supplied to the scaling circuit 38 are scaled or mapped to a range of 0 to 15 (ie, which can be represented by 4 bits of resolution), and if necessary, I and And / or the Q data is re-selected to a positive value. The translucency data T is scaled according to the same logic as the luminance data Y. The intermediate values of the Y, I, Q, and T data (ie, between the minimum and maximum values) are assumed to be uniformly spaced between the minimum and maximum values (ie, a first order transform): It is mapped in the range of 0 to 15.

R,G,B及びTデータの各々に対して16ビットの解像度
を使う時、並列処理には合計64本の線が必要である。対
応するY,I,Q及びTデータに倍率をかけ、倍率をかけた
各々の値Y′,I′,Q′及びT′を4ビットの解像度で表
わすことにより、並列処理には24本の線しか必要としな
くなる。半透明度Tデータを独立に処理せず、前に第3
図について述べた様に、輝度データYから導き出す時、
更にハードウエアを節約することが可能である。
When using a 16-bit resolution for each of the R, G, B and T data, parallel processing requires a total of 64 lines. The corresponding Y, I, Q and T data are scaled, and each scaled value Y ', I', Q 'and T' is represented by a 4-bit resolution, so that 24 lines are used for parallel processing. Only wires are needed. Do not process the translucency T data independently.
As described in the figure, when deriving from the luminance data Y,
Further hardware savings are possible.

Y,I及びQ色成分の各々に対して上に述べた4ビット
の解像度を使う時、倍率をかけた単位で完全に色を定義
する為には、各々のYIQセルは平均6ビット、即ち輝度
Yデータに対する4ビットと、I及びQクロマ・データ
に必要な合計の8ビットの1/4とを必要とする。
When using the 4-bit resolution described above for each of the Y, I, and Q color components, each YIQ cell has an average of 6 bits, ie, 6 bits, to completely define the color in scaled units, ie, It requires 4 bits for luminance Y data and 1/4 of the total 8 bits required for I and Q chroma data.

もう一度第3図に戻って、サンプル処理動作の一例を
説明する。動作が、表示すべき像の内、スパンと呼ぶ区
域に対して行なわれる。1形式のスパンは1行又は1本
の線に8個の画素を含み、8本の線の長さを持つ。画素
は、表示装置(図面に示してない)のアドレス可能な最
も小さい要素である。
Returning to FIG. 3 again, an example of the sample processing operation will be described. The operation is performed on an area called a span in the image to be displayed. One type of span includes eight pixels in a row or line and has a length of eight lines. A pixel is the smallest addressable element of a display device (not shown).

前に引用した係属中の米国特許出願通し番号第865,59
1号に詳しく説明されているが、処理される各々の画素
に対し、その中心が、画素の像の中心を含む多角形を限
定する様なY′データ(4ビット)の隣接するセルが、
2種類の隣接するLODの各々に対して選ばれ、選択され
たY′データがLOD(N)Y′平滑回路50及びLOD(N+
M)平滑回路52に供給される。平滑回路50及び52が、夫
々LOD(N)及びLOD(N+M)で平滑データYS(8ビッ
ト−4個が整数、4個の端数)に対する値(8ビット−
4個が整数、4個が端数)を決定する。Y′混合回路60
がLOD(N)、LOD(N+M)の平滑データY′Sを受取
り、予定の手順に従ってY′Sデータを比例的に組合
せ、混合Y′Bデータ(8ビット−4個が整数、4個が
端数)を決定する。倍率回路70が混合Y′Bデータを受
取り、それに応答してYデータ(16ビット)を決定す
る。Y′データの処理が、スパンの各々の画素に対して
行なわれる。I′及びQ′データ(夫々4ビット)が
Y′データと同様に処理される。然し、I′データ及び
Q′データは、1行又は1本の線当たり等間隔の4個の
画素を持つ格子に対して処理され、等間隔の4本の線の
長さを持つ。I′及びQ′の格子が何れも、Y′スパン
と同じ区域をカバーする。処理されたI′及びQ′デー
タの各々の領域が、Y′データを決定するのに使われた
4個の隣合う画素の区域をカバーする。4個の隣合う画
素の1つに対応するYBデータの各々の混合された値は、
前に説明した様に同じI′及びQ′データと関連してい
る。
Pending U.S. Patent Application Serial No. 865,59, cited earlier.
As described in detail in No. 1, for each pixel to be processed, an adjacent cell of Y 'data (4 bits) whose center defines a polygon containing the center of the image of the pixel,
The selected Y 'data is selected for each of the two types of adjacent LODs, and the selected Y' data is stored in the LOD (N) Y 'smoothing circuit 50 and the LOD (N +
M) It is supplied to the smoothing circuit 52. The smoothing circuits 50 and 52 generate LOD (N) and LOD (N + M), respectively, for the value (8 bits−8 bits−4 integers, 4 fractions) for the smoothed data Y S (8 bits−4 bits).
4 are integers and 4 are fractions). Y 'mixing circuit 60
There LOD (N), LOD (N + M) ' receives S, Y according to the procedure of appointment' smoothed data Y of combining S data proportionally mixing Y 'B data (8-bit to 4-amino integer, four Fraction). Magnification circuit 70 receives a mixture Y 'B data, determines the Y data in response (16-bit) to it. Processing of the Y 'data is performed for each pixel in the span. The I 'and Q' data (4 bits each) are processed in the same manner as the Y 'data. However, the I 'data and the Q' data are processed for a grid having four equally spaced pixels per row or line and have a length of four equally spaced lines. Both the I 'and Q' grids cover the same area as the Y 'span. Each region of the processed I 'and Q' data covers an area of four adjacent pixels used to determine the Y 'data. The mixed value of each of the Y B data corresponding to one of four adjacent pixels is
Associated with the same I 'and Q' data as described above.

以上、カラー・セル生地情報を処理するのに必要なハ
ードウエア及び論理回路を縮小する計算機画像発生装置
を図面に示して説明した。更に、YIQ色処理を使うこと
が出来る様な計算機画像発生装置を図面に示して説明し
た。
Thus, a computer image generator for reducing the hardware and logic circuitry required to process color cell fabric information has been illustrated and described. Further, a computer image generator capable of using YIQ color processing has been described with reference to the drawings.

この発明のある好ましい特徴を例によって示したが、
当業者にはいろいろな変更が考えられよう。特許請求の
範囲は、この発明の範囲内に属するこの様な全ての変更
を包括するものであることを承知されたい。
While certain preferred features of the invention have been illustrated by way of example,
Various modifications will occur to those skilled in the art. It is to be understood that the appended claims are intended to cover all such modifications that fall within the scope of the invention.

【図面の簡単な説明】[Brief description of the drawings]

第1図は普通のRGB座標系とこの発明の対応するYIQ系を
示す略図、 第2図はこの発明に従ってRGBデータからYIQデータを求
める装置のブロック図、 第3図はこの発明に従ってYIQデータを処理する装置の
ブロック図、 第4図はこの発明による予定の区域に対するYデータ記
憶装置の略図、 第5図はこの発明による、第4図に示したのと同じ区域
に対するI及び/又はQデータ記憶装置の略図である。 主な符号の説明 30:RGBTデータベース 35:変換器 38:倍率回路 40:Y′I′Q′T′データベース
FIG. 1 is a schematic diagram showing a normal RGB coordinate system and a corresponding YIQ system according to the present invention. FIG. 2 is a block diagram of an apparatus for obtaining YIQ data from RGB data according to the present invention. FIG. 4 is a schematic diagram of a Y data storage device for a predetermined area according to the present invention; FIG. 5 is an I and / or Q data for the same area as shown in FIG. 4 according to the present invention; 2 is a schematic diagram of a storage device. Explanation of main codes 30: RGBT database 35: Converter 38: Magnification circuit 40: Y'I'Q'T 'database

フロントページの続き (56)参考文献 特開 昭57−4084(JP,A) 特開 昭62−92992(JP,A) 特開 昭62−296193(JP,A) 米国特許4905164(US,A) (58)調査した分野(Int.Cl.6,DB名) G09G 5/00 - 5/40 Continuation of the front page (56) References JP-A-57-4084 (JP, A) JP-A-62-92992 (JP, A) JP-A-62-296193 (JP, A) US Patent 4,905,164 (US, A) (58) Field surveyed (Int. Cl. 6 , DB name) G09G 5/00-5/40

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】計算機画像発生装置に用いられ、表示すべ
き場面の物体の色特性を発生する方法に於て、 前記場面内の色を輝度成分(Y)、同相クロマ成分
(I)及び直角位相クロマ成分(Q)によって表わし、 予定の第1の細度レベルでY成分を処理して、合成Y成
分を決定し、 予定の第2の細度レベルでI及びQ成分の各々を処理し
て、夫々合成I及びQ成分を決定し、該第2の細度レベ
ルは前記第1の細度レベルよりも粗く、前記合成Y,I及
びQ成分を表示すべき場面の物体の色を表わしており、 前記合成Y成分に応答して、表示すべき物体を表わす半
透明度(T)データを求める工程を含む方法。
1. A method for generating a color characteristic of an object in a scene to be displayed, which is used in a computer image generating apparatus, wherein a color in the scene is represented by a luminance component (Y), an in-phase chroma component (I) and a quadrature. Processing the Y component at a predetermined first fineness level to determine a composite Y component, represented by a phase chroma component (Q), and processing each of the I and Q components at a predetermined second fineness level Determining the composite I and Q components, respectively, wherein the second fineness level is coarser than the first fineness level and represents the color of the object in the scene where the composite Y, I and Q components are to be displayed. Determining translucency (T) data representing an object to be displayed in response to the composite Y component.
【請求項2】前記合成Y,I及びQ成分を対応する赤
(R)、緑(G)及び青(B)成分に変換する工程を含
む請求項1記載の方法。
2. The method of claim 1 including the step of converting said composite Y, I and Q components into corresponding red (R), green (G) and blue (B) components.
【請求項3】前記第2の細度レベルが前記第1の細度レ
ベルの1/4である請求項1記載の方法。
3. The method of claim 1, wherein said second level of fineness is one fourth of said first level of fineness.
【請求項4】前記の色を表わす工程が、第1のビット解
像度でY,I及びQ成分を選定することを含み、更に、 前記Y,I及びQ成分が、前記第1のビット解像度より低
い第2のビット解像度で表わされる様に前記Y,I及びQ
成分に夫々倍率をかけ、 前記第2のビット解像度の前記Y,I及びQ成分を処理し
て、前記第2のビット解像度の合成Y,I及びQ成分を決
定し、 前記第2のビット解像度の前記合成Y,I及びQ成分にも
う一度倍率をかけて、前記第1のビット解像度の合成Y,
I及びQ成分を形成し、該第1のビット解像度の合成Y,I
及びQ成分が表示すべき場面の物体の色を表わす様にす
る工程を含む請求項3記載の方法。
4. The method of claim 1, wherein the step of representing a color comprises selecting a Y, I, and Q component at a first bit resolution, and wherein the Y, I, and Q components are more than the first bit resolution. The Y, I and Q as represented by the lower second bit resolution
Multiplying each of the components by a magnification, processing the Y, I, and Q components of the second bit resolution to determine a combined Y, I, and Q component of the second bit resolution; The composite Y, I and Q components of the above are again multiplied by a factor to produce a composite Y, I and Q of the first bit resolution.
Forming the I and Q components and combining the first bit resolution Y, I
4. A method according to claim 3, including the step of causing the Q component to represent the color of the object in the scene to be displayed.
【請求項5】計算機画像発生装置に用いられ、表示すべ
き場面の物体の色特性を発生する方法に於て、 前記場面内の色を輝度成分(Y)、同相クロマ成分
(I)及び直角位相クロマ成分(Q)によって表わし、 予定の第1の細度レベルでY成分を処理して、合成Y成
分を決定し、 予定の第2の細度レベルでI及びQ成分の各々を処理し
て、夫々合成I及びQ成分を決定し、該第2の細度レベ
ルは前記第1の細度レベルよりも粗く、前記合成Y,I及
びQ成分は表示すべき場面の物体の色を表わしており、 前記場面内の半透明度を第1のビット解像度の半透明度
(T)成分によって表わし、 前記T成分を第1の細度レベルで処理して、前記第1の
ビット解像度に於ける合成T成分を決定し、 前記第1のビット解像度の合成T成分に倍率をかけて、
第2のビット解像度の合成T成分を形成する工程を含
み、前記第1のビット解像度が前記第2のビット解像度
よりも小さいことを特徴とする方法。
5. A method for generating a color characteristic of an object in a scene to be displayed, which is used in a computer image generating apparatus, wherein a color in the scene is represented by a luminance component (Y), an in-phase chroma component (I), and a quadrature. Processing the Y component at a predetermined first fineness level to determine a composite Y component, represented by a phase chroma component (Q), and processing each of the I and Q components at a predetermined second fineness level Determining the composite I and Q components, respectively, wherein the second fineness level is coarser than the first fineness level, and the composite Y, I and Q components represent the color of the object in the scene to be displayed. Wherein the translucency in the scene is represented by a translucency (T) component at a first bit resolution, and the T component is processed at a first fineness level to produce a composite at the first bit resolution. Determining a T component, multiplying the composite T component of the first bit resolution by a magnification,
Forming a composite T-component at a second bit resolution, wherein the first bit resolution is less than the second bit resolution.
【請求項6】計算機画像発生装置で、表示すべき場面の
物体の色特性を発生する方法に於て、 表示すべき物体を表わす赤(R)、緑(G)及び青
(B)色情報を対応する輝度(Y)、同相(I)クロマ
及び直角位相(Q)クロマ・データに変換し、 前記Y,I及びQデータを処理して、合成Y,I及びQデータ
を決定し、 前記合成Y,I及びQデータを対応するR,G及びB情報に再
び変換し、対応するR,G及びB情報を表示すべき物体の
色を表わす様にする工程を含み、 前記Y,I及びQデータが第1のビット解像度で表わさ
れ、 前記処理する工程が、次の工程、すなわち 前記Y,I及びQデータが前記第1のビット解像度より低
い第2のビット解像度で表わされる様に、前記Y,I及び
Qデータに倍率をかけ、 前記第2のビット解像度の前記Y,I及びQデータを処理
して、前記第2のビット解像度の合成Y,I及びQデータ
を決定し、 前記第2のビット解像度の前記合成Y,I及びQデータに
再び倍率をかけて、前記第1のビット解像度の合成Y,I
及びQデータを求め、 前記合成Yデータに応答して、表示すべき物体を表わす
半透明度(T)情報を求める工程を含んでいる方法。
6. A method for generating a color characteristic of an object of a scene to be displayed in a computer image generating apparatus, wherein red (R), green (G) and blue (B) color information representing the object to be displayed is provided. To corresponding luminance (Y), in-phase (I) chroma and quadrature (Q) chroma data, processing the Y, I and Q data to determine combined Y, I and Q data, Converting the combined Y, I, and Q data back into corresponding R, G, and B information so that the corresponding R, G, and B information represents the color of the object to be displayed; The Q data is represented at a first bit resolution, and the processing step comprises the following steps: the Y, I and Q data are represented at a second bit resolution lower than the first bit resolution. Multiplying the Y, I and Q data, processing the Y, I and Q data at the second bit resolution Determining the composite Y, I, and Q data of the second bit resolution, and multiplying again the composite Y, I, and Q data of the second bit resolution by the multiplication to produce the composite of the first bit resolution. Y, I
And Q data, and in response to the composite Y data, determining translucency (T) information representing an object to be displayed.
【請求項7】前記の処理する工程が、 前記Yデータを予定の第1の細度レベルで処理し、 前記I及びQデータの各々を、前記第1の細度レベルよ
り粗い予定の第2の細度レベルで処理することを含む請
求項6記載の方法。
7. The processing step of: processing the Y data at a predetermined first level of fineness, and converting each of the I and Q data to a second predetermined level of coarseness that is greater than the first level of fineness. 7. The method of claim 6, comprising processing at a granularity level of:
【請求項8】前記第2の細度レベルが第1の細度レベル
の1/4である請求項7記載の方法。
8. The method of claim 7, wherein said second level of fineness is one-fourth of said first level of fineness.
【請求項9】計算機画像発生装置で、表示すべき場面の
物体の色特性を発生する装置に於て、 第1の予定のビット解像度で表わされた物体の第1の色
情報に倍率をかけて、前記第1の予定のビット解像度よ
り低い第2の予定のビット解像度で表わした物体の第2
の色情報を発生する第1の倍率手段と、 入力が前記第1の倍率手段に結合されていて、第2の色
情報を受取り、第2のビット解像度で表わされた物体の
第3の色情報を決定する処理手段と、 該処理手段に結合されていて、第3の色情報を受取り、
第3の色情報に応答して、第1のビット解像度で表わさ
れた物体の第4の色情報を発生する第2の倍率手段とを
有し、第4の色情報が表示すべき物体の色を表わす装
置。
9. An apparatus for generating color characteristics of an object of a scene to be displayed in a computer image generating apparatus, wherein a magnification is applied to first color information of an object represented by a first predetermined bit resolution. Multiplying an object represented by a second predetermined bit resolution lower than the first predetermined bit resolution
A first magnification means for generating color information of a third color of the object, the input being coupled to the first magnification means for receiving the second color information and representing the second bit resolution; Processing means for determining color information; coupled to the processing means for receiving third color information;
Second magnification means for generating, in response to the third color information, fourth color information of the object represented by the first bit resolution, wherein the fourth color information is to be displayed. A device that represents the color of
【請求項10】計算機画像発生装置で、表示すべき場面
の物体の色特性を発生する装置に於て、 第1の予定のビット解像度で表わされた物体の第1の色
情報に倍率をかけて、前記第1の予定のビット解像度よ
り低い第2の予定のビット解像度で表わした物体の第2
の色情報を発生する第1の倍率手段と、 入力が前記第1の倍率手段に結合されていて、前記第2
の色情報を受取り、前記第2のビット解像度で表わされ
た物体の第3の色情報を決定する処理手段と、 該処理手段に結合されていて、前記第3の色情報を受取
り、前記第3の色情報に応答して、前記第1のビット解
像度で表わされた物体の第4の色情報を発生する第2の
倍率手段とを有し、 前記第4の色情報が表示すべき物体の色を表し、 また前記第4の色情報は輝度(Y)、同相(I)クロマ
及び直角位相(Q)クロマ成分によって表わされ、 更に、当該装置が、前記第4の色情報を受取る入力を持
っていて、供給された前記第4の色情報に対応する赤
(R)、緑(G)及び青(B)色成分を決定する変換手
段を含んでおり、 前記第3の色情報は輝度(Y)、同相(I)クロマ及び
直角位相(Q)クロマ成分によって表わされ、 更に当該装置が、前記処理手段に結合されていて、前記
第3の色情報のY成分から、表示すべき物体を表わす半
透明度(T)情報を求める第3の倍率手段を含んでいる
装置。
10. A computer image generating apparatus for generating a color characteristic of an object of a scene to be displayed, wherein a magnification is applied to first color information of the object represented by a first predetermined bit resolution. Multiplying an object represented by a second predetermined bit resolution lower than the first predetermined bit resolution
First magnification means for generating the color information of the first and second inputs; and an input coupled to the first magnification means,
Processing means for receiving the third color information of the object represented by the second bit resolution and determining the third color information of the object represented by the second bit resolution; receiving the third color information; Second magnification means for generating fourth color information of the object represented by the first bit resolution in response to the third color information, wherein the fourth color information is displayed. And the fourth color information is represented by luminance (Y), in-phase (I) chroma and quadrature (Q) chroma components, and the apparatus further comprises the fourth color information. And input means for determining red (R), green (G), and blue (B) color components corresponding to the supplied fourth color information; and The color information is represented by luminance (Y), in-phase (I) chroma and quadrature (Q) chroma components. Device, wherein they are coupled to the processing means, the Y component of the third color information includes a third magnification means for determining a translucency (T) information representative of the object to be display.
【請求項11】前記第2の色情報が輝度(Y)、同相
(I)及び直角位相(Q)クロマ成分によって表わさ
れ、 前記処理手段が、前記第1の解像度で前記Y成分を処理
するY処理手段と、前記第2の解像度で前記I成分を処
理するI処理手段と、前記第2の解像度で前記Q成分を
処理するQ処理手段とを有し、 前記第1の解像度が前記第2の解像度より高い請求項10
記載の装置。
11. The second color information is represented by luminance (Y), in-phase (I) and quadrature (Q) chroma components, and the processing means processes the Y components at the first resolution. Y processing means, I processing means for processing the I component at the second resolution, and Q processing means for processing the Q component at the second resolution, wherein the first resolution is 11. A higher resolution than the second resolution.
The described device.
【請求項12】計算機画像発生装置で、表示すべき場面
の物体の色特性を発生する装置に於て、 第1の予定のビット解像度で表わされた物体の第1の色
情報に倍率をかけて、前記第1の予定のビット解像度よ
り低い第2の予定のビット解像度で表わした物体の第2
の色情報を発生する第1の倍率手段と、 入力が前記第1の倍率手段に結合されていて、前記第2
の色情報を受取り、前記第2のビット解像度で表わされ
た物体の第3の色情報を決定する処理手段と、 該処理手段に結合されていて、前記第3の色情報を受取
り、前記第3の色情報に応答して、前記第1のビット解
像度で表わされた物体の第4の色情報を発生する第2の
倍率手段とを有し、 前記第4の色情報は表示すべき物体の色を表し、 前記第1の色情報が輝度(Y)、同相(I)クロマ及び
直角位相(Q)クロマ成分によって表わされ、 更に、当該装置が、前記第1の倍率手段に結合された出
力を持っていて、前記第1の倍率手段に対して前記第1
の色情報を供給する記憶手段を有し、該記憶手段は第1
の細度レベルでY成分を記憶すると共に、対応するI及
びQ成分の各々を第2の細度レベルで記憶し、前記第1
の細度レベルが前記第2の細度レベルより高い装置。
12. A computer image generating apparatus for generating color characteristics of an object of a scene to be displayed, wherein a magnification is applied to first color information of the object represented by a first predetermined bit resolution. Multiplying an object represented by a second predetermined bit resolution lower than the first predetermined bit resolution
First magnification means for generating the color information of the first and second inputs; and an input coupled to the first magnification means,
Processing means for receiving the third color information of the object represented by the second bit resolution and determining the third color information of the object represented by the second bit resolution; receiving the third color information; Second magnification means for generating, in response to third color information, fourth color information of the object represented by the first bit resolution, the fourth color information being displayed. And the first color information is represented by luminance (Y), in-phase (I) chroma and quadrature (Q) chroma components. Having a combined output and providing the first
Storage means for supplying color information of
And the corresponding I and Q components are stored at a second fineness level, and the first and second components are stored at the second fineness level.
Wherein the fineness level is higher than the second fineness level.
JP63307082A 1987-12-18 1988-12-06 Method and apparatus for generating color characteristics of an object Expired - Lifetime JP2923648B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US135,059 1987-12-18
US07/135,059 US4965745A (en) 1987-12-18 1987-12-18 YIQ based color cell texture

Publications (2)

Publication Number Publication Date
JPH021894A JPH021894A (en) 1990-01-08
JP2923648B2 true JP2923648B2 (en) 1999-07-26

Family

ID=22466338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63307082A Expired - Lifetime JP2923648B2 (en) 1987-12-18 1988-12-06 Method and apparatus for generating color characteristics of an object

Country Status (5)

Country Link
US (1) US4965745A (en)
EP (1) EP0321290B1 (en)
JP (1) JP2923648B2 (en)
DE (1) DE3853664T2 (en)
IL (1) IL88030A (en)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459823A (en) * 1990-07-05 1995-10-17 Canon Kabushiki Kaisha Graphics engine for true colour 2D graphics
JP3082289B2 (en) * 1991-05-14 2000-08-28 富士ゼロックス株式会社 Image processing device
US5347620A (en) * 1991-09-05 1994-09-13 Zimmer Mark A System and method for digital rendering of images and printed articulation
JPH06510145A (en) * 1991-09-05 1994-11-10 ジマー,マーク,アラン Systems and methods for digital representation of image and print clarity
US5408603A (en) * 1992-03-31 1995-04-18 Dow Benelux N.V. Global process control information system and method
US5428769A (en) * 1992-03-31 1995-06-27 The Dow Chemical Company Process control interface system having triply redundant remote field units
US5608851A (en) * 1992-06-17 1997-03-04 Toppan Printing Co., Ltd. Color variation specification method and a device therefor
US5262847A (en) * 1992-10-20 1993-11-16 International Business Machines Corporation Method of converting luminance-color difference video signal to a three color component video signal
US5966454A (en) * 1995-09-14 1999-10-12 Bentley Mills, Inc. Methods and systems for manipulation of images of floor coverings or other fabrics
TW316965B (en) * 1995-10-31 1997-10-01 Cirrus Logic Inc
US5892517A (en) * 1996-01-02 1999-04-06 Integrated Device Technology, Inc. Shared access texturing of computer graphic images
US5831625A (en) * 1996-01-02 1998-11-03 Integrated Device Technology, Inc. Wavelet texturing
US5850489A (en) * 1996-01-02 1998-12-15 Integrated Device Technology, Inc. Linear expression evaluator
US5808690A (en) * 1996-01-02 1998-09-15 Integrated Device Technology, Inc. Image generation system, methods and computer program products using distributed processing
US6108460A (en) * 1996-01-02 2000-08-22 Pixelfusion Limited Load balanced image generation
US5822452A (en) * 1996-04-30 1998-10-13 3Dfx Interactive, Inc. System and method for narrow channel compression
US5808621A (en) * 1996-04-30 1998-09-15 3Dfx Interactive, Incorporated System and method for selecting a color space using a neural network
US6104842A (en) * 1996-06-10 2000-08-15 Integrated Device Technology, Inc. Geometry processing of digital video models and images
US5936635A (en) * 1996-06-28 1999-08-10 Cirrus Logic, Inc. System and method of rendering polygons into a pixel grid
US5793386A (en) * 1996-06-28 1998-08-11 S3 Incorporated Register set reordering for a graphics processor based upon the type of primitive to be rendered
TW348239B (en) * 1996-06-28 1998-12-21 Cirrus Logic Inc Embedding a transparency enable bit as part of a resizing bit block transfer operation
US5828382A (en) * 1996-08-02 1998-10-27 Cirrus Logic, Inc. Apparatus for dynamic XY tiled texture caching
US6348917B1 (en) 1996-09-30 2002-02-19 Cirrus Logic, Inc Dynamic switching of texture mip-maps based on depth
US5987582A (en) * 1996-09-30 1999-11-16 Cirrus Logic, Inc. Method of obtaining a buffer contiguous memory and building a page table that is accessible by a peripheral graphics device
US5875295A (en) * 1996-09-30 1999-02-23 S3 Incorporated Instruction format for ensuring safe execution of display list
US5835097A (en) * 1996-12-30 1998-11-10 Cirrus Logic, Inc. Non-homogenous second order perspective texture mapping using linear interpolation parameters
US6333746B1 (en) 1996-12-30 2001-12-25 Cirrus Logic, Inc. Auto level of detail texture mapping for a software graphics engine
US5844576A (en) * 1996-12-30 1998-12-01 Cirrus Logic, Inc. Tiled linear host texture storage
US5841442A (en) * 1996-12-30 1998-11-24 Cirrus Logic, Inc. Method for computing parameters used in a non-homogeneous second order perspective texture mapping process using interpolation
US6157386A (en) * 1997-10-10 2000-12-05 Cirrus Logic, Inc MIP map blending in a graphics processor
US5986663A (en) * 1997-10-10 1999-11-16 Cirrus Logic, Inc. Auto level of detail-based MIP mapping in a graphics processor
US6088016A (en) * 1996-12-30 2000-07-11 S3 Incorporated Dithering method and apparatus using ramp probability logic
US6052127A (en) * 1996-12-30 2000-04-18 Cirrus Logic, Inc. Circuit for determining non-homogenous second order perspective texture mapping coordinates using linear interpolation
US5949426A (en) * 1997-01-28 1999-09-07 Integrated Device Technology, Inc. Non-linear texture map blending
US5796385A (en) * 1997-01-28 1998-08-18 Integrated Device Technology, Inc. Luminance controlled color resolution reduction
US5977983A (en) * 1997-02-20 1999-11-02 S3 Incorporated Method and apparatus for adjusting graphics processing procedures based on a selectable speed/quality gauge
US5929869A (en) * 1997-03-05 1999-07-27 Cirrus Logic, Inc. Texture map storage with UV remapping
US6072508A (en) * 1997-03-14 2000-06-06 S3 Incorporated Method and apparatus for shortening display list instructions
US6028613A (en) * 1997-03-20 2000-02-22 S3 Incorporated Method and apparatus for programming a graphics subsystem register set
US5949421A (en) * 1997-03-31 1999-09-07 Cirrus Logic, Inc. Method and system for efficient register sorting for three dimensional graphics
US6130674A (en) * 1997-03-31 2000-10-10 Cirrus Logic, Inc. Dynamically selectable texture filter for computer graphics
US5978895A (en) * 1997-04-04 1999-11-02 Cirrus Logic, Inc. Method for speeding mathematical operations in a processor core
US5835104A (en) * 1997-04-23 1998-11-10 S3 Incorporated Variable band size compositing buffer method and apparatus
US5940090A (en) * 1997-05-07 1999-08-17 Cirrus Logic, Inc. Method and apparatus for internally caching the minimum and maximum XY pixel address values in a graphics subsystem
US6266753B1 (en) 1997-07-10 2001-07-24 Cirrus Logic, Inc. Memory manager for multi-media apparatus and method therefor
US6054993A (en) * 1997-09-17 2000-04-25 Cirrus Logic, Inc. Chroma-keyed specular texture mapping in a graphics processor
US6181347B1 (en) 1997-09-17 2001-01-30 Cirrus Logic, Inc. Selectable mode smoothing texture filter for computer graphics
US6775417B2 (en) * 1997-10-02 2004-08-10 S3 Graphics Co., Ltd. Fixed-rate block-based image compression with inferred pixel values
US6002409A (en) * 1997-10-29 1999-12-14 Cirrus Logic, Inc. Arbitration for shared graphics processing resources
US6002407A (en) 1997-12-16 1999-12-14 Oak Technology, Inc. Cache memory and method for use in generating computer graphics texture
US6259455B1 (en) 1998-06-30 2001-07-10 Cirrus Logic, Inc. Method and apparatus for applying specular highlighting with specular components included with texture maps
US6252606B1 (en) 1998-06-30 2001-06-26 Cirrus Logic, Inc. Error correction in a graphics processor
US7058218B1 (en) * 1998-09-28 2006-06-06 Silicon Graphics, Inc. Method of and apparatus for compressing and uncompressing image data
US20030142107A1 (en) * 1999-07-16 2003-07-31 Intel Corporation Pixel engine
US6518974B2 (en) * 1999-07-16 2003-02-11 Intel Corporation Pixel engine
US7400333B1 (en) * 2000-03-16 2008-07-15 Matrox Graphics Inc. Video display system with two controllers each able to scale and blend RGB and YUV surfaces
JP4139154B2 (en) * 2001-08-30 2008-08-27 株式会社リコー Image communication device
KR20040052246A (en) * 2001-10-19 2004-06-22 코닌클리케 필립스 일렉트로닉스 엔.브이. Method of and display processing unit for displaying a colour image and a display apparatus comprising such a display processing unit
GB2393887B (en) * 2002-10-04 2005-10-26 Criterion Software Ltd Three-dimensional computer graphics
JP4902467B2 (en) * 2007-08-24 2012-03-21 三菱電機株式会社 Cooker
US20100225567A1 (en) * 2009-03-03 2010-09-09 Time-O-Matic, Inc. Electronic display

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905164A (en) 1986-12-19 1990-02-27 General Electric Company Method for modulating color for effecting color cell texture

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5941222B2 (en) * 1978-08-30 1984-10-05 株式会社日立製作所 graphic display device
US4319267A (en) * 1979-02-16 1982-03-09 Nippon Telegraph And Telephone Public Corporation Picture coding and/or decoding equipment
US4459677A (en) * 1980-04-11 1984-07-10 Ampex Corporation VIQ Computer graphics system
US4475161A (en) * 1980-04-11 1984-10-02 Ampex Corporation YIQ Computer graphics system
US4564915A (en) * 1980-04-11 1986-01-14 Ampex Corporation YIQ Computer graphics system
DE3015141C2 (en) * 1980-04-19 1985-10-03 Deutsche Itt Industries Gmbh, 7800 Freiburg Color television receiver with at least one integrated circuit for the luminance signal and the chrominance signals
JPS574084A (en) * 1980-06-11 1982-01-09 Hitachi Electronics Visibility simulator for simulated visual field device
US4606625A (en) * 1983-05-09 1986-08-19 Geshwind David M Method for colorizing black and white footage
US4593355A (en) * 1983-11-21 1986-06-03 American Science And Engineering, Inc. Method of quick back projection for computed tomography and improved CT machine employing the method
US4595951A (en) * 1983-11-29 1986-06-17 Rca Corporation Teletext decoder using a common memory
DE3466817D1 (en) * 1984-02-15 1987-11-19 Ibm Colour display apparatus and method of coding a colour image
US4613948A (en) * 1984-06-01 1986-09-23 Bell Communications Research, Inc. Conditional quantization grey level and color image coding apparatus
JPS60262279A (en) * 1984-06-08 1985-12-25 Hitachi Ltd Data conversion system
JPS6292992A (en) * 1985-10-18 1987-04-28 富士通株式会社 frame memory device
JPS62296193A (en) * 1986-06-17 1987-12-23 富士通株式会社 Bitmap display device for multi-tone colors
US4740832A (en) * 1986-10-14 1988-04-26 Technology, Inc., 64 Image storage using separately scanned luminance and chrominance variables

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905164A (en) 1986-12-19 1990-02-27 General Electric Company Method for modulating color for effecting color cell texture

Also Published As

Publication number Publication date
DE3853664D1 (en) 1995-06-01
DE3853664T2 (en) 1996-01-18
IL88030A0 (en) 1989-06-30
JPH021894A (en) 1990-01-08
EP0321290A3 (en) 1991-07-03
EP0321290B1 (en) 1995-04-26
US4965745A (en) 1990-10-23
EP0321290A2 (en) 1989-06-21
IL88030A (en) 1993-01-14

Similar Documents

Publication Publication Date Title
JP2923648B2 (en) Method and apparatus for generating color characteristics of an object
US4808988A (en) Digital vector generator for a graphic display system
US5179641A (en) Rendering shaded areas with boundary-localized pseudo-random noise
US5943058A (en) Texture mapping circuit for performing data interpolations
JP2582999B2 (en) Color palette generation method, apparatus, data processing system, and lookup table input generation method
JP2780193B2 (en) Dither device
US5670986A (en) Graphics system for displaying images in gray-scale
JPH05307610A (en) Texture mapping method and its device
JPS61148488A (en) Display controller
KR20040000151A (en) Apparatus and Method For Converting Of Pixels From YUV TO RGB Format Using Color Look-Up Tables
JPH06282640A (en) Operating method of personal computer system and personal computer system
JPH06203179A (en) Image data processing method and device therefor
KR910009102B1 (en) Image synthesizer
KR100553950B1 (en) Color compensating circuit and image display device having the same
US5940067A (en) Reduced memory indexed color graphics system for rendered images with shading and fog effects
US6046751A (en) Color graphics processor
CN104981863A (en) Methods and apparatus to render colors to binary high-dimensional output device
US5535315A (en) Graphic coloring system in a graphic-display system having separately stored shape/positional data and color data selectively combinable to form desired images of differing shapes and colors
JPH04190466A (en) Limited color representation device for color image
US5854633A (en) Method of and system for dynamically adjusting color rendering
KR19980041754A (en) Method and apparatus for determining texture coordinates in computer graphics
JPH03127278A (en) System and device for color picture processing
JP2898569B2 (en) Video accelerator board for computer game development
JPH05204351A (en) Color image display method
GB2287600A (en) Digital RGB colour conversion system

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10