JPH055628B2 - - Google Patents

Info

Publication number
JPH055628B2
JPH055628B2 JP60114799A JP11479985A JPH055628B2 JP H055628 B2 JPH055628 B2 JP H055628B2 JP 60114799 A JP60114799 A JP 60114799A JP 11479985 A JP11479985 A JP 11479985A JP H055628 B2 JPH055628 B2 JP H055628B2
Authority
JP
Japan
Prior art keywords
light
sensor
target surface
distance
spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60114799A
Other languages
Japanese (ja)
Other versions
JPS61274852A (en
Inventor
Tatsuo Arai
Ryoichi Hashimoto
Tomoaki Yano
Hidekazu Horiuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP11479985A priority Critical patent/JPS61274852A/en
Publication of JPS61274852A publication Critical patent/JPS61274852A/en
Publication of JPH055628B2 publication Critical patent/JPH055628B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Machine Tool Copy Controls (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、塗装・溶接作業のテイーチング、ば
り取り作業、立体的縫製作業、あるいは産業ロボ
ツトを用いて曲面ならい動作させることが必要な
各種作業を行う場合等に使用される非接触曲面な
らいセンサに関するものである。
[Detailed Description of the Invention] [Industrial Field of Application] The present invention is applicable to teaching in painting and welding operations, deburring operations, three-dimensional sewing operations, and various operations that require the use of industrial robots to move along curved surfaces. The present invention relates to a non-contact curved surface profiling sensor that is used when carrying out such applications.

[従来の技術] 上記各種の作業を行う場合には、それらの作業
を行うヘツド等を対象面に対して非接触でならい
動作させるのが有効であり、上記ヘツドにそのよ
うな動作をさせるためには、ヘツドと対象面との
間の相対的な方向及び距離を検出する必要があ
る。
[Prior Art] When performing the various operations mentioned above, it is effective to make the heads, etc. used for those operations move in a non-contact manner with respect to the target surface. It is necessary to detect the relative direction and distance between the head and the target surface.

このような検出に使用するセンサとして、従
来、例えば、多数の発光ダイオード(LED)を
円環状に配列し、それらのLEDからの光を対象
面に照射し、その対象面に形成される光の図形か
ら、即ち円の変形から、LEDの配列面と対象面
との間の相対的な傾きと位置の情報を検出するよ
うにしたセンサが知られている。
Conventionally, as a sensor used for such detection, for example, a large number of light emitting diodes (LEDs) are arranged in a ring, the light from those LEDs is irradiated onto a target surface, and the light formed on the target surface is detected. A sensor is known that detects information on the relative inclination and position between the LED array surface and the target surface from a figure, that is, from a deformation of a circle.

しかしながら、このようなセンサでは多数の
LEDを用いているので、ハード的に構成が複雑
化するだけでなく、情報処理が複雑で時間がかか
るという難点がある。
However, such sensors require a large number of
Since it uses LEDs, it not only has a complicated hardware configuration, but also has the disadvantage that information processing is complex and time-consuming.

[発明が解決しようとする問題点] 本発明の目的は、上記各種の作業に使用する非
接触曲面ならいセンサを、構成が簡単でしかも情
報処理を高速で行うことができるものとして提供
することにある。
[Problems to be Solved by the Invention] An object of the present invention is to provide a non-contact curved surface profiling sensor for use in the various operations mentioned above, which has a simple configuration and can process information at high speed. be.

[問題点を解決するための手段] 上記目的を達成するため、本発明の非接触曲面
ならいセンサは、ならい制御の対象面に三つのス
ポツト光線を1点から発散あるいは1点に集束す
る向きに射出する光源と、対象面上に形成される
三つのスポツト光点の反射光をレンズ系を介して
受光し、各光点の対象面上における座標情報を検
出する受光部と、受光部から出力される座標情報
に基づいて受光部と対象面との間の相対的な方向
及び距離を算出する演算処理回路とを備えること
により構成される。
[Means for Solving the Problems] In order to achieve the above object, the non-contact curved surface tracing sensor of the present invention directs three spot rays onto the surface to be controlled in a direction in which they diverge from one point or converge on one point. A light receiving unit that receives the emitted light source and the reflected light of three spot light points formed on the target surface through a lens system, and detects the coordinate information of each light spot on the target surface, and outputs from the light receiving unit. and an arithmetic processing circuit that calculates the relative direction and distance between the light receiving section and the target surface based on the coordinate information.

[作用] 光源から射出する三つのスポツト光線は対象面
上に三つのスポツト光点を形成するが、それらの
位置は光源と対象面との間の相対的な方向及び距
離に応じたものとして受光部で検出される。即
ち、上記三つのスポツト光点からの反射光がレン
ズ系を通して受光部に入射、結像し、その受光面
上における座標情報が受光部から演算処理回路に
入力される。さらに、その演算処理回路では、上
記座標情報に基づいて受光部と対象面との間の相
対的な方向及び距離が算出される。この演算処理
回路の出力は、駆動制御回路に入力され、予め設
定した基準値と比較して、それらを一致させるよ
うに上記受光部を光源と共に移動させるための駆
動制御が行われ、即ち受光部及び光源の対象面に
対するならい制御が行われる。
[Operation] The three spot light rays emitted from the light source form three spot light points on the target surface, and their positions are determined according to the relative direction and distance between the light source and the target surface. detected in the That is, the reflected light from the three spot light points enters the light receiving section through the lens system and forms an image, and the coordinate information on the light receiving surface is input from the light receiving section to the arithmetic processing circuit. Furthermore, the arithmetic processing circuit calculates the relative direction and distance between the light receiving section and the target surface based on the coordinate information. The output of this arithmetic processing circuit is input to a drive control circuit, and is compared with a preset reference value, and drive control is performed to move the light receiving section together with the light source so that they match. Then, the light source is controlled to follow the target surface.

[発明の効果] このように本発明のセンサによれば、三つのス
ポツト光線を1点から発散するように、あるいは
1点に集束するように射出するようにしたので、
それらのスポツト光線の対象面からの反射光をレ
ンズ系を通して受光するだけで、光源及び受光部
と対象面との間の相対的な方向及び距離を検出す
ることができ、従つて簡単な構成でしかも情報処
理も簡易かつ高速で行うことができる。
[Effects of the Invention] As described above, according to the sensor of the present invention, the three spot beams are emitted so as to diverge from one point or so as to converge on one point.
By simply receiving the reflected light from the target surface of these spot rays through a lens system, the relative direction and distance between the light source and the light receiving section and the target surface can be detected, and therefore, with a simple configuration. Furthermore, information processing can be performed easily and at high speed.

[実施例] 第1図に示す本発明の実施例において、1は駆
動装置、2はそれによつて支持された光源・セン
サ部、3はならい動作の対象面であり、この対象
面3に対してならい動作することにより各種作業
を行うための機器は、この光源・センサ部2に設
備される。駆動装置1は5乃至6自由度を備えた
腕機構等によつて構成することにより、光源・セ
ンサ部2をならい動作の対象面3に対面して比較
的自由に変位可能とし、それにより両者間の相対
的な方向及び距離を制御して、ならい動作ができ
るように構成される。
[Embodiment] In the embodiment of the present invention shown in FIG. 1, 1 is a drive device, 2 is a light source/sensor section supported by the drive device, 3 is a target surface of the tracing operation, and the target surface 3 is The light source/sensor unit 2 is equipped with equipment for performing various tasks through tracing movements. The drive device 1 is configured with an arm mechanism or the like having 5 to 6 degrees of freedom, so that the light source/sensor section 2 can be relatively freely displaced facing the target surface 3 of the movement, thereby allowing both The configuration is such that a tracing operation can be performed by controlling the relative direction and distance between them.

さらに具体的に説明すると、図示した駆動装置
1は、多自由度駆動機構として構成したもので、
関節7,8において連結された三つの腕杆4〜6
のそれぞれを、それらの軸線のまわりにおいて回
転可能に構成し、その駆動装置1の先端に固定し
た光源・センサ部2を、基体10(対象面3)に
対して5自由度(θ1〜θ5)の範囲内で変位可能と
し、それにより光源・センサ部2と対象面3との
間の相対的な方向と距離とを自由に制御可能とし
たものである。この駆動装置1の自由度は5に限
定されるものではない。
More specifically, the illustrated drive device 1 is configured as a multi-degree-of-freedom drive mechanism.
Three arm rods 4 to 6 connected at joints 7 and 8
are configured to be rotatable around their axes, and the light source/sensor unit 2 fixed to the tip of the drive device 1 is configured to have five degrees of freedom (θ 1 to θ 5 ), thereby making it possible to freely control the relative direction and distance between the light source/sensor section 2 and the target surface 3. The degree of freedom of this drive device 1 is not limited to five.

上記光源・センサ部2は、第2図aに例示する
ように、対象面3に対して光の照射を行う光源1
3と、対象面3からの反射光を受光する受光部1
4とを備えたもので、同図に示している光源13
は、対象面3に対して三つのスポツト光線15,
16,17を1点Oから発散するように射出する
三つの投光素子18,19,20によつて構成
し、また上記受光部14は対象面3上の三つのス
ポツト光点A,B,Cからの反射光をレンズ系2
1を通してセンサ22で受光するように構成して
いる。このセンサ22は、例えば多数の光電素子
をマトリツクス状に配設するなどの手段により、
そのセンサ22上に投影された三つの反射光の結
像点A′,B′,C′(第3図参照)の座標情報を検出
可能なものであればよい。
The light source/sensor section 2 includes a light source 1 that irradiates light onto the target surface 3, as illustrated in FIG.
3, and a light receiving unit 1 that receives reflected light from the target surface 3.
4, and the light source 13 shown in the figure.
is three spot rays 15,
16, 17 are composed of three light emitting elements 18, 19, 20 that emit light from one point O in a diverging manner, and the light receiving section 14 emits three light spots A, B, B on the object surface 3. The reflected light from C is transferred to lens system 2.
1 so that the sensor 22 receives the light. This sensor 22 is constructed by, for example, arranging a large number of photoelectric elements in a matrix.
Any sensor may be used as long as it can detect the coordinate information of the image points A', B', and C' (see FIG. 3) of the three reflected lights projected onto the sensor 22.

また、上記光源13に代えて第2図bに示すよ
うな光源25を用いることができる。この光源2
5は、三つのスポツト光線26,27,28を1
点Oに集束するように射出する三つの投光素子2
9,30,31を用いたものであり、この場合に
おいては対象面3をO点よりも近い位置あるいは
遠い位置のいずれの位置に配設することもでき
る。
Further, in place of the light source 13, a light source 25 as shown in FIG. 2b may be used. This light source 2
5 is three spot rays 26, 27, 28
Three light emitting elements 2 that emit light so as to be focused on point O
9, 30, and 31, and in this case, the object plane 3 can be placed at any position closer or farther than the O point.

さらに、上記第2図a,bのいずれの場合にあ
つても、複数の投光素子を用いることなく一つの
投光素子を用い、その一つの投光素子からの光を
ミラーやプリズムで反射させることにより三つの
スポツト光線を生成し、あるいは上記一つの投光
素子を機械的に回転させ、その投光素子が特定の
3点に位置する場合に検出操作を行うことによ
り、三つのスポツト光線を得るような構成を採用
することができる。
Furthermore, in both cases of Figure 2 a and b above, one light emitting element is used instead of multiple light emitting elements, and the light from that one light emitting element is reflected by a mirror or prism. or by mechanically rotating one light projecting element and performing a detection operation when the light projecting element is located at three specific points. It is possible to adopt a configuration that obtains the following.

上記受光部14の次段には、演算処理回路及び
駆動制御回路が接続され、演算処理回路において
は、センサ22で得た三つのスポツト光点の受光
面上における座標情報に基づいて演算処理を行う
ことにより、センサ22と対象面3との間の相対
的な方向及び距離を求め、駆動制御回路において
は、上記演算回路の出力と予め定めた基準値とを
比較して、それらを一致させる方向及び位置に上
記光源・センサ部2を移動させるための信号を駆
動装置1に出力させ、その信号により駆動装置1
を動作させ、光源・センサ部2を対象面3に対し
てならい動作させるように構成している。
An arithmetic processing circuit and a drive control circuit are connected to the next stage of the light receiving section 14, and the arithmetic processing circuit performs arithmetic processing based on the coordinate information on the light receiving surface of the three spot light points obtained by the sensor 22. By doing this, the relative direction and distance between the sensor 22 and the target surface 3 are determined, and the drive control circuit compares the output of the arithmetic circuit with a predetermined reference value to match them. The driving device 1 outputs a signal for moving the light source/sensor unit 2 in the direction and position, and the driving device 1
is operated, and the light source/sensor unit 2 is configured to operate in a manner that follows the target surface 3.

次に、上記演算処理回路における演算の内容に
ついて説明する。
Next, the contents of the calculation in the above-mentioned calculation processing circuit will be explained.

第1図及び第3図に示すように、光源から3本
のスポツト光線15,16,17を射出すると、
それらの光線は対象面3に三つのスポツト光点
A,B,Cを形成する。また、それらのスポツト
光点からの反射光、レンズ系21による投影によ
りセンサ22上の三つの結像点A′,B′,C′にお
いて結像する。
As shown in FIGS. 1 and 3, when three spot rays 15, 16, 17 are emitted from the light source,
These rays form three spot light points A, B, C on the object surface 3. Further, the reflected light from these spot light points is projected by the lens system 21 to form images at three imaging points A', B', and C' on the sensor 22.

上記センサ22においては、それらの三つの結
像点A′,B′,C′の座標情報(a′,b′,c′)が求め
られ、それの座標情報が次段の演算処理回路に送
られる。
In the sensor 22, the coordinate information (a', b', c') of these three image forming points A', B', C' is obtained, and the coordinate information is sent to the next stage arithmetic processing circuit. Sent.

センサ22に接続された演算処理回路において
は、上記座標情報(a′,b′,c′)から上記スポツ
ト光点A,B,C,の対象面3上の座標(a,
b,c)を求め、さらにそれらの座標(a,b,
c)から光源・センサ部2と対象面3との間の相
対的な方向及び距離が演算される。
The arithmetic processing circuit connected to the sensor 22 calculates the coordinates (a, b', c') of the spot light points A, B, C on the target surface 3 from the coordinate information (a', b', c').
b, c), and further calculate their coordinates (a, b,
c), the relative direction and distance between the light source/sensor unit 2 and the target surface 3 are calculated.

これを原理的に詳細に説明すると、上記演算回
路においては、対象面を表わす方程式、 px+q=0 を得るため、センサ22上の三つの結像点A′,
B′,C′に対応する対象面3上の三つのスポツト光
点A,B,Cの座標(a,b,c)から、対象面
3の方向pと原点0からの距離qが求められる。
To explain this in detail in principle, in the above calculation circuit, three image points A', A', and
From the coordinates (a, b, c) of the three spot light points A, B, and C on the object surface 3 corresponding to B' and C', the direction p of the object surface 3 and the distance q from the origin 0 are found. .

即ち、上記三つのスポツト光線15〜17の方
向ベクトルをu,v,w、センサ22の感光面の
方程式をez・(x−f)=0(但し、fは原点から
感光面におろした垂線ベクトルで、第3図におい
てはf=0となる。)、レンズの中心位置を表わす
ベクトルをlとし、さらにez・l=―l―とする
(ezはZ軸方向の単位ベクトル)と、センサ22
上での座標情報(a′,b′,c′)より、 α2=a′・ex/u′・ex、β2=b′・ex/v′・ex γ2=c′・ex/w′・ex (但し、exはX軸方向の単位ベクトル) が求まり、これより、 a=αu=(ez・l)u/ez・[(l−f)/α2+u
] b=βv=(ez・l)v/ez・[(l−f)/β2+v
] c=γw=(ez・l)w/ez・[(l−f)/γ2+w
] が求まる。
That is, the direction vectors of the three spot rays 15 to 17 are u, v, w, and the equation of the photosensitive surface of the sensor 22 is ez・(x-f)=0 (where f is the perpendicular line drawn from the origin to the photosensitive surface. ), the vector representing the center position of the lens is l, and ez・l=-l- (ez is a unit vector in the Z-axis direction), then the sensor 22
From the coordinate information (a′, b′, c′) above, α 2 = a′・ex/u′・ex, β 2 = b′・ex/v′・ex γ 2 = c′・ex/ w′・ex (where ex is a unit vector in the X-axis direction) is determined, and from this, a=αu=(ez・l)u/ez・[(lf)/α 2 +u
] b=βv=(ez・l)v/ez・[(l−f)/β 2 +v
] c=γw=(ez・l)w/ez・[(l−f)/γ 2 +w
] is found.

而して、これらから、 p=q[v×w,w×u,u×v]/det(u,v,w
) 1/α 1/β 1/γ l=q/―P― となり、対象面3のセンサ22に対する方向pと
距離lが求まる。
Therefore, from these, p=q[v×w, w×u, u×v]/det(u, v, w
) 1/α 1/β 1/γ l=q/-P-, and the direction p and distance l of the target surface 3 with respect to the sensor 22 are determined.

以上に説明したところをまとめると、次のよう
になる。
The above explanation can be summarized as follows.

装置の定数 ビームAの向きを表すベクトルu=(ux,uy
uzT ビームBの向きを表すベクトルv=(vx,vy
vzT ビームCの向きを表すベクトルw=(wx,wy
wzT レンズ中心とセンサ受光面の原点との距離―l
― 計測する情報 スポツトAのセンサ受光面上の座標(ax′,ay′)
T スポツトBのセンサ受光面上の座標(bx′,by′)
T スポツトCのセンサ受光面上の座標(cx′,cy′)
T 計算式(アンダーライン部分は定数) 対象物の単位法線ベクトル P=−p/―p― (1) 対象物表面の原点からの距離 l=−det[u,v,w]/―p― (2) 但し、 p=(px,py,pzT =1/α×(vw)+1/β×(wu) +1/γ×(uv) (3) なお、はベクトルの外積演算を示すが、これ
は事前に計算可能なものである。
Device constants Vector representing the direction of beam A = (u x , u y ,
u z ) Vector representing the direction of T beam B = (v x , v y ,
v z ) Vector w = (w x , w y ,
w z ) Distance between the center of the T lens and the origin of the sensor light-receiving surface - l
- Information to be measured Coordinates of spot A on the sensor light receiving surface (a x ′, a y ′)
Coordinates of T spot B on the sensor light receiving surface (b x ′, b y ′)
Coordinates of T spot C on the sensor light receiving surface (c x ′, c y ′)
T calculation formula (underlined parts are constants) Unit normal vector of the object P=-p/-p- (1) Distance from the origin of the object surface l=-det[u, v, w]/-p - (2) However, p=(p x , p y , p z ) T = 1/α×(vw)+1/β×(wu) +1/γ×(uv) (3) Note that is the cross product of vectors We show operations that can be calculated in advance.

また、det[u,v,w]は、[u,v,w]を
3×3のマトリクスとしたときの行列式の演算を
表すが、これも事前に計算が可能なものである。
Furthermore, det[u, v, w] represents the operation of the determinant when [u, v, w] is a 3×3 matrix, which can also be calculated in advance.

―p―=x×xy×yz×z (4) 1/α=uz/―l―+ux/ax′(―ax′―≧―ay′―
の時) =uz/―l―+uy/ay′(―ax′―<―ay′―の
時) ……(5) 1/β=vz/―l―+vx/bx′(―bx′―≧―by′―
の時) =vz/―l―+vy/by′(―bx′―<―by′―の
時) ……(6) 1/γ=wz/―l―+wx/cx′(―cx′―≧―
cy′―の時) =wz/―l―+wx/cy′(―cx′―<―cy′―の
時) ……(7) 以上の計算式による演算量は、次のようにな
る。これにより、本発明における演算を非常に簡
易に行うことが可能になり、それだけ短時間に演
算を行うことができる。
-p-= x × x + y × y + z × z (4) 1/α=u z /-l-+u x /a x ′(-a x ′-≧-a y ′-
) =u z /-l-+u y /a y ′ (-a x ′-<-a y ′-) ……(5) 1/β=v z /-l-+v x /b x ′(-b x ′-≧-b y ′-
) =v z /-l-+v y /b y ′ (-b x ′-<-b y ′-) ……(6) 1/γ=w z /-l-+w x /c x ′(―c x ′―≧―
c y ′−) = w z /−l−+w x /c y ′(−c x ′−<−c y ′−) ……(7) The amount of calculation using the above formula is as follows. become that way. This makes it possible to perform calculations in the present invention very easily, and in a correspondingly short time.

演算量 (1) 式はp、―p―が決まつているとすると、除
算が3回 (2) 式は除算が1回 (3) 式は乗算が9回、和算が6回 (4) 式は乗算が3回、和算が2回、平方根演算が
1回 (5) 式は除算が1回、和算が1回 (6) 式は除算が1回、和算が1回 (7) 式は除算が1回、和算が1回 以上により、合計で乗算が19回、和算が11回、
平方根演算が1回になる。
Amount of operations (1) Assuming that p and -p- are fixed, the equation requires 3 divisions (2) The equation requires 1 division (3) The equation requires 9 multiplications and 6 additions (4 ) The formula has 3 multiplications, 2 additions, and 1 square root operation (5) The formula has 1 division and 1 addition (6) The formula has 1 division and 1 addition ( 7) The formula has 1 division and 1 addition, resulting in a total of 19 multiplications, 11 additions,
Only one square root operation is required.

このようにして求められた対象面3のセンサ2
2に対する方向Pと距離lは、次段の駆動制御回
路に伝えられ、そこで予め定めた方向及び距離の
基準値P0,l0と比較され、それらを一致させる方
向及び距離に光源・センサ部2を移動させるため
の信号が出力され、その信号が駆動装置1に伝達
される。
Sensor 2 of the target surface 3 obtained in this way
The direction P and distance l with respect to 2 are transmitted to the next stage drive control circuit, where they are compared with predetermined direction and distance reference values P 0 and l 0 , and the light source/sensor unit is set in the direction and distance that match them. A signal for moving the drive device 2 is output, and the signal is transmitted to the drive device 1.

駆動装置1は、上記信号により作動して光源・
センサ部2を変位させ、対象面3との間の方向及
び距離が修正されて、対象面3に対するならい動
作が行われる。
The drive device 1 is actuated by the above signal and operates as a light source.
The sensor section 2 is displaced, the direction and distance to the target surface 3 are corrected, and a tracing operation for the target surface 3 is performed.

これをさらに詳細に説明すると、センサ22の
受光面の方向と距離の基準値P0,l0が与えられた
とき、現在の対象面の方向と距離P,lが計測さ
れているので、この情報からセンサ22の移動量
を制御することができる。この場合に、上記方向
P,P0のなす角、及び回転軸は、次の式で求ま
る。
To explain this in more detail, when the reference values P 0 , l 0 of the direction and distance of the light-receiving surface of the sensor 22 are given, the direction and distance P, l of the current target surface are measured, so this The amount of movement of the sensor 22 can be controlled from the information. In this case, the angle formed by the directions P and P 0 and the axis of rotation are determined by the following equation.

W=P0×P 従つて、センサ22を原点Oを中心として、角
度Wだけ回転させればよい。即ち、方向Wく/―W― を回転軸とし、その軸まわりに角度―W―だけ回
転すればよい。
W=P 0 ×P Therefore, it is sufficient to rotate the sensor 22 by the angle W around the origin O. That is, it is sufficient to set the direction W/-W- as a rotation axis and rotate by an angle -W- around the axis.

このようにして方向が修正されたならば、次に
P0の方向へ、Δl=l0−lだけセンサ22を平行移
動することにより、距離が修正される。以上によ
つて、センサ22が対象面3に対して基準の方向
と距離に修正され、ならい動作が行われる。
Once the direction has been corrected in this way, then
The distance is corrected by translating the sensor 22 by Δl=l 0 -l in the direction of P 0 . As described above, the sensor 22 is corrected to the reference direction and distance with respect to the target surface 3, and a tracing operation is performed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例の全体構成図、第2図
a,bはそれぞれ異なる光源センサ部の構成図、
第3図はセンサ部の受光面と対象面との幾何学的
関係を示す説明図である。 1……駆動装置、3……対象面、13……光
源、14……受光部、15,16,17,26,
27,28……スポツト光線。
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIGS. 2 a and b are configuration diagrams of different light source sensor sections,
FIG. 3 is an explanatory diagram showing the geometrical relationship between the light receiving surface of the sensor section and the target surface. DESCRIPTION OF SYMBOLS 1... Drive device, 3... Target surface, 13... Light source, 14... Light receiving part, 15, 16, 17, 26,
27, 28... Spot rays.

Claims (1)

【特許請求の範囲】 1 ならい制御の対象面に三つのスポツト光線を
1点から発散あるいは1点に集束する向きに射出
する光源と、 対象面上に形成される三つのスポツト光点の反
射光をレンズ系を介して受光し、各光点の対象面
上における座標情報を検出する受光部と、 受光部から出力される座標情報に基づいて受光
部と対象面との間の相対的な方向及び距離を算出
する演算処理回路と、 を備えたことを特徴とする非接触曲面ならいセン
サ。
[Scope of Claims] 1. A light source that emits three spot light beams onto a surface to be subjected to profiling control in a direction that diverges from one point or converges to one point, and reflected light from the three spot light points formed on the target surface. A light receiving section that receives the light through a lens system and detects the coordinate information of each light point on the target surface, and a relative direction between the light receiving section and the target surface based on the coordinate information output from the light receiving section. A non-contact curved surface tracing sensor, comprising: an arithmetic processing circuit for calculating distance and distance;
JP11479985A 1985-05-28 1985-05-28 Non-contact curved surface copying sensor Granted JPS61274852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11479985A JPS61274852A (en) 1985-05-28 1985-05-28 Non-contact curved surface copying sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11479985A JPS61274852A (en) 1985-05-28 1985-05-28 Non-contact curved surface copying sensor

Publications (2)

Publication Number Publication Date
JPS61274852A JPS61274852A (en) 1986-12-05
JPH055628B2 true JPH055628B2 (en) 1993-01-22

Family

ID=14646974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11479985A Granted JPS61274852A (en) 1985-05-28 1985-05-28 Non-contact curved surface copying sensor

Country Status (1)

Country Link
JP (1) JPS61274852A (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6215063A (en) * 1985-07-10 1987-01-23 Shin Meiwa Ind Co Ltd Distance and attitude controller of ruled line followup device
JP2542631B2 (en) * 1987-09-02 1996-10-09 ファナック株式会社 Non-contact tracing method
JP2810709B2 (en) * 1989-07-27 1998-10-15 ファナック 株式会社 Non-contact profile control device
JPH03121754A (en) * 1989-10-04 1991-05-23 Fanuc Ltd Noncontact tracing control device
JPH0482658A (en) * 1990-07-25 1992-03-16 Fanuc Ltd Non-contact profile control unit
JPH04115854A (en) * 1990-09-07 1992-04-16 Fanuc Ltd Noncontact profile control unit
JPH04241603A (en) * 1991-01-14 1992-08-28 Fanuc Ltd Non-contact digitizing method
JPH04256554A (en) * 1991-02-06 1992-09-11 Fanuc Ltd Non-contact digitizing control unit
US5543103A (en) * 1994-05-31 1996-08-06 Hogan; S. David Process of surface shaping

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5991308A (en) * 1982-11-16 1984-05-26 Kawasaki Heavy Ind Ltd How to detect a plane
JPS60191745A (en) * 1984-03-13 1985-09-30 Okuma Mach Works Ltd Three-dimensional copying

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5991308A (en) * 1982-11-16 1984-05-26 Kawasaki Heavy Ind Ltd How to detect a plane
JPS60191745A (en) * 1984-03-13 1985-09-30 Okuma Mach Works Ltd Three-dimensional copying

Also Published As

Publication number Publication date
JPS61274852A (en) 1986-12-05

Similar Documents

Publication Publication Date Title
US11408728B2 (en) Registration of three-dimensional coordinates measured on interior and exterior portions of an object
US4396945A (en) Method of sensing the position and orientation of elements in space
US10422627B2 (en) Systems and methods for projected grid-based location tracking
US10414048B2 (en) Noncontact safety sensor and method of operation
US5684531A (en) Ranging apparatus and method implementing stereo vision system
JP3556589B2 (en) Position and orientation recognition device
JP2002172575A (en) Teaching device
JPS586404A (en) Device for detecting physical position and direction of body
JP2004050356A (en) Movable body position and attitude detection device
JPH055628B2 (en)
JP6908642B2 (en) Laser processing equipment
CN112437908B (en) Depth sensing robot-eye camera using structured light
US5883803A (en) Six degree of freedom sensor
Nguyen et al. Development of a vision system integrated with industrial robots for online weld seam tracking
US5111126A (en) Stereo optical guidance system for control of industrial robots
JPH05318280A (en) Grinding attitude producing device of grinding robot
Nejat et al. High-precision task-space sensing and guidance for autonomous robot localization
CN112008717A (en) Camera and robot system
JPS5855813A (en) Optical distance measuring meter
JPS5991308A (en) How to detect a plane
CN117836588A (en) Position measuring device, position measuring system, and measuring device
JPH11102209A (en) Method and device for gathering instruction point position data on work
SU682330A1 (en) Robot supervisory control apparatus
JPH1031546A (en) Coordinate input device
JPH02157612A (en) Sensor moving method for shape measuring instrument

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term