JP3822417B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP3822417B2 JP3822417B2 JP2000160835A JP2000160835A JP3822417B2 JP 3822417 B2 JP3822417 B2 JP 3822417B2 JP 2000160835 A JP2000160835 A JP 2000160835A JP 2000160835 A JP2000160835 A JP 2000160835A JP 3822417 B2 JP3822417 B2 JP 3822417B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- monitored
- distance
- lane
- radio wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、レーダと撮像手段とを用いた車両周辺監視装置に関するもので、例えば隣車線の後方から側方にいたる範囲において追い越し接近車両あるいは併走車両等の有無を検出するものである。
【0002】
【従来の技術】
従来、この種の監視装置は、車両に搭載され車両周辺監視装置あるいは車間距離制御装置などに広く用いることが提案されている。車両周辺監視装置に搭載される監視装置は、例えば特開昭54−45040号公報にみられるように、車両のフェンダーミラーおよびフェンダー部にレーダ装置を搭載した例がある。
【0003】
【発明が解決しようとする課題】
しかし、従来のこの種の電波レーダ装置では、空間に放射されるビームの拡がり角度が比較的大きくなり、このことが監視対象車両の方向を検出する精度を低下させている。例えば、監視対象車両が隣車線にあるのかあるいは隣々車線にあるのかを正確に認識できない問題がある。
【0004】
また、比較的大型の監視対象車両に対しては、隣々車線にこの車両がある場合であっても、電磁波が反射し受信できる信号強度が比較的大きいために、近接していない距離にあるものを検出してしまう。このことは、実際には車線変更ができ、警報の報知が不要な状況にあるにもかかわらず、この監視対象車両が隣車線にあると誤った判断を行い誤警報を報知してしまうことになる。さらに比較的遠距離の監視対象車両の危険度を判定するためには、できるだけ遠距離で、かつ瞬時に危険度を判定することが望ましい。
【0005】
これらのことは、隣々車線を走行し接近してくる監視対象車両に対しては、車両の種類に関係なく確実に警報の対象から除外するために、監視対象車両が比較的遠距離にある場合から併走状態の至近距離に至るまでの比較的広い範囲において監視対象車両のある車線を認識する必要があることを示している。
【0006】
【課題を解決するための手段】
この発明に係る車両周辺監視装置は、電波を発生する電波発振手段と、この電波発振手段により発生した電波をビーム成形して監視対象車両に向けて放射する送信アンテナと、監視対象車両からの反射電波を受信する受信アンテナと、受信電波を処理して監視対象車両との距離、相対速度等を検出する電波計測手段とからなるレーダ装置を車両に搭載し、また、上記電波ビームを含む視野を有する撮像カメラと、この撮像カメラからの映像信号を処理して監視対象車両の位置、例えば監視対象車両が隣車線にあるのか隣々車線にあるのかを認識する画像処理手段とからなる撮像手段を同じく車両に搭載し、上記電波計測手段の出力と上記画像処理手段の出力とから自車両と監視対象車両との位置関係を演算手段で求めると共に、上記画像処理手段は、車両側からの信号や情報たとえばステアリング角センサやヨーレートセンサあるいはナビゲーションシステムからの道路形状情報などに応じて、サーチラインを道路の曲率に沿う複数の曲線として設定し、これらの曲線上の撮像画素に相当するデータをフレーム毎にメモリ(RAM)に記録するとともに、この映像信号のデータの強度と連続性および次のフレームの同様のデータの変化量とを計数処理して、監視対象車両が隣車線あるいは隣々車線にあるか、さらに接近あるいは離反するかどうかを判断するようにしたものである。
【0008】
また、送信アンテナおよび撮像カメラを車両のドアミラー近傍に設置したものである。
【0009】
また、演算手段は、電波計測手段が一定距離以内の監視対象車両を検出し、かつ画像処理手段が、この監視対象車両の位置を隣車線の範囲にあると判断した場合、警報を発する判定を行うようにしたものである。
【0010】
また、演算手段は、電波計測手段が一定距離以上の遠距離にある監視対象車両を検出し、かつ画像処理手段が、この監視対象車両の位置を隣車線の範囲にあると判断した場合、電波計測手段が測定した監視対象車両の距離と相対速度を参照して警報を発する判定を行うようにしたものである。
【0011】
また、画像処理手段は、直交座標上に複数の直線をサーチラインとして設定し、これらの直線上の各撮像画素毎の輝度をデジタル信号に変換後、フレーム毎にメモリ(RAM)にデータとして記録するとともに、この映像信号のデータの輝度と画素間の輝度の連続性および次のフレームにおける同様のデータとの変化量を計数処理して、監視対象車両が隣車線あるいは隣々車線にあるか、さらに接近あるいは離反するかどうかを判断するようにしたものである。
【0013】
また、送信アンテナと撮影カメラをドアミラー外郭ケース内に設置し、上記ドアミラーの反射面には、電磁波を透過させるとともに、撮像を可能にする程度の可視光を透過させるものを用いたものである。
【0014】
【発明の実施の形態】
実施の形態1.
図1は、この発明の実施の形態1に係る車両周辺監視装置の回路構成を示すブロック図であり、例えば車のドアミラー部に設置され、自車両の走行する車線(自車線)の隣車線を走行する車両等を検出するものである。図において、1は装置の各構成要素に電源を供給する電源回路、2は電磁波の発信と受信を行うRF回路、3は電磁波を放射する送信アンテナ、4は物体からの再帰反射した電磁波を受信する受信アンテナ、9は電波計測回路で、上記1乃至4および9でレーダ装置を構成している。
【0015】
一方、5は撮影レンズ、6はCCD撮像素子、7は映像信号をデジタル信号に変換する映像信号処理回路、10は画像処理回路で、上記5乃至7および10で撮像手段を構成している。
【0016】
8は演算手段である演算装置で、電波計測回路9と画像処理回路10の出力信号を受けて演算処理を行い、その演算結果をもとに警報手段であるLED11および12を駆動するか否かの判断を行う。11と12は演算装置8による危険、安全状況判定結果を運転者に伝達するLED(Light Emitting Diode、発光ダイオード)である。演算装置8は本監視装置から出力される情報の他に、図示しない車両側のもつ情報、例えば車両のステアリング角センサやヨーレートセンサあるいはナビゲーションシステムからの道路形状情報などを参照して警報の判断を行う。
【0017】
図2は本実施の形態の外観図である。図において、20はドアミラー外殻ケース、21は鏡(ミラー)、22は車体とドアミラーを固定する支持体、23はドアミラーの格納動作における回転軸である。
【0018】
図3は図2のX−X線における断面形状を示すもので、21aは可視光線の一部分を反射(透過)させる光学特性と電磁波を透過させる物理特性を兼ね備えた光学薄膜で、鏡(ミラー)21の表面に形成されている。31は電源、演算、電波計測、映像信号処理の各回路が一体構成された基板である。3は送信アンテナ、4は受信アンテナ、34は送信アンテナ3と受信アンテナ4を基板31に連結固定する支持体である。37は、鏡21の後ろに設けられたレンズ5およびCCD6を基板31に支持固定する鏡筒である。このように、アンテナ3、4、および撮像用のレンズ5、CCD6はドアミラー外殻ケース20の中に納められている。
【0019】
図4はこの発明の車両周辺監視装置を車両に搭載した場合の位置関係と検出範囲を示す図であり、40は自車両、41は隣接車両である。通常ドアミラーによる水平方向の目視可能な視野角範囲は標準的な値で25度である。一方、運転者である人間の視野角は一般的にはおよそ180度の範囲であることが知られている。これらのことから通常運転者の視界とドアミラーによる視界の双方の監視範囲に入らない領域である死角(斜線を施した範囲)が幾何的に存在する。この範囲では、自車両40から比較的至近距離にある車両41が隣車線の範囲内に存在するにもかかわらず完全に死角の領域内にあることを示している。通常、車線変更時にはドアミラーで後方を確認後、さらに目視による側方を確認するようにしているのは、上記斜線部の死角の領域内の車両の有無を確認するためである。
【0020】
この発明の車両周辺監視装置の送信アンテナ3は、少なくとも上記死角領域に電波を照射するような指向性を持たせるように設計し、死角領域を監視するために適正な放射パターンを有する。この指向性は平面パッチアレーアンテナを構成する個々のパッチアンテナの取付角度、構成数量、相互の間隔寸法、供給する電力と位相を設計パラメータとすることで放射パターンの適正、最適化を行っている。
【0021】
図5はこの発明の実施の形態における、監視対象車両の危険度を判定する演算手段の内容をフローチャートで示すものである。この演算内容を図6乃至図8を用いて以下に説明する。
【0022】
図6において、40は自車両、41は監視対象車両、42は自車両ドアミラー部に搭載された本装置の位置を示す。43は自車線と隣車線の間隔L、44は横方向の車体の間隔Lb、45はレーダが検出する理想的な検出距離Rr、46は実際にレーダが検出する距離Rd、47は車間距離Rb、48はアンテナと監視対象車両間の距離Raである。
【0023】
図6は比較的近距離に監視対象車両41が存在する場合を示すもので、このとき44の車体間隔Lbが幾何的に発生するために、レーダが実際に検出する距離Rd46を図示したものである。
【0024】
図7に示すとおり、自車両40と監視対象車両41が比較的近距離に接近した場合、図1の1乃至4および9で構成されたレーダ装置は、監視対象車両41の後輪付近の部位を検出し、理想的な検出距離Rr45の値は示さない。これは前述の幾何的な車体間隔Lb44と、送信アンテナ3から放射する電磁波のビームが、自車両40の側方から後方にかけての、隣車線の領域に広がるような、比較的広い範囲に電磁波を放射する成形ビームを形成しているために発生するもので、放射する電力の密度が比較的高い、後方に向きをもつビームの照射部位からの反射波のレベルが、監視対象車両41の最前部位からの電磁波の反射レベルより高くなるからである。
【0025】
このような検出状態であっても安全に状況を報知するために、図5のフローチャートを用いて、演算処理における電波計測回路9の動作内容を説明する。レーダ装置によって監視対象車両の有無を判断するステップ50において、実際に検出された距離データが確認されると、次に実際の検出距離Rd46と、設定距離Rsを比較するステップ51に入る。設定距離Rsとは、監視対象車両41が比較的遠距離にある場合の実際の検出距離が、ほぼ理想的な検出距離Rr45と同等の値を示すことに着目し、そこから監視対象車両41が接近する過程で、理想的な検出距離Rr45を検出できなくなり、レーダ装置が監視対象車両の側面部位までの距離Rd46を検出し始める限界の両車両の位置関係のときの距離である。実際には設定距離Rsは実験により測定し、5mと設定している。
【0026】
つまり、ステージ51において検出距離Rd46と設定距離Rsの値を比較し、検出距離Rd46の値が設定距離Rsの値より小さい場合は、常に監視対象車両が至近距離にあると判断する。
【0027】
次にステージ52に進む。ステージ52は撮像手段に係る処理であり、図1におけるレンズ5およびCCD6からなるカメラで得られた映像信号を画像処理回路10で画像処理し、検出対象車41が隣車線にあるのか隣々車線にあるのかを判断する。そして隣車線にあると判断した場合は、次のステップ53に進み警報手段を駆動し、LED11、12を動作させる。ここでの画像処理回路10による画像処理の内容については後で詳細に説明する。
【0028】
一方、検出距離Rd46の値が設定距離Rsの値より大きい場合、つまり、自車両40と監視対象車両41とが遠く離れている場合は、図8に示すとおり、レーダ装置による検出距離は理想的な検出距離Rr45と等しくなる。また、比較的遠距離に監視対象車両41が存在する場合は、理想的な検出距離Rr45と、アンテナ−監視対象車両間の距離Ra48はほぼ等しいと近似できる。
【0029】
ここではステージ51で、検出距離Rd46の値が設定距離Rsの値より大きいと判定した場合に、次のステージ54に進み、検出された距離の監視対象車両41の相対速度Vrの値をレーダ装置の電波計測回路9が読み込む。
【0030】
監視対象車両41が自車両40に対し、追い越し車線を接近中に、自車両40が追い越し車線に車線変更をした場合、車間距離はRb47となり、この距離と安全車間距離を比較することで演算装置8が危険状況の判定を行う。すなわち、ステージ55において、安全判定をおこなうアルゴリズムは、
(Ra−x)<Vr2 /2a
の数式で表される。ここで、Raは送信アンテナ3と監視対象車両41間の距離Ra48、xは送信アンテナ3と自車両後端部までの距離、Vrは自車両と監視対象車両との相対速度、aは車両の加速度(制動減速度)である。つまり監視対象車両41がフルブレーキをかけて相対速度が0になるまでの距離がVr2 /2aであるので、これを安全距離とし、これと実際の検出距離Rd46から自車両後端までの距離xを引いた距離とを比較し安全を判定する。
【0031】
ステージ55で、安全距離に対して実際の距離が短いと判定した場合は、ステージ52へと進み、前記同様画像処理回路10による画像処理が行われて、監視対象車両が隣車線にある場合に警報がONされる。
【0032】
次にステージ52における画像処理の内容について図9乃至図11により説明する。図9は自車両の右ドアミラー部に搭載されたCCDカメラで撮像された後側方の道路の画像の1フレームを示したものである。この図において、40は自車両、41aは隣車線にある監視対象車両、41b、41c、41dは隣々車線にある監視対象車両、63は自車線と隣車線の間の白線、64は隣車線と隣々車線の間の白線、65、66、67はサーチラインで、このライン上に相当するCCD画素(撮像画素)の輝度を評価することが画像処理の内容となる。
【0033】
図10において、上記サーチラインの設定について説明する。70は直線道路の映像の消失点、70aは曲線道路の場合の映像の消失点で、x座標値x(R)は道路の曲率Rの関数として変化する。曲率Rは自車両のステアリング角センサやヨーレートセンサあるいはナビゲーションシステムが出力する信号をもとに設定する入力変数である。いづれも消失点をサーチラインの起点としている。
【0034】
次にサーチラインの終点の座標は(x1、y1)と(0、y2)と(0、y3)であるが、これらはCCDの寸法と、収差のないカメラレンズの焦点距離と、カメラ光軸の向き(エレベーション、アジマスの2軸)と、この光軸の道路面からの高さと、道路が平面であることを条件に、幾何的に求められる定数として設定する。
【0035】
さらにサーチラインの中間の座標は、x座標値を関数として2次の曲線の方程式からy座標値を算出する。例えば、サーチラインをy=ax2 +bx+cの2次曲線一般式で表す場合に、下記の連立方程式からa、b、cの定数を導出している。
y0=a・x(R)2 +b・x(R)+C
yn=a・xn2 +b・xn+C
2a・xn+b=(y0−yn)/(x0−xn)
n=1.2.3…
【0036】
これはサーチラインの終点の座標における微分係数が、道路が直線の場合の勾配に等しくなるとともに、サーチラインの起点と終点の座標と交差する2次の曲線を導出するもので、実際の曲線道路の見かけの曲線に近似させるものである。これらの方法によって算出されたサーチラインのy座標はメモリに記録される。
【0037】
次に図11に示すように、カメラから送出された映像信号の1フレーム分の映像信号の中から、上記サーチライン上の位置に相当するCCD画素に相当する映像信号80の輝度をデジタル信号に変換し、メモリ81に記憶させる。
【0038】
ここでメモリ81に記憶されたサーチライン上の輝度のレベルと、別途設定したスレッショールドレベル82とを比較し、このスレッショールドレベルより高い輝度レベルが検出されるときに、設定したサーチライン上に車両等の障害物があると判断する。
【0039】
また、検出された車両等の障害物が、隣車線にあるかあるいは隣々車線にあるかの判断は、図12に示すとおり、車両等の障害物が隣々車線にのみある場合は、隣々車線の中央付近に設定したサーチライン67の線上の輝度のレベルのみに変化が生じ、車線の境界付近および隣車線の中央付近に設定したサーチライン65と66の線上の輝度は変化しない。このことに着目し、監視対象車両のある車線を認識することができる。ここでは車線を跨り走行する車両、つまりサーライン66に輝度の変化が検出された場合は、隣車線に車両があると判断する。
【0040】
一方で実際の道路面には車線を区切る白線以外に、文字や記号が白線同様の材料で敷設されている。また道路周囲の構造物も多数存在するうえに、昼間の太陽光線の影響で影が路面に発生する。これらが上記サーチライン上にある場合は、当然輝度が変化するために実際には障害物がない場合でも、誤って障害物があると判断することになり、誤検出の原因となる。
【0041】
この発明はこのような事態に遭遇した場合においては、接近物体のみを検出するように図13から図15に示すような対策を行っている。まず、図13において、上記サーチライン上の映像信号をデジタル信号に変換後、メモリ81に記憶された輝度のレベル80に対し、映像信号の次に取り込まれるフレームの輝度信号100も同様にデジタル変換した後、前記双方のフレームの輝度強度80と100の差101を求める。この結果を監視対象物体の移動量としてメモリ102に格納する。
【0042】
次に、図14において、同様に上記サーチライン上の映像信号をデジタル信号に変換後、メモリ81に記憶した輝度のレベル80に対し、この輝度レベルの変化量を評価するために、輝度レベルの変化量の微分係数110を求める。微分係数はメモリの隣のドットに格納されている輝度のレベルとの差分としており、結果はメモリ111に格納される。
【0043】
さらに、上記メモリ102に格納した検出物体の移動量と、上記メモリ111に輝度レベルの差分として格納した双方のレベルの積を求める。つまり監視対象物体の移動量が大きく、同時に背景とのコントラストが大きい場合は、より大きな移動量として、強調された計数値が与えられ、監視対象物体の接近あるいは離反がより明確に判断できる。
【0044】
また、移動の方向を判別する方法を図15乃至図18を用いて説明する。図15において、120は前回のフレームで取り込んだサーチライン上の映像信号を輝度レベルとしてデジタル信号に変換後メモリに格納したもの、さらに121は今回のフレームで取り込んだ同様の輝度レベルの状態を示している。ここで前回と今回のサーチライン上の輝度の変化が、移動量が負の値、同時に微分係数が正の値を示すときは、検出対象物体は右方向に移動していると判断する。以下同様にして図16と図17では左方向、図18は右方向に移動していると判断することができる。上記の組み合わせを図19にまとめて示す。
【0045】
【発明の効果】
以上のように、この発明の車両周辺監視装置によれば、監視対象車両の検出から、この監視対象車両の位置の判定さらに衝突の可能性を、比較的近距離から比較的遠距離の全域にわたり瞬時に行うことができる。
【0046】
また、車線変更時等の際に、ドアミラーの死角となる領域を、定常に監視することができ、車両進行方向以外の周辺への危険予知、安全確保に対する注意力、集中力を状況に応じて的確に喚起することができる。
【0047】
また、レーダ用アンテナおよび撮像カメラをドアミラー内部に装備することにより、車両のデザインに影響を与えることなく装置を組み込むことができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1に係る車両周辺監視装置の回路構成を示すブロック図である。
【図2】 この発明の実施の形態1に係る車両周辺監視装置の正面外観を示す図である。
【図3】 図2のX−X線に沿う断面図である。
【図4】 実施の形態1の動作を説明するための、ドアミラーの死角とこの発明の検出範囲を示す図である。
【図5】 実施の形態1の演算手段のフローチャートである。
【図6】 実施の形態1の動作を説明するための、自車両と監視対象車両の相対位置を示す平面図である。
【図7】 実施の形態1の動作を説明するための、自車両と監視対象車両の相対位置を示す側面図である。
【図8】 実施の形態1の動作を説明するための、自車両と監視対象車両が比較的遠距離の相対位置を示す平面図である。
【図9】 実施の形態1の撮影手段で取り込んだ映像信号を画像で表した図である。
【図10】 実施の形態1の映像信号処理手段で設定するサーチラインを示す図である。
【図11】 実施の形態1のサーチライン上の映像信号を示す図である。
【図12】 実施の形態1の車線の認識を説明する図である。
【図13】 実施の形態1の検出物体の移動量を説明する図である。
【図14】 実施の形態1の検出物体の輝度強度の変化量を説明する図である。
【図15】 実施の形態1の検出物体の移動方向を判断する内容を説明する図である。
【図16】 実施の形態1の検出物体の移動方向を判断する内容を説明する図である。
【図17】 実施の形態1の検出物体の移動方向を判断する内容を説明する図である。
【図18】 実施の形態1の検出物体の移動方向を判断する内容を説明する図である。
【図19】 実施の形態1の検出物体の移動方向を判断する条件をまとめた図である。
【符号の説明】
1 電源回路、 2 RF回路、
3 送信アンテナ、 4 受信アンテナ、
5 レンズ、 6 CCD、
7 映像信号処理回路、 8 演算装置、
9 電波計測回路、 10 画像処理回路、
11 LED、 12 LED、
20 ドアミラー外殻ケース、 21 鏡(ミラー)、
21a 光学薄膜(反射膜)、 22 ドアミラー支持体、
23 ドアミラー格納時の回転軸、 31 基盤、
34 アンテナ支持体、 37 鏡筒、
40 自車両、 41 監視対象車両、
41a 隣車線の監視対象車両、 41b 隣々斜線の監視対象車両、
63 自車線−隣車線間の白線、 64 隣車線−隣々車線間の白線、
65 隣車線のサーチライン、
66 隣車線−隣々車線間のサーチライン、
67 隣々車線のサーチライン、 80 サーチライン上の輝度、
81 メモリ、 82 スレッショールドレベル、
100 次のフレームでの輝度、
101 前後フレーム間での輝度の差信号、
102 メモリ、 110 微分係数(輝度レベルの勾配)、
111 メモリ、 120 前回フレームでの輝度レベル、
121 今回のフレームでの輝度レベル。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle periphery superintendent MiSo location using the radar and the image pickup means, for example, and detects the presence or absence of such overtaking approaching vehicle or the adjacent parallel vehicle in a range extending from the rear of the adjacent lane on the side.
[0002]
[Prior art]
Conventionally, this type of monitoring device has been proposed to be widely used in a vehicle periphery monitoring device or an inter-vehicle distance control device mounted on a vehicle. As a monitoring device mounted on a vehicle periphery monitoring device, there is an example in which a radar device is mounted on a fender mirror and a fender portion of a vehicle, as disclosed in, for example, Japanese Patent Laid-Open No. 54-45040.
[0003]
[Problems to be solved by the invention]
However, in this type of conventional radio wave radar apparatus, the divergence angle of the beam radiated into the space is relatively large, which reduces the accuracy of detecting the direction of the monitored vehicle. For example, there is a problem that it is impossible to accurately recognize whether the monitoring target vehicle is in the adjacent lane or the adjacent lane.
[0004]
In addition, for a relatively large vehicle to be monitored, even if this vehicle is adjacent to the lane, the signal intensity that can be reflected and received by the electromagnetic wave is relatively large, so that the vehicle is not close to each other. Detect things. This means that even though the lane change is actually possible and the alarm notification is unnecessary, the erroneous determination is made that the monitored vehicle is in the adjacent lane and the false alarm is notified. Become. Further, in order to determine the risk level of a relatively long-distance monitoring target vehicle, it is desirable to determine the risk level as far as possible and instantaneously.
[0005]
These are because the monitored vehicle is relatively far away in order to reliably exclude it from the alarm target regardless of the type of the monitored vehicle that travels in the adjacent lane and approaches. This indicates that it is necessary to recognize the lane where the monitoring target vehicle is located in a relatively wide range from the case to the close range of the parallel running state.
[0006]
[Means for Solving the Problems]
The vehicle periphery monitoring device according to the present invention includes a radio wave oscillating means for generating radio waves, a transmission antenna for beam-forming the radio waves generated by the radio wave oscillating means and radiating it toward the monitored vehicle, and a reflection from the monitored vehicle. A radar device comprising a receiving antenna that receives radio waves and radio wave measuring means that processes the received radio waves and detects the distance, relative speed, etc. of the monitored vehicle is mounted on the vehicle, and has a field of view including the radio beam. And an image processing unit that processes an image signal from the image capturing camera and recognizes a position of the monitoring target vehicle, for example, whether the monitoring target vehicle is in the adjacent lane or the adjacent lane. Also mounted in a vehicle, the positional relationship between the own vehicle and the monitored vehicle is obtained by the calculation means from the output of the radio wave measurement means and the output of the image processing means, and the image processing The stage sets the search line as a plurality of curves along the curvature of the road according to signals and information from the vehicle side, such as the steering angle sensor, the yaw rate sensor, or the road shape information from the navigation system. The data corresponding to the imaging pixels is recorded in a memory (RAM) for each frame, and the intensity and continuity of the video signal data and the amount of change in the same data in the next frame are counted and processed. Is in the next lane or next to the next lane, and whether it is approaching or leaving further.
[0008]
Further, the transmission antenna and the imaging camera are installed in the vicinity of the vehicle door mirror.
[0009]
In addition, the calculating means detects that the radio wave measuring means detects a monitoring target vehicle within a certain distance, and the image processing means determines to issue an alarm when the position of the monitoring target vehicle is determined to be in the adjacent lane range. It is what I do.
[0010]
In addition, when the radio wave measuring unit detects a monitored vehicle at a long distance of a certain distance or more and the image processing unit determines that the position of the monitored vehicle is in the range of the adjacent lane, A determination is made to issue an alarm with reference to the distance and relative speed of the monitored vehicle measured by the measuring means.
[0011]
Further, the image processing means sets a plurality of straight lines as search lines on the orthogonal coordinates, converts the luminance of each imaging pixel on these straight lines into a digital signal, and records it as data in a memory (RAM) for each frame. In addition, the amount of change between the luminance of the video signal data and the luminance continuity between the pixels and the same data in the next frame is counted, and whether the monitored vehicle is in the adjacent lane or the adjacent lane, in which further so as to determine whether to approach or away.
[0013]
In addition, a transmission antenna and a photographing camera are installed in a door mirror outer case, and a reflection surface of the door mirror is used that transmits electromagnetic waves and visible light that allows imaging.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a circuit configuration of a vehicle periphery monitoring apparatus according to
[0015]
On the other hand, 5 is a photographing lens, 6 is a CCD image sensor, 7 is a video signal processing circuit for converting a video signal into a digital signal, 10 is an image processing circuit, and 5 to 7 and 10 above constitute imaging means.
[0016]
An
[0017]
FIG. 2 is an external view of the present embodiment. In the figure, 20 is a door mirror outer case, 21 is a mirror, 22 is a support for fixing the vehicle body and the door mirror, and 23 is a rotating shaft in the door mirror retracting operation.
[0018]
FIG. 3 shows a cross-sectional shape taken along the line XX of FIG. 2. Reference numeral 21a denotes an optical thin film having both an optical characteristic for reflecting (transmitting) a part of visible light and a physical characteristic for transmitting an electromagnetic wave. 21 is formed on the surface. Reference numeral 31 denotes a substrate on which power supply, calculation, radio wave measurement, and video signal processing circuits are integrally configured.
[0019]
FIG. 4 is a diagram showing a positional relationship and a detection range when the vehicle periphery monitoring device of the present invention is mounted on a vehicle, where 40 is a host vehicle and 41 is an adjacent vehicle. The viewing angle range that can be viewed in the horizontal direction by a normal door mirror is a standard value of 25 degrees. On the other hand, it is known that the viewing angle of a human driver is generally in the range of about 180 degrees. For these reasons, there is geometrically a blind spot (a hatched area) that does not fall within the monitoring range of both the driver's field of view and the field of view of the door mirror. In this range, it is indicated that the vehicle 41 that is relatively close to the
[0020]
The transmitting
[0021]
FIG. 5 is a flowchart showing the contents of the calculation means for determining the degree of danger of the monitored vehicle in the embodiment of the present invention. The contents of this calculation will be described below with reference to FIGS.
[0022]
In FIG. 6,
[0023]
FIG. 6 shows a case where the monitored vehicle 41 exists at a relatively short distance, and the distance Rd46 actually detected by the radar is illustrated because the vehicle body distance Lb of 44 is geometrically generated at this time. is there.
[0024]
As shown in FIG. 7, when the
[0025]
In order to notify the situation safely even in such a detection state, the operation content of the radio
[0026]
That is, the value of the detection distance Rd46 and the set distance Rs is compared in the stage 51, and when the value of the detection distance Rd46 is smaller than the value of the set distance Rs, it is always determined that the monitored vehicle is at the close distance.
[0027]
Next, the process proceeds to stage 52.
[0028]
On the other hand, when the value of the detection distance Rd46 is larger than the value of the set distance Rs, that is, when the
[0029]
Here, in the stage 51, when it is determined that the value of the detection distance Rd46 is larger than the value of the set distance Rs, the process proceeds to the
[0030]
When the monitored vehicle 41 is approaching the overtaking lane with respect to the
(Ra-x) <Vr 2 / 2a
It is expressed by the following formula. Here, Ra is a distance Ra48 between the
[0031]
If it is determined at stage 55 that the actual distance is shorter than the safe distance, the process proceeds to stage 52, where image processing by the image processing circuit 10 is performed as described above, and the monitored vehicle is in the adjacent lane. The alarm is turned on.
[0032]
Next, the contents of the image processing in the
[0033]
The setting of the search line will be described with reference to FIG. 70 is a vanishing point of the image of the straight road, 70a is a vanishing point of the image of the curved road, and the x coordinate value x (R) changes as a function of the curvature R of the road. The curvature R is an input variable that is set based on a signal output from the steering angle sensor, yaw rate sensor, or navigation system of the host vehicle. In both cases, the vanishing point is the starting point of the search line.
[0034]
Next, the coordinates of the end point of the search line are (x1, y1), (0, y2), and (0, y3). These are the dimensions of the CCD, the focal length of the camera lens without aberration, and the camera optical axis. Is set as a geometrically determined constant on the condition that the direction of (elevation, two axes of azimuth), the height of the optical axis from the road surface, and the road is a plane.
[0035]
Further, for the coordinates in the middle of the search line, the y coordinate value is calculated from the quadratic curve equation using the x coordinate value as a function. For example, when the search line is expressed by a general formula of a quadratic curve of y = ax 2 + bx + c, constants a, b, and c are derived from the following simultaneous equations.
y0 = a · x (R) 2 + b · x (R) + C
yn = a · xn 2 + b · xn + C
2a · xn + b = (y0−yn) / (x0−xn)
n = 1.2.3 ...
[0036]
This is because the differential coefficient at the coordinates of the end point of the search line is equal to the gradient when the road is a straight line, and a quadratic curve intersecting the coordinates of the start and end points of the search line is derived. It approximates the apparent curve. The y coordinate of the search line calculated by these methods is recorded in the memory.
[0037]
Next, as shown in FIG. 11, the luminance of the
[0038]
Here, the brightness level on the search line stored in the
[0039]
In addition, as shown in FIG. 12, when the obstacle such as the detected vehicle is in the adjacent lane or in the adjacent lane, as shown in FIG. Only the brightness level on the
[0040]
On the other hand, on the actual road surface, characters and symbols are laid out with the same material as the white line, in addition to the white line separating the lanes. In addition, there are many structures around the road, and shadows appear on the road surface due to the effects of daytime sunlight. If these are on the search line, the luminance will naturally change, so that even if there are no obstacles, it will be erroneously determined that there are obstacles, causing false detection.
[0041]
In the case of encountering such a situation, the present invention takes measures as shown in FIGS. 13 to 15 so as to detect only an approaching object. First, in FIG. 13, after the video signal on the search line is converted to a digital signal, the
[0042]
Next, in FIG. 14, the video signal on the search line is similarly converted into a digital signal, and then the luminance level of the
[0043]
Further, the product of the amount of movement of the detected object stored in the
[0044]
A method for determining the direction of movement will be described with reference to FIGS. In FIG. 15,
[0045]
【The invention's effect】
As described above, according to the vehicle periphery superintendent MiSo location of the present invention, the detection of the monitored vehicle, the possibility of determining more collision position of the monitoring target vehicle, relatively long range from a relatively short distance It can be done instantaneously over the entire area.
[0046]
In addition, when changing lanes, the area that becomes the blind spot of the door mirror can be monitored constantly, predicting danger to surroundings other than the vehicle traveling direction, attention to safety, and concentration depending on the situation Can be aroused accurately.
[0047]
In addition, by installing the radar antenna and the imaging camera inside the door mirror, the apparatus can be incorporated without affecting the design of the vehicle.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a circuit configuration of a vehicle periphery monitoring device according to
FIG. 2 is a diagram showing a front appearance of the vehicle periphery monitoring apparatus according to
3 is a cross-sectional view taken along line XX of FIG.
FIG. 4 is a diagram showing a blind spot of a door mirror and a detection range of the present invention for explaining the operation of the first embodiment.
FIG. 5 is a flowchart of calculation means according to the first embodiment.
6 is a plan view showing the relative positions of the host vehicle and the monitoring target vehicle for explaining the operation of the first embodiment. FIG.
FIG. 7 is a side view showing the relative positions of the host vehicle and the monitoring target vehicle for explaining the operation of the first embodiment.
FIG. 8 is a plan view showing relative positions of the host vehicle and the monitoring target vehicle at a relatively long distance for explaining the operation of the first embodiment.
FIG. 9 is a diagram illustrating an image of a video signal captured by the photographing unit according to the first embodiment.
FIG. 10 is a diagram showing search lines set by the video signal processing means of the first embodiment.
FIG. 11 is a diagram showing a video signal on a search line according to the first embodiment.
FIG. 12 is a diagram illustrating lane recognition according to the first embodiment.
FIG. 13 is a diagram illustrating the amount of movement of the detection object according to the first embodiment.
FIG. 14 is a diagram for explaining the amount of change in luminance intensity of the detection object according to the first embodiment.
FIG. 15 is a diagram for explaining the contents for determining the moving direction of the detected object in the first embodiment;
FIG. 16 is a diagram for explaining the contents for determining the moving direction of the detected object in the first embodiment;
FIG. 17 is a diagram for explaining the contents for determining the moving direction of the detected object in the first embodiment;
FIG. 18 is a diagram for explaining the contents for determining the moving direction of the detected object according to the first embodiment;
FIG. 19 is a table summarizing conditions for determining the moving direction of the detected object in the first embodiment.
[Explanation of symbols]
1 power circuit, 2 RF circuit,
3 transmit antenna, 4 receive antenna,
5 lens, 6 CCD,
7 video signal processing circuit, 8 arithmetic unit,
9 Radio measurement circuit, 10 Image processing circuit,
11 LED, 12 LED,
20 Door mirror outer case, 21 Mirror,
21a Optical thin film (reflection film), 22 Door mirror support,
23 Rotating shaft when door mirror is retracted, 31 Base,
34 antenna support, 37 lens barrel,
40 own vehicle, 41 monitored vehicle,
41a Vehicle to be monitored in the adjacent lane, 41b Vehicle to be monitored in the adjacent diagonal line,
63 White line between own lane and adjacent lane, 64 White line between adjacent lane and adjacent lane,
65 Next lane search line,
66 Search line between next lane and next lane,
67 Next lane search line, 80 brightness on search line,
81 memory, 82 threshold level,
100 brightness in the next frame,
101 Difference signal of luminance between frames before and after,
102 memory, 110 differential coefficient (gradient of brightness level),
111 memory, 120 brightness level in previous frame,
121 Brightness level at the current frame.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000160835A JP3822417B2 (en) | 2000-05-30 | 2000-05-30 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000160835A JP3822417B2 (en) | 2000-05-30 | 2000-05-30 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001334896A JP2001334896A (en) | 2001-12-04 |
JP3822417B2 true JP3822417B2 (en) | 2006-09-20 |
Family
ID=18664964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000160835A Expired - Fee Related JP3822417B2 (en) | 2000-05-30 | 2000-05-30 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3822417B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220221575A1 (en) * | 2021-01-08 | 2022-07-14 | Ford Global Technologies, Llc | Low-Power Vehicle Sentinel Systems And Methods |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3984863B2 (en) * | 2002-05-13 | 2007-10-03 | 三菱電機株式会社 | Start notification device |
JP3849650B2 (en) | 2003-01-28 | 2006-11-22 | トヨタ自動車株式会社 | vehicle |
JP4013856B2 (en) * | 2003-07-08 | 2007-11-28 | 日産自動車株式会社 | Rear side warning device |
ES2257945B1 (en) * | 2004-10-22 | 2007-08-16 | Fico Mirrors, S.A. | OUTDOOR REAR VIEW MIRROR FOR A VEHICLE. |
JP4760445B2 (en) * | 2006-02-27 | 2011-08-31 | トヨタ自動車株式会社 | Vehicle alarm device |
JP4930256B2 (en) * | 2007-08-03 | 2012-05-16 | 日産自動車株式会社 | Adjacent vehicle detection device and adjacent vehicle detection method |
KR101429436B1 (en) * | 2012-04-04 | 2014-08-13 | 주식회사 만도 | Side mirror operation control system using Lane keeping assist and method thereof |
JP7042604B2 (en) * | 2017-12-14 | 2022-03-28 | フォルシアクラリオン・エレクトロニクス株式会社 | Driving support device and driving support method |
DE102019208098B3 (en) * | 2019-06-04 | 2020-08-13 | Continental Automotive Gmbh | Motor vehicle with an antenna network |
CN113138393B (en) * | 2020-01-17 | 2024-05-31 | 浙江菜鸟供应链管理有限公司 | Environment sensing system, control device and environment sensing data fusion device |
-
2000
- 2000-05-30 JP JP2000160835A patent/JP3822417B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220221575A1 (en) * | 2021-01-08 | 2022-07-14 | Ford Global Technologies, Llc | Low-Power Vehicle Sentinel Systems And Methods |
US11650309B2 (en) * | 2021-01-08 | 2023-05-16 | Ford Global Technologies, Llc | Low-power vehicle sentinel systems and methods |
Also Published As
Publication number | Publication date |
---|---|
JP2001334896A (en) | 2001-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11027653B2 (en) | Apparatus, system and method for preventing collision | |
US7576639B2 (en) | Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle | |
JP4019736B2 (en) | Obstacle detection device for vehicle | |
EP2889641B1 (en) | Image processing apparatus, image processing method, program and image processing system | |
JP2800531B2 (en) | Obstacle detection device for vehicles | |
US20140044311A1 (en) | Neighboring vehicle detecting apparatus | |
US7149608B2 (en) | Information providing device for vehicle | |
KR102192252B1 (en) | System and method for detecting vehicle by using sensor | |
JPH06124340A (en) | Image processor for vehicle | |
JP6414540B2 (en) | Object detection device | |
JP3822417B2 (en) | Vehicle periphery monitoring device | |
KR20200123513A (en) | Method And Apparatus for Displaying 3D Obstacle by Combining Radar And Video | |
EP3089136A1 (en) | Apparatus and method for detecting an object in a surveillance area of a vehicle | |
CN111086507B (en) | Device and method for avoiding blind spots of next lane vehicle | |
JP2020197506A (en) | Object detector for vehicles | |
JP2010162975A (en) | Vehicle control system | |
JPH05297141A (en) | On-vehicle object detecting device | |
JP3070277B2 (en) | Preceding vehicle detection device | |
JP3465384B2 (en) | Vehicle obstacle detection device and approach warning / avoidance device | |
JP4376147B2 (en) | Obstacle recognition method and obstacle recognition device | |
JP2006047033A (en) | Object recognition method and device | |
JPH05113482A (en) | Rear end collision prevention device mounted on car | |
JP2009031299A (en) | Peripheral monitoring sensor | |
KR20210101877A (en) | Apparatus and method for blind-spot collision warning of vehicle | |
JP3823944B2 (en) | Moving object notification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060622 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110630 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130630 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |