JP4484255B2 - Information processing apparatus having touch panel and information processing method - Google Patents

Information processing apparatus having touch panel and information processing method Download PDF

Info

Publication number
JP4484255B2
JP4484255B2 JP14891796A JP14891796A JP4484255B2 JP 4484255 B2 JP4484255 B2 JP 4484255B2 JP 14891796 A JP14891796 A JP 14891796A JP 14891796 A JP14891796 A JP 14891796A JP 4484255 B2 JP4484255 B2 JP 4484255B2
Authority
JP
Japan
Prior art keywords
keyboard
display
information processing
displayed
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14891796A
Other languages
Japanese (ja)
Other versions
JPH09330175A (en
Inventor
勉 畠山
仁 山寺
泰介 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP14891796A priority Critical patent/JP4484255B2/en
Publication of JPH09330175A publication Critical patent/JPH09330175A/en
Application granted granted Critical
Publication of JP4484255B2 publication Critical patent/JP4484255B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータ、ワードプロセッサなどの情報処理装置に関する。特に、小型軽量化を図りつつ、かつ、効率よく入力作業を行うための情報処理装置及びその操作方法に関する。
【0002】
【従来の技術】
従来、文字列等をコンピュータ等に入力するには、備え付けの機械的なキーボードを用いるのが一般的であった。
【0003】
しかし、最近では、携帯の便のためあるいは占有スペース低減のために装置が小型軽量化される傾向にある。このため、機械的なキーボードをもたない情報処理装置が開発されている。このような装置では、例えば、画面の上面と下面とが接触したことを感知する手段を備えた画面にペン等で触れることにより文字列等の入力を行う方法がとられている。すなわち、画面に表示された文字群の中の所定の文字をペンで触れて選択することにより文字列を入力したり、画面上にペンで文字を手書きすることにより装置にその文字を認識させて文字列を入力するものである。
【0004】
また、上記特開平6ー083512号には、机の上等における手及び指の動きをカメラによりとらえ、とらえた信号ををデジタル化することにより文字等の入力を行うことについて開示されている。
【0005】
【発明が解決しようとする課題】
しかしながら、上記ペン等による入力は、キーボードによる入力と比較して入力効率が著しく低下する。入力すべき文字を一文字毎に画面に表示された文字群の中から目で見て探し出し、そこにペン先を移動して画面に触れなければならないためである。また、画面上にペンで文字を手書きすることにより装置にその文字を認識させることは、手書き動作及び装置による文字認識に多くの時間を要する。
【0006】
また、上記特開平6ー083512号に開示されているような、画像としてとらえた情報をデジタル化する方法は、高い精度を得ることは困難であると考えられるため、文字等を効率よく入力することは困難である。なお、上記特開平6ー083512号には、画面に表示されたキーボードに触れることにより文字等を入力することについては開示されていない。
【0007】
本発明の目的は、小型薄型でありながら入力効率のよい情報処理装置及び情報処理方法を提供することにある。
【0008】
【課題を解決するための手段】
前記目的を達成するために、本発明に係るタッチパネルを備えた情報処理装置及び情報処理方法では、表示パネルの表示画面に指示手段のタッチ位置を検出するタッチパネルが設けられ、該表示画面に表示されるキーボードをタッチして操作できるようにしたタッチパネルを備えた情報処理装置及び情報処理方法において、該キーボードをタッチ操作する際の指示手段による押圧力Pを検知する検知手段と、予め設定圧力P1,P2(但し、0<P1<P2)が設けられ、該検知手段による検知圧力がP1≦P≦P2であるとき、第1の処理を行い、該押圧力PがP1≦P≦P2からP2<Pに変化したとき、第2の処理を行う制御部とを有し、前記第1の処理を、前記表示画面のタッチ位置に応じた位置にキーボードを表示する処理とし、前記第2の処理を、前記表示画面の所定の位置に入力表示される文字として、前記キーボードのうち、P2<Pの押圧力が検出された位置に対応するキーに割り当てられた文字が指示される処理とし、かつ、前記第1の処理としてのキーボードの表示は、前記P1≦P≦P2の圧力を検知したタッチ位置でそのまま前記キーボードを操作できる位置に表示する。
【0009】
【発明の実施の形態】
以下、本発明により電子メールを送信する実施例を図1〜図32を用いて詳述する。
【0010】
各図面において、同一符号は同一対象物を表す。
【0011】
図1は本実施例による情報処理装置の斜視図、図2は本実施例の情報処理装置の構成を示すブロック図、図3〜図10は本実施例の圧力分布検出を説明するための図、図11〜図16は、本実施例の操作フローを示す図、図17〜図32は本実施例の操作の各段階における表示画面例を示す図である。
【0012】
図1において、本装置200は、内部を本体装置ケース201によって一部ないし全体を覆った構造をとっている。装置のサイズは、B5からA4程度であり、容易に持ち運ぶことができる大きさである。表示装置202は、本体装置ケース201に嵌合されている。表示装置202の上に透明のタブレット装置240が載置されている。タブレット装置240が透明なので、使用者は、本装置200の外部から表示装置202の表示内容を見ることができる。24Cはタブレット装置カット部であり、表示装置202の上にタブレット装置240が載置されていることの説明のために設けたもので、実際にはカットされていない。
【0013】
表示画面に表示されたキーボード(以下、「仮想キーボード」という)430は、図1の例では、表示装置202上に表示されるカーソル415の位置に、文字列を挿入するためのものである。
【0014】
220はマウス装置であり、228はペンである。421は使用者の左手、422は右手である。
【0015】
図2は、本実施例による仮想キーボードが適用されるタブレット付情報処理装置の構成を示すブロック図である。
【0016】
図2を参照して本装置の構成を説明する。
【0017】
図2において、電源209は本装置の電子部品各部に電力を供給するためのものであり、電源ボタン210は電源209を制御するためのものである。クロック211は、本装置各部を同期して動作させるための発振装置である。制御装置224は、マウス装置220への入力信号に対して必要な処理を行い、その信号を中央処理装置231へ伝達する機能をもつ。操作者は、タブレット装置240の入力面を指やペン等で押すことによりデータを入力することができる。タブレット装置圧力分布処理モジュール241は、タブレット装置240への入力信号を処理して中央処理装置231に送ると共に、表示装置202上の仮想キーボード等の表示状態等の情報を中央処理装置231から受け取る機能をもつ。二次記憶装置234は必要なデータを、外部から中央処理装置231に供給する機能等をもつ。表示装置202は、中央処理装置231内の表示用メモリに書き込まれたデータを、装置外部に対して表示するためのものである。
【0018】
次に、図3〜図10を用いて本装置におけるキーデータの検出について詳述する。
【0019】
図3は、図2のタブレット装置圧力分布処理モジュール241を詳細に説明するためのブロック図である。242は被圧キー検出部、243は後処理モジュール、244は制御装置である。また、240はタブレット装置である。
【0020】
本装置のタブレット装置240は、透明板状の入力装置であり、格子状のグリッドが配置されている。すべての格子点にかかる圧力を同時に検知することが可能である。この圧力を検知する格子点を感圧点とよぶ。
【0021】
タブレット装置240から、全感圧点の圧力データが一定の時間間隔にて被圧キー検出部242へ入力される。
【0022】
被圧キー検出部242は一定の時間間隔にて、修飾キーや機能キーを含む各キーについて、押されているとみなせるかの情報を後処理モジュール243に渡す。それとともに、被圧キー検出部242は表示キーボード等の位置または種類を更新するかどうか、或いは更新するならば、表示装置のどの位置にどの種類のキーボードを表示するかの情報を中央処理装置231に伝える。キーボードの種類としては、QWERTYキーボードやテンキー等がある。
【0023】
後処理モジュール243は、被圧キー検出部242から受け取った各キーのデータの立ち上がり、立ち下がり等を見る。それにより、修飾キーを含む各キーごとに、新規に押されたか、継続して押されているか等を検出し、結果を中央処理装置231に伝える。修飾キーとは、コントロールキーやシフトキー等のことである。
【0024】
図4のように両方の親指を除く8本の指がタブレット装置240に置かれた場合、実際に圧力を測定するのは、タブレット装置240上の感圧点がある地点ごとであるが、タブレット装置240の単位面積当たりの感圧点の個数が十分に大きければ、感圧点と感圧点の間の圧力を補間により近似しても、実用的には支障がない。こうしてタブレット装置240を押す圧力の等圧線を考えることができる。
【0025】
同じ指による等圧線を1つの集合にまとめると、この集合は、圧力値を地形図における高さに置き換えた場合、地形図でいう山に見立てることができる。以下、同じ指による等圧線の集合を「山」と呼ぶことがある。図5の場合、山は8個である。また、圧力の補間の結果、最も圧力が高いといえる領域の中心を「頂点」と呼ぶことにする。タブレット装置の感圧点の密度は十分に大きいものとする。
【0026】
図5において、551は使用者の右手人指し指によってできる圧力分布の等圧線である。ここの説明ではタブレット装置240に向かって右向きを+x方向、上向きを+y方向とする。xy座標軸550はこの説明のためのものであり、実際の装置には無い。
【0027】
図6は指がタブレット装置240を押す圧力の等圧線の説明図であり、552は図5の等圧線551の拡大図、553は頂点である。
【0028】
図7は、各指によってタブレット装置240が「強く押されている」状態と「弱く押されている」状態について、説明する図である。554は図5の等圧線551の拡大図、555は頂点である。
【0029】
タブレット装置240を押す圧力P1、P2を定数とし、0<P1<P2とする。頂点の圧力をpとするとき、P1≦p≦P2ならば、その頂点が属するキーは「弱く押されている」と定義し、P2<p ならば、その頂点が属するキーは「強く押されている」と定義する。
【0030】
P1とP2は、仮想キーボード430などのテンプレートが表示されていない時は、山の頂点のx座標の値に応じて個別に設定できるものとする。これにより、「強く押している」の基準を、例えば右手の中指と右手の小指とで個別に設定することもできる。
【0031】
また、それらのテンプレートが表示されている時は、キー領域によって別々に設定できるものとする。ここで「キー領域」とは、QWERTY型の仮想キーボード430やテンキーといったテンプレートの各キートップの表示で区切られる領域を表す。
【0032】
以下、状態遷移図である図8〜図10を用いて、被圧キー検出部242の動作を説明する。
【0033】
画面2001は仮想キーボード430の表示されていない画面状態を表す。
【0034】
画面2002は、画面状態は画面2001と同じだが、本装置の内部の状態が画面2001の時と異なり、特定の山の個数が一定時間続くかを測っている状態であるため、画面2001の状態ノードとは異なるノードとして表現した。
【0035】
画面2003はQWERTY型の仮想キーボード430が表示されていて、キーコードが入力可能になっている画面状態を表す。
【0036】
被圧キー検出部242はタブレット装置240に同期して動作する。すなわち、一定時間ごとにタブレット装置240から被圧キー検出部242へ入力があり、その一定時間をかけて図8〜図10の状態遷移が1回起こるものとする。
【0037】
使用者は本装置において、少なくとも2種類のテンプレートを表示させることができる。一つはQWERTY型の仮想キーボード430であり、もう一つは仮想テンキーである。
【0038】
画面2001において、次の2種類のいずれかの呼び出し操作を入力すると、QWERTY型の仮想キーボード430或いは仮想テンキーが表示される。
【0039】
QWERTY型の仮想キーボード430を表示させる呼び出し操作は、次の条件(1)〜(4)を全て満たすものである。
【0040】
(1)本装置がQWERTY型の仮想キーボード430も仮想テンキーも表示していない状態であること。
【0041】
(2)8本の指で弱く押された状態が一定時間以上続くこと。ここでいう8本の指で弱く押された状態とは、山の個数が8であり、かつ、8つの山すべてについて頂点の圧力pがP1≦p≦P2を満たすことである。
【0042】
(3)山の頂点の x 座標の小さい方から4点が「ほぼ一直線上かつ、指間隔くらいの間隔」であること。ここで、「ほぼ一直線上」とは、例えばその4点の最小2乗法による直線からの距離が、その4点全てについて8mm以内ということである。また、「指間隔くらいの間隔」とは、例えば隣り合う山の頂点同士の間隔が19mmから22mmということである。
【0043】
(4)山の頂点の x 座標の大きい方から4点が「ほぼ一直線上かつ、指間隔くらいの間隔」であること。
【0044】
以下、これをQWERTY型の仮想キーボード呼び出し操作と呼ぶ。
【0045】
仮想テンキーを表示させる呼び出し操作は、次の条件(1)〜(3)を全て満たすものである。
【0046】
(1)本装置がQWERTY型の仮想キーボード430も仮想テンキーも表示していない状態であること。
【0047】
(2)3本の指で弱く押された状態が一定時間以上続くこと。ここでいう3本の指で弱く押された状態とは、山の個数が3であり、かつ、3つの山すべてについて頂点の圧力pがP1≦p≦P2を満たすこと。
【0048】
(3)3つの山の頂点が「ほぼ一直線上かつ、指間隔くらいの間隔」であること。ここで、「ほぼ一直線上」とは、例えばその3点からの最小2乗法による直線からの距離が、その3点全てについて8mm以内ということである。また、「指間隔くらいの間隔」とは、例えば隣り合う山の頂点同士の間隔が19mmから22mmということである。
【0049】
以下、これをテンキー呼び出し操作と呼ぶ。
【0050】
QWERTY型の仮想キーボード430や仮想テンキー以外のテンプレートを、それらを表示させるための呼び出し操作と対応づけて予め用意しておくことにより、それらのテンプレートを使用者が利用することも可能である。
【0051】
その場合の呼び出し操作は適切なものであればよく、必ずしも上記の例にならう必要はない。
【0052】
例えば、5本の指を一定時間以上タブレット装置240に触れていたならば、50音順配列のテンプレートを表示する、などが考えられる。
【0053】
画面2001において、QWERTY型の仮想キーボード呼び出し操作が入力されると、画面2003へ遷移してQWERTY型の仮想キーボード430を表示する。
【0054】
また、画面2001において、仮想テンキー呼び出し操作が入力されると、画面2003へ遷移してテンキーを表示する。
【0055】
以下では被圧キー検出部242の動作を、状態の遷移に合わせて段階的に説明する。
【0056】
まず、以下の説明において用いるNという変数について説明する。
【0057】
強く押している指の本数、すなわち、頂点の圧力をpとする時に、P2<pをみたす頂点の個数をNとおく。
【0058】
表示装置にQWERTY型の仮想キーボード430など、何らかのテンプレートが表示されているときに、タブレット装置をP1以上の圧力で押している指の本数を0にすると、テンプレートの表示が消去される。
【0059】
この状態が開始状態であり、図8の画面2001がこの状態に相当する。
【0060】
タブレット装置が3本或いは8本の指で弱く押され、かつ、ソフトウエアキーボード呼び出し操作の(3)と(4)を満たす入力を入力1601Aとする。
【0061】
画面2001の状態において、入力1601Aが入力されたとき、本装置は、入力1601Aにおける山の個数が一定時間続くかを調べるための計測を開始し、画面2002の状態へ遷移する。一定時間とは例えば200ミリ秒である。
【0062】
画面2001の状態において、入力1601A以外の入力がされたとき、被圧キー検出部242は後処理モジュール243に便宜上、指で強く押されているキーがないことを伝えるとともに、中央処理装置231には、テンプレートの表示を消したまま変化させないよう伝える。そして、状態は画面2001のままである。
【0063】
ここで「便宜上」といったのは、実際には強く押されているキー領域が存在する可能性があるからである。
【0064】
例えば、「4本の指を一定時間以上タブレット装置に触れている」という操作を、何らかのテンプレートを呼び出す操作と定義していない場合に、4本の指で装置をP1以上の圧力で押し、かつ、4本のうち少なくとも1本でP2以上の圧力で押していたとする。
【0065】
この場合、P2以上の圧力で押されているキーが存在するにもかかわらず、便宜上、後処理モジュール243に対しては、そうしたキーはない、と伝えるということである。
【0066】
画面2002の状態において、入力1601Aにおける山の個数のままで、かつ、すべての指はタブレット装置を弱く押している状態で一定時間続いた場合、山の個数が3だったらテンキーを、8だったらQWERTY型の仮想キーボード430を表示して、画面表示2003の状態へ遷移するとともに、P2<pとなる頂点を含む、すなわち強く押されているキー領域がないことを後処理モジュール243に伝える。
【0067】
画面2002の状態において、入力1601Aにおける山の個数のままで全ての頂点は弱く押されており、かつ、一定時間経っていない場合には、入力1601Aにおける山の個数が一定時間続くか否かを調べるための計測を継続し、画面2002の状態にとどまる。
【0068】
画面2002の状態において、一定時間経たないうちに、タブレット装置を弱く押している山の個数が、入力1601Aにおける山の個数と異なった場合、入力1601Aにおける山の個数が一定時間続くかを調べるための計測を破棄し、画面2001の状態に遷移する。
【0069】
画面2003において、次の3種類がある。
【0070】
(1)山の個数が1以上で、かつ、N=0の入力の時、被圧キー検出部242は、指で強く押されているキーがないことを後処理モジュール243に伝えるとともに、中央処理装置231には、テンプレートの表示を変化させないよう伝える。そして、状態は画面2003のままである。
【0071】
(2)山の個数が1以上で、かつ、N>0の入力の時、被圧キー検出部242は、指で強く押されているキー領域を全て後処理モジュール243に伝えるとともに、中央処理装置231には、テンプレートの表示を変化させないよう伝える。そして、状態は画面2003のままである。
【0072】
(3)山の個数が0の時、すなわち、タブレット装置240をどの指もP1以上の圧力で押していない入力の場合は、被圧キー検出部242は、指で強く押されているキーがないことを後処理モジュール243に伝えるとともに、中央処理装置231には、テンプレートの表示をしないよう伝える。そして、状態は画面2001へ遷移する。
【0073】
次に図11〜図32を用いて本発明に基づいた情報処理装置の操作例につき詳述する。
【0074】
図11〜図16は、本実施例による情報処理装置の操作フローを示す図である。
【0075】
図11〜図16において、「A:」に続く部分は使用者の意図や、使用者による装置への入力を、「B:」に続く部分は使用者の入力等に対する装置の反応を表すものとする。
【0076】
ステップ1000〜1010について説明する。
【0077】
使用者は図2に示した電源ボタン210を押して、電源209の電力を本装置の電子部品各部に供給可能な状態にするとともに本装置を起動する。すると、本装置は表示装置に図17に示すような初期画面400を表示する。
【0078】
電子メールを読む例を説明する。使用者はマウス装置220或いは同様のポインティング装置(以下、マウス装置220等と呼ぶ)を用いてマウスポインタ225の操作あるいは同等の操作を行い、電子メール起動アイコン401を選択かつ実行する。
【0079】
ステップ1011について説明する。本装置は、電子メールソフトウエアを起動し、図18に示すような利用者名・パスワード入力ウインドウ410を表示装置に表示し、使用者に対して、カーソル415の位置に利用者名等の入力を促す。
【0080】
ステップ1020について説明する。使用者は利用者名を表す文字列を入力したい。使用者は、図19に示すように、現在一般に使われている通常のキーボードに左右の手を置くときのように、使用者の左手421と使用者の右手422の10本の指のうち、親指を除く8本の指を、左右の人差し指同士を十分に離した状態で置く。ここで「十分に離す」とは、後からQWERTY型の仮想キーボードを表示したときに、QWERTY型の仮想キーボードの左手用の部分と、右手用の部分が重なり合わないだけの距離を離しながら、という意味である。QWERTY型の仮想キーボードについては、後述する。
【0081】
ステップ1021について説明する。本装置はタブレット装置240に指が8本置かれたと判断し、図20に示すように、タブレット装置上の右手421と左手422がおかれた位置がそのままホームポジションとなる位置に、その使用者の指に合ったキーピッチのQWERTY型の仮想キーボード430を表示する。
【0082】
ホームポジションとは、QWERTY型のキーボードの場合、左手の人指し指がFキーの位置、右手の人指し指がJキーの位置となる指の置き方のことである。
【0083】
本実施例によれば、使用者は表示装置上に手を置いた位置をそのままホームポジションとすることができる。このため、手指の位置をホームポジションの位置に合わせる調整のために、視線をQWERTY型の仮想キーボード430の表示部分へ移動し、手指を動かす必要がない。すなわち、使用者は、文字列の挿入地点から視線を離さずにQWERTY型の仮想キーボード430を使うことが可能である。よって、使用者の視覚的な疲労を減少でき、さらに、手指の位置を調整したり、視点を移動したりする分の操作時間を短縮することができる。
【0084】
また、キーピッチとは、横方向に隣り合って並んだ任意の2つのキーの中心間の距離のことである。
【0085】
太さをはじめとして、指の形態は個人により異なるので、キーボードのキーピッチは可変であることが望ましい。
【0086】
従来の仮想キーボードの場合、(1)使用者ごとにあらかじめ適切なキーピッチを登録しておく、或いは、(2)制御パネル等を用いて、何らかの操作を使用者が明示的に行い調整する等の操作が必要であった。
【0087】
しかし、本装置は、使用者にあったキーピッチを、タブレット装置240へ接触する指同士の距離をもとに決定するので、キーピッチの指定が、直接的かつ自動的に行える。
【0088】
さらに、指の太さは指毎に異なるので、自然に指を開いた状態での隣り合う指同士の距離は、指毎に異なると考えられる。本装置は、キーピッチを隣り合う各指の間隔に自動的に合わせた仮想キーボード430を提供することも可能である。これにより、手指の無理な動きを軽減し、身体的負担を低減することができる。
【0089】
図20の状態におけるQWERTY型の仮想キーボード430は、もともと表示されていた部分がQWERTY型の仮想キーボード430の表示によって、できるだけ隠れないように半透明状態で表示してもよいし、不透明状態で表示してもよい。半透明状態で表示すれば、もともと表示されていた部分もユーザが認識し、情報を利用できるという利点がある。
【0090】
QWERTY型の仮想キーボード430の表示における半透明状態とは、もともと表示されていた部分がQWERTY型の仮想キーボード430の表示によって、できるだけ隠れないようにするためのものであり、もともと表示装置に表示されていた部分の上からQWERTY型の仮想キーボード430の表示が透けて互いに重なり合って見えるようにするものである。もともと表示されていた部分のうち、隠れる部分が少なくなるように、表示装置の表示ドットのうち、使用者がキーの判別をするに十分なドットの値だけを変更する。こうすることにより、もともと表示されていた部分をもユーザがある程度認識し、情報を利用することができる。
【0091】
ステップ1022〜1056について説明する。使用者は、表示装置に表示されたQWERTY型の仮想キーボード430を利用して指でタイプすることにより、正しい利用者名と正しいパスワードを入力する。
【0092】
すると、システムは、図21に示すような、メール題名一覧の画面400Eを表示する。452は題名が「温泉旅行のお誘い」の電子メールを表す。453は題名が「先日はありがとう」の電子メールを表す長方形領域である。454は題名が「xxxを見てきた感想」の電子メールを表す長方形領域である。455は題名が「ごちそうさま」の電子メールを表す長方形領域である。456は題名が「近況」の電子メールを表す長方形領域である。452、453、454、455、456は
使用者に対して現在届いている電子メールについて、送信者と題名を表示している。
【0093】
ステップ1060について説明する。使用者はマウス装置220等を用いて、マウスカーソル225等を必要に応じて操作し、長方形領域452を選択かつ実行する。
【0094】
ステップ1061について説明する。本装置は、表示装置に「温泉旅行のお誘い」の内容を表示する。この例において、本装置は表示装置上部に本文、下部にパンフレットを表示するものとする。
【0095】
図22は「温泉旅行のお誘い」とその添付書類であるパンフレットの表示の様子を説明するものである。610は使用者が受信した「温泉旅行のお誘い」というメールの本文を表示するウインドウである。620は受信メール添付パンフレット内容のウインドウである。この例では温泉のパンフレットである。また、601はメニューバーであり、602は「メッセージ」に関連するサブメニューを表示させるためのメニューアイテムである。
【0096】
ステップ1070〜1071について説明する。使用者は画面上のウインドウ610と受信メール添付パンフレット内容のウインドウ620の内容を読み、返事を書くこととする。
【0097】
図23は返事作成を開始するメニューアイテムを使用者が選択かつ実行時の画面の様子を説明するものである。603は、「メッセージ」に関連するサブメニューである。603Aはこのサブメニューの一つであり、返事作成コマンドを選択し実行するためのメニューアイテムである。603Bはこのサブメニューの一つであり、転送コマンドを選択し実行するためのメニューアイテムである。603Cはこのサブメニューの一つであり、送信コマンドを選択し実行するためのメニューアイテムである。
【0098】
図24は使用者が返事を書くためのウインドウを表示した時の画面の様子について説明するものである。使用者は、図23の画面で、返事を作成するメニューアイテム603Aをマウス装置220等を用いて選ぶ。すると本装置は、使用者が返事を書くためのウインドウ640を表示装置に表示する。他は図22の説明に同じである。
【0099】
ステップ1100から1103について説明する。図25において、431はリターンキー領域、432はスペースキー領域である。まず、使用者はタブレット装置240に、右手421と左手422の親指を除く8本指で触れる。すると本装置は表示装置にQWERTY型の仮想キーボード430を使用者の各指のホームポジションに合うように表示する。
【0100】
使用者は、必要ならばQWERTY型の仮想キーボード430内にあるキーを用いて日本語入力モードに切換える。ここでは、通常に知られている、ローマ字かな変換と、かな漢字変換を用いるものとする。そして、”hiyouhadonokuraikakarisoudesuka?”とタイプすることで、”ひようはどのくらいかかりそうですか?”という変換字種を入力する。そして使用者は、通常のかな漢字変換操作と同様に、変換のためのキー領域であるスペースキー領域432を指でタイプすることで変換を行い、確定する。すると、本装置は”費用はどのくらいかかりそうですか?”という文字列を、カーソル415の位置に挿入して表示装置に表示する。本実施例のかな漢字変換システムは、スペースキーが変換キーを兼用しているものとする。
【0101】
図26は、”費用はどのくらいかかりそうですか?”という文字列の入力に続いて使用者が改行コードと”パンフレット”という文字列を入力した時の画面の状態を説明するものである。改行コードはリターンキー領域431を押すことにより入力できる。651は入力により挿入された文字列であり、他は図25の説明に同じである。
【0102】
ステップ1104〜ステップ1105について説明する。使用者が右手421と、左手422をタブレット装置240から離すことにより、図27に示すように、QWERTY型の仮想キーボード430が表示装置に表示されなくなる。
【0103】
一般に、仮想キーボードは入力するときにだけ、表示されていれば十分である。本装置でいえば使用者がタブレット装置240に指を触れている状態でだけ表示されていれば十分である。それ以外の時に表示されると、仮想キーボードが表示されている分、表示装置は表示面積が実質的に減少する。
【0104】
本装置は、入力の完了に伴い、両手の全ての指を、タブレット装置240から離すことで自動的にQWERTY型の仮想キーボード430の表示を消す操作を行うことができる。そのため、QWERTY型の仮想キーボード430の表示による表示面積の実質的減少を、少ない操作手順で防止することができる。
【0105】
ステップ1110〜1111について説明する。使用者が、再び手をタブレット装置240上に戻すと、図26の状態、すなわちQWERTY型の仮想キーボード430が表示され、文字入力が可能な状態に戻る。使用者は、文章入力操作を続けて返事を完成させた後、マウス装置220等を用いて、図23に示した送信を表すメニューアイテム603Cを選択かつ実行し、メールを送信する。
【0106】
以降の操作については説明を省略する。
【0107】
以下、使用者が文字入力を行おうとしているウインドウが、表示画面上におかれた使用者の指と重なって見えにくくなる位置に表示される場合の、本装置の挙動について説明する。
【0108】
例えば、上記ステップ1071における画面の様子が、図24のようではなく、図28のように、返事作成のウインドウ640が使用者の指と重なりそうな画面下部に表示されている場合である。文字列等の入力は入力経過を見ながら行うことが望ましいが、このような場合、特別な対応を何も行わなければ、入力経過を見ながら入力することが困難である。
【0109】
図15に示すステップ1312〜1313について説明する。使用者は文章を入力するため、タブレット装置240に8本指で触れる。すると本装置は表示装置の表示を上方へスクロールさせつつ、QWERTY型の仮想キーボード430を使用者の指の位置がホームポジションとなるように表示する。
【0110】
図29、図30はこのスクロールの様子を説明するための図である。図29は使用者の両手441、442がまだタブレット装置240に触れていない時の様子である。図30はタブレット装置240に触れた両手441、442によってウインドウ640が指で隠れないように、QWERTY型の仮想キーボード430が表示される直前に、表示装置の画面が自動的に上方へスクロールした状態である。
【0111】
使用者は、この自動スクロール機能を行うようにも行わないようにも設定可能である。
【0112】
ステップ1320〜ステップ1333について説明する。使用者は図31のように”費用はどのくらいかかりそうですか?(改行文字)パンフレット”と入力したところで、受信メール添付パンフレット内容のウインドウ620を見たくなったとする。しかし、この状態では、ステップ1321による表示装置の上方へのスクロールで、受信メール添付パンフレット内容のウインドウ620が可視部分から外れている。ここで、図32に示すように、全指をタブレット装置240から一時的に離すと、上方へのスクロールが解除され、受信メール添付パンフレット内容のウインドウ620が表示装置に表示される。
【0113】
使用者は受信メール添付パンフレット内容のウインドウ620を参照した後、再度8本の指をタブレット装置240に置くことにより、入力を継続する。文章が完成したら、送信を表すメニューアイテムを選択かつ実行し、送信する。
【0114】
以下、電源ボタン210を切るまでの操作の説明は省略する。
【0115】
以上に詳述したように、本実施例の情報処理装置は、機械的なキーボードを設ける必要がないので、装置全体の軽量化と薄型化をはかることが可能である。
【0116】
また、キーボード等のテンプレートを表示装置に表示し、タブレット装置に指などを接触させることで文字列等の入力ができるので、あたかも機械的キーボードが存在するような操作ができ、機械的キーボードを設けない装置における入力効率の低下を防止することができる。
【0117】
また、仮想キーボード方式なので、多様なテンプレートを使用者に提供することができる。ここでいう多様なテンプレートとは、例えば、表示位置、キーピッチ、キー領域の形状等の多様さを含むとともに、多国語対応や機能を含めたキーのラベルづけや配列の多様さ等を含む。具体的には、文字入力のキーボードの場合、通常に知られているQWERTYタイプの配列の他にDVORAK配列、また、日本語ならば五十音順等の配列を表示しての入力を使用者に提供することができる。数値入力用にはテンキー配列、音楽向けにはピアノのキーボード等の配列を表示しての入力を使用者に提供することができる。また、アプリケーションソフトウエアごとに、機能キーのラベル付けを変化させながら表示させることができる。
【0118】
【発明の効果】
以上に述べたように、本発明によれば、情報処理装置の表示画面の押圧によるタッチ操作を効率よく行うことができるので、装置の薄型軽量化を実現し、かつ、効率的に操作・入力することができる。
【図面の簡単な説明】
【図1】本発明の一実施例を示す情報処理装置の斜視図である。
【図2】本発明の一実施例の情報処理装置の構成を示すブロック図である。
【図3】本発明の一実施例の情報処理装置の構成を示すブロック図を更に詳細に示す図である。
【図4】本発明の一実施例の圧力分布検出を説明するための図である。
【図5】本発明の一実施例の圧力分布検出を説明するための図である。
【図6】本発明の一実施例の圧力分布検出を説明するための図である。
【図7】本発明の一実施例の圧力分布検出を説明するための図である。
【図8】本発明の一実施例の圧力分布検出を説明するための状態遷移図である。
【図9】本発明の一実施例の圧力分布検出を説明するための状態遷移図である。
【図10】本発明の一実施例の圧力分布検出を説明するための状態遷移図である。
【図11】本発明の一実施例の操作フローを示す図である。
【図12】本発明の一実施例の操作フローを示す図である。
【図13】本発明の一実施例の操作フローを示す図である。
【図14】本発明の一実施例の操作フローを示す図である。
【図15】本発明の一実施例の操作フローを示す図である。
【図16】本発明の一実施例の操作フローを示す図である。
【図17】本発明の一実施例における表示画面例を示す図である。
【図18】本発明の一実施例における表示画面例を示す図である。
【図19】本発明の一実施例における表示画面例を示す図である。
【図20】本発明の一実施例における表示画面例を示す図である。
【図21】本発明の一実施例における表示画面例を示す図である。
【図22】本発明の一実施例における表示画面例を示す図である。
【図23】本発明の一実施例における表示画面例を示す図である。
【図24】本発明の一実施例における表示画面例を示す図である。
【図25】本発明の一実施例における表示画面例を示す図である。
【図26】本発明の一実施例における表示画面例を示す図である。
【図27】本発明の一実施例における表示画面例を示す図である。
【図28】本発明の一実施例における表示画面例を示す図である。
【図29】本発明の一実施例における表示画面例を示す図である。
【図30】本発明の一実施例における表示画面例を示す図である。
【図31】本発明の一実施例における表示画面例を示す図である。
【図32】本発明の一実施例における表示画面例を示す図である。
【符号の説明】
200…本装置、201…本体装置ケース、202…表示装置、209…電源、210…電源ボタン、211…クロック、220…マウス装置、224…マウス装置の制御装置、225…マウスポインタ、228…ペン、231…中央処理装置、234…二次記憶装置、240…タブレット装置、24C…タブレット装置カット部、241…タブレット装置圧力分布処理モジュール、242…被圧キー検出部、243…後処理モジュール、244…制御装置、400…初期画面、400E…受信メール題名一覧画面、401…電子メール起動アイコン、410…利用者名・パスワード入力ウインドウ、415…カーソル、421…使用者の左手、422…使用者の右手、430…QWERTY型の仮想キーボード、431…リターンキー領域、432…スペースキー領域、452…題名が「温泉旅行のお誘い」の電子メールを表す長方形領域、453…題名が「先日はありがとう」の電子メールを表す長方形領域、454…題名が「xxxを見てきた感想」の電子メールを表す長方形領域、455…題名が「ごちそうさま」の電子メールを表す長方形領域、456…題名が「近況」の電子メールを表す長方形領域、550…xy座標軸、551…使用者の右手人指し指によってできる圧力分布の等圧線、552…等圧線551の拡大図(1)、553…頂点(1)、554…等圧線551の拡大図(2)、555…頂点(2)、556…P1を表す等圧線、557…P2を表す等圧線、601…メニューバー、602…「メッセージ」に関するサブメニューを表示させるメニューアイテム、610…受信メール本文のウインドウ、620…受信メール添付パンフレット内容のウインドウ、225…マウスポインタ、603…「メッセージ」に関連するサブメニュー、603A…返事作成を表すメニューアイテム、603B…転送を表すメニューアイテム、603C…送信を表すメニューアイテム、640…使用者が返事を書くためのウインドウ、651…挿入された文字列、1000…操作ステップ、1001…操作ステップ、1010…操作ステップ、1011…操作ステップ、1020…操作ステップ、1021…操作ステップ、1022…操作ステップ、1051…操作ステップ、1056…操作ステップ、1060…操作ステップ、1061…操作ステップ、1070…操作ステップ、1071…操作ステップ、1100…操作ステップ、1101…操作ステップ、1102…操作ステップ、1103…操作ステップ、1104…操作ステップ、1105…操作ステップ、1110…操作ステップ、1111…操作ステップ、1312…操作ステップ、1313…操作ステップ、1320…操作ステップ、1321…操作ステップ、1322…操作ステップ、1323…操作ステップ、1330…操作ステップ、1331…操作ステップ、1332…操作ステップ、1333…操作ステップ、1601A…入力、2001…画面、2002…画面、2003…画面。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus such as a computer or a word processor. In particular, the present invention relates to an information processing apparatus and an operation method thereof for performing an input operation efficiently while reducing the size and weight.
[0002]
[Prior art]
Conventionally, in order to input a character string or the like to a computer or the like, it is common to use a built-in mechanical keyboard.
[0003]
However, recently, there is a tendency for devices to be reduced in size and weight for portable convenience or to reduce occupied space. For this reason, information processing apparatuses having no mechanical keyboard have been developed. In such an apparatus, for example, a method of inputting a character string or the like by touching a screen provided with means for sensing that the upper and lower surfaces of the screen are in contact with a pen or the like is employed. That is, a character string can be input by touching and selecting a predetermined character in the character group displayed on the screen with a pen, or the device can recognize the character by handwriting the character on the screen with a pen. Inputs a character string.
[0004]
Japanese Laid-Open Patent Publication No. 6-083512 discloses that characters and the like are input by capturing the movement of hands and fingers on a desk or the like with a camera and digitizing the captured signals.
[0005]
[Problems to be solved by the invention]
However, the input efficiency using the pen or the like is significantly lower than the input using the keyboard. This is because the character to be input must be visually searched from the character group displayed on the screen for each character, and the pen tip must be moved to touch the screen. In addition, when a character is handwritten with a pen on the screen to cause the device to recognize the character, a long time is required for the handwriting operation and the character recognition by the device.
[0006]
In addition, the method of digitizing information captured as an image as disclosed in the above Japanese Patent Laid-Open No. 6-083512 is considered difficult to obtain high accuracy. It is difficult. Note that Japanese Patent Application Laid-Open No. 6-083512 does not disclose inputting characters or the like by touching a keyboard displayed on the screen.
[0007]
An object of the present invention is to provide an information processing apparatus that is small and thin and has high input efficiency, and Information processing It is to provide a method.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, in the information processing apparatus and information processing method provided with the touch panel according to the present invention, a touch panel for detecting the touch position of the instruction unit is provided on the display screen of the display panel, and is displayed on the display screen. In an information processing apparatus and an information processing method provided with a touch panel that can be operated by touching a keyboard, detection means for detecting a pressing force P by an instruction means when touching the keyboard, preset pressures P1, P2 (where 0 <P1 <P2) is provided, and when the detected pressure by the detecting means is P1 ≦ P ≦ P2, the first process is performed, and the pressing force P is changed from P1 ≦ P ≦ P2 to P2 < A control unit that performs a second process when changing to P, and the first process is a process of displaying a keyboard at a position corresponding to a touch position on the display screen. In the second process, as a character input and displayed at a predetermined position on the display screen, a character assigned to a key corresponding to a position where a pressing force of P2 <P is detected in the keyboard is designated. The display of the keyboard as the process and the first process is displayed at a position where the keyboard can be operated as it is at the touch position where the pressure P1 ≦ P ≦ P2 is detected.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment for transmitting an e-mail according to the present invention will be described in detail with reference to FIGS.
[0010]
In the drawings, the same reference numeral represents the same object.
[0011]
FIG. 1 is a perspective view of an information processing apparatus according to the present embodiment, FIG. 2 is a block diagram illustrating a configuration of the information processing apparatus of the present embodiment, and FIGS. 3 to 10 are diagrams for explaining pressure distribution detection according to the present embodiment. FIGS. 11 to 16 are diagrams showing the operation flow of the present embodiment, and FIGS. 17 to 32 are diagrams showing examples of display screens at each stage of the operation of the present embodiment.
[0012]
In FIG. 1, the apparatus 200 has a structure in which the inside is partially or entirely covered by a main body apparatus case 201. The size of the device is about B5 to A4, and can be easily carried. The display device 202 is fitted into the main body device case 201. A transparent tablet device 240 is placed on the display device 202. Since the tablet device 240 is transparent, the user can view the display content of the display device 202 from the outside of the device 200. Reference numeral 24 </ b> C denotes a tablet device cutting unit which is provided for explaining that the tablet device 240 is placed on the display device 202, and is not actually cut.
[0013]
A keyboard (hereinafter referred to as “virtual keyboard”) 430 displayed on the display screen is for inserting a character string at the position of a cursor 415 displayed on the display device 202 in the example of FIG.
[0014]
220 is a mouse device, and 228 is a pen. 421 is the user's left hand, and 422 is the right hand.
[0015]
FIG. 2 is a block diagram illustrating the configuration of the information processing apparatus with a tablet to which the virtual keyboard according to the present embodiment is applied.
[0016]
The configuration of this apparatus will be described with reference to FIG.
[0017]
In FIG. 2, a power source 209 is for supplying power to each part of the electronic component of the apparatus, and a power button 210 is for controlling the power source 209. The clock 211 is an oscillating device for operating each part of the apparatus in synchronization. The control device 224 has a function of performing necessary processing on an input signal to the mouse device 220 and transmitting the signal to the central processing device 231. The operator can input data by pressing the input surface of the tablet device 240 with a finger or a pen. The tablet device pressure distribution processing module 241 functions to process an input signal to the tablet device 240 and send the processed signal to the central processing device 231 and receive information such as a display state of a virtual keyboard on the display device 202 from the central processing device 231. It has. The secondary storage device 234 has a function of supplying necessary data to the central processing unit 231 from the outside. The display device 202 is for displaying the data written in the display memory in the central processing unit 231 outside the device.
[0018]
Next, detection of key data in this apparatus will be described in detail with reference to FIGS.
[0019]
FIG. 3 is a block diagram for explaining the tablet device pressure distribution processing module 241 of FIG. 2 in detail. Reference numeral 242 denotes a pressed key detection unit, 243 denotes a post-processing module, and 244 denotes a control device. Reference numeral 240 denotes a tablet device.
[0020]
The tablet device 240 of this device is a transparent plate-like input device, on which a grid-like grid is arranged. It is possible to simultaneously detect the pressure applied to all lattice points. A lattice point for detecting this pressure is called a pressure-sensitive point.
[0021]
From the tablet device 240, pressure data of all pressure sensitive points is input to the pressed key detection unit 242 at regular time intervals.
[0022]
The pressed key detection unit 242 passes to the post-processing module 243 information regarding whether or not each key including the modifier key and the function key can be pressed at regular time intervals. At the same time, the pressed key detection unit 242 determines whether or not to update the position or type of the display keyboard or the like, and if so, information on which type of keyboard is displayed at which position of the display device. To tell. Examples of the keyboard include a QWERTY keyboard and a numeric keypad.
[0023]
The post-processing module 243 looks at the rise and fall of each key data received from the pressed key detection unit 242. Thereby, for each key including the modifier key, it is detected whether the key is newly pressed or continuously pressed, and the result is transmitted to the central processing unit 231. A modifier key is a control key, a shift key, or the like.
[0024]
When eight fingers excluding both thumbs are placed on the tablet device 240 as shown in FIG. 4, the pressure is actually measured at each point where there is a pressure-sensitive point on the tablet device 240. If the number of pressure sensitive points per unit area of the device 240 is sufficiently large, there is no practical problem even if the pressure between the pressure sensitive points is approximated by interpolation. Thus, an isobaric line of pressure for pressing the tablet device 240 can be considered.
[0025]
When isobars with the same finger are combined into one set, this set can be regarded as a mountain in the topographic map when the pressure value is replaced with the height in the topographic map. Hereinafter, a set of isobaric lines with the same finger may be referred to as a “mountain”. In the case of FIG. 5, there are 8 peaks. In addition, the center of the region where the pressure is the highest as a result of pressure interpolation is referred to as “vertex”. The density of pressure sensitive points of the tablet device shall be sufficiently large.
[0026]
In FIG. 5, reference numeral 551 denotes an isobar of pressure distribution generated by the user's right index finger. In the description here, the right direction toward the tablet device 240 is the + x direction, and the upward direction is the + y direction. The xy coordinate axes 550 are for this explanation and are not present in the actual device.
[0027]
FIG. 6 is an explanatory diagram of isobaric lines of pressure with which the finger presses the tablet device 240, 552 is an enlarged view of the isobaric line 551 in FIG. 5, and 553 is a vertex.
[0028]
FIG. 7 is a diagram illustrating a state in which the tablet device 240 is “strongly pressed” and a “weakly pressed” state by each finger. 554 is an enlarged view of the isobaric line 551 in FIG. 5, and 555 is a vertex.
[0029]
The pressures P1 and P2 that press the tablet device 240 are constants, and 0 <P1 <P2. When the pressure at the vertex is p, if P1 ≦ p ≦ P2, the key to which the vertex belongs is defined as “weakly pressed”, and if P2 <p, the key to which the vertex belongs is “strongly pressed”. Defined.
[0030]
P1 and P2 can be set individually according to the value of the x coordinate of the peak of the mountain when a template such as the virtual keyboard 430 is not displayed. Thereby, the criterion of “strongly pressing” can be set individually for the middle finger of the right hand and the little finger of the right hand, for example.
[0031]
When these templates are displayed, they can be set separately depending on the key area. Here, the “key area” represents an area delimited by the display of each key top of a template such as a QWERTY type virtual keyboard 430 or a numeric keypad.
[0032]
Hereinafter, the operation of the pressed key detection unit 242 will be described with reference to FIGS. 8 to 10 which are state transition diagrams.
[0033]
A screen 2001 represents a screen state in which the virtual keyboard 430 is not displayed.
[0034]
The screen 2002 has the same screen state as the screen 2001, but is different from the screen 2001 in that the state of the screen 2001 is a state in which it is measured whether the number of specific mountains continues for a certain period of time. It is expressed as a node different from the node.
[0035]
A screen 2003 represents a screen state in which a QWERTY type virtual keyboard 430 is displayed and a key code can be input.
[0036]
The pressed key detection unit 242 operates in synchronization with the tablet device 240. That is, it is assumed that there is an input from the tablet device 240 to the pressed key detection unit 242 at regular time intervals, and the state transition of FIGS.
[0037]
The user can display at least two types of templates on the apparatus. One is a QWERTY type virtual keyboard 430, and the other is a virtual numeric keypad.
[0038]
When one of the following two types of calling operations is input on the screen 2001, a QWERTY type virtual keyboard 430 or a virtual numeric keypad is displayed.
[0039]
The calling operation for displaying the QWERTY type virtual keyboard 430 satisfies all the following conditions (1) to (4).
[0040]
(1) The apparatus is in a state where neither the QWERTY type virtual keyboard 430 nor the virtual numeric keypad is displayed.
[0041]
(2) The state where the finger is weakly pressed with eight fingers continues for a certain time or more. Here, the state of being weakly pressed by eight fingers means that the number of peaks is 8, and the apex pressure p of all the eight peaks satisfies P1 ≦ p ≦ P2.
[0042]
(3) The four points from the smallest x coordinate of the peak of the mountain are “almost on a straight line and about the interval between fingers”. Here, “substantially on a straight line” means, for example, that the distance from the straight line of the four points by the least square method is within 8 mm for all the four points. Further, the “interval between finger intervals” means that the interval between the vertices of adjacent mountains is 19 mm to 22 mm, for example.
[0043]
(4) The four points from the largest x coordinate of the peak of the mountain shall be “almost on a straight line and at intervals of the finger interval”.
[0044]
Hereinafter, this is called a QWERTY type virtual keyboard calling operation.
[0045]
The calling operation for displaying the virtual numeric keypad satisfies all the following conditions (1) to (3).
[0046]
(1) The apparatus is in a state where neither the QWERTY type virtual keyboard 430 nor the virtual numeric keypad is displayed.
[0047]
(2) The state of being pressed weakly with three fingers continues for a certain period of time. The state of being weakly pressed by three fingers here means that the number of peaks is 3, and the apex pressure p satisfies P1 ≦ p ≦ P2 for all three peaks.
[0048]
(3) The apexes of the three peaks are “almost on a straight line and about the interval between fingers”. Here, “substantially on a straight line” means, for example, that the distance from the straight line from the three points by the least square method is within 8 mm for all the three points. Further, the “interval between finger intervals” means that the interval between the vertices of adjacent mountains is 19 mm to 22 mm, for example.
[0049]
Hereinafter, this is called a numeric keypad call operation.
[0050]
By preparing templates other than the QWERTY type virtual keyboard 430 and the virtual numeric keypad in advance in association with the call operation for displaying them, the user can also use these templates.
[0051]
The calling operation in that case may be any appropriate one, and does not necessarily follow the above example.
[0052]
For example, if five fingers are touching the tablet device 240 for a certain period of time, a template with a 50-sound order arrangement may be displayed.
[0053]
When a QWERTY type virtual keyboard calling operation is input on the screen 2001, the screen transitions to the screen 2003 to display the QWERTY type virtual keyboard 430.
[0054]
Further, when a virtual numeric keypad call operation is input on the screen 2001, the screen transitions to a screen 2003 to display the numeric keypad.
[0055]
Hereinafter, the operation of the pressed key detection unit 242 will be described step by step in accordance with the state transition.
[0056]
First, the variable N used in the following description will be described.
[0057]
Let N be the number of vertices satisfying P2 <p, where p is the number of strongly pressed fingers, that is, apex pressure.
[0058]
When a template such as a QWERTY type virtual keyboard 430 is displayed on the display device, if the number of fingers pressing the tablet device with a pressure equal to or higher than P1 is set to 0, the template display is erased.
[0059]
This state is a start state, and the screen 2001 in FIG. 8 corresponds to this state.
[0060]
An input 1601A is an input in which the tablet device is weakly pressed with three or eight fingers and satisfies (3) and (4) of the software keyboard calling operation.
[0061]
When the input 1601A is input in the state of the screen 2001, the apparatus starts measurement for checking whether the number of peaks in the input 1601A continues for a predetermined time, and transitions to the state of the screen 2002. The fixed time is, for example, 200 milliseconds.
[0062]
In the state of the screen 2001, when an input other than the input 1601A is input, the pressed key detection unit 242 informs the post-processing module 243 that there is no key that is strongly pressed with a finger, and also notifies the central processing unit 231. Tells the template to disappear and not change. Then, the state remains the screen 2001.
[0063]
Here, “convenient” means that there may be a key area that is actually pressed strongly.
[0064]
For example, when the operation of “four fingers touching the tablet device for a certain period of time” is not defined as an operation for calling some template, the device is pressed with pressure of P1 or more with four fingers, and Assume that at least one of the four is pressed with a pressure of P2 or more.
[0065]
In this case, for the sake of convenience, the post-processing module 243 is informed that there is no such key even though there is a key being pressed with a pressure equal to or higher than P2.
[0066]
In the state of the screen 2002, the number of peaks in the input 1601A remains unchanged, and all fingers continue to be pressed for a certain time with the tablet device pressed weakly. If the number of peaks is 3, the numeric keypad is used, and if it is 8, the QWERTY The type virtual keyboard 430 is displayed, and the state transitions to the state of the screen display 2003. At the same time, the post-processing module 243 is informed that there is no key area including a vertex that satisfies P2 <p.
[0067]
In the state of the screen 2002, if all the vertices are weakly pressed with the number of peaks in the input 1601A and a certain time has not passed, it is determined whether or not the number of peaks in the input 1601A continues for a certain time. The measurement for checking is continued and the state of the screen 2002 remains.
[0068]
In the state of the screen 2002, if the number of peaks pressing the tablet device weakly before a certain time elapses differs from the number of peaks in the input 1601A, it is used to check whether the number of peaks in the input 1601A continues for a certain time The measurement is discarded and the screen 2001 is entered.
[0069]
In the screen 2003, there are the following three types.
[0070]
(1) When the number of peaks is 1 or more and N = 0 is input, the pressed key detection unit 242 notifies the post-processing module 243 that there is no key that is strongly pressed with a finger, The processing device 231 is instructed not to change the template display. Then, the state remains the screen 2003.
[0071]
(2) When the number of peaks is 1 or more and N> 0 is input, the pressed key detection unit 242 notifies the post-processing module 243 of all key areas strongly pressed by a finger and performs central processing. The apparatus 231 is instructed not to change the display of the template. Then, the state remains the screen 2003.
[0072]
(3) When the number of peaks is 0, that is, in the case of an input in which no finger presses the tablet device 240 with a pressure equal to or higher than P1, the pressed key detection unit 242 has no key that is strongly pressed with the finger. This is notified to the post-processing module 243, and the central processing unit 231 is instructed not to display the template. Then, the state transitions to the screen 2001.
[0073]
Next, operation examples of the information processing apparatus based on the present invention will be described in detail with reference to FIGS.
[0074]
11 to 16 are diagrams illustrating an operation flow of the information processing apparatus according to the present embodiment.
[0075]
11 to 16, the part following “A:” represents the intention of the user and the input by the user to the apparatus, and the part following “B:” represents the reaction of the apparatus to the user's input and the like. And
[0076]
Steps 1000 to 1010 will be described.
[0077]
The user presses the power button 210 shown in FIG. 2 so that the power of the power source 209 can be supplied to each part of the electronic component of the apparatus and activates the apparatus. Then, the present apparatus displays an initial screen 400 as shown in FIG. 17 on the display device.
[0078]
An example of reading an e-mail will be described. The user operates the mouse pointer 225 or an equivalent operation using the mouse device 220 or a similar pointing device (hereinafter referred to as the mouse device 220 or the like), and selects and executes the e-mail activation icon 401.
[0079]
Step 1011 will be described. This apparatus starts e-mail software, displays a user name / password input window 410 as shown in FIG. 18 on the display device, and inputs the user name and the like at the position of the cursor 415 to the user. Prompt.
[0080]
Step 1020 will be described. The user wants to input a character string representing the user name. As shown in FIG. 19, the user can use 10 fingers of the user's left hand 421 and the user's right hand 422, as in the case where the left and right hands are placed on a normal keyboard that is generally used at present. Place the 8 fingers excluding the thumb with the left and right index fingers sufficiently separated from each other. Here, “separate enough” means that when the QWERTY type virtual keyboard is displayed later, the left hand part and the right hand part of the QWERTY type virtual keyboard are separated so as not to overlap, It means that. The QWERTY type virtual keyboard will be described later.
[0081]
Step 1021 will be described. This device determines that eight fingers are placed on the tablet device 240, and as shown in FIG. 20, the user positions the right hand 421 and left hand 422 on the tablet device at the home position. A QWERTY type virtual keyboard 430 with a key pitch that matches the finger of the user is displayed.
[0082]
In the case of a QWERTY type keyboard, the home position is a way of placing a finger in which the index finger of the left hand is the position of the F key and the index finger of the right hand is the position of the J key.
[0083]
According to the present embodiment, the user can directly set the position where the hand is placed on the display device as the home position. For this reason, in order to adjust the position of the finger to the position of the home position, it is not necessary to move the line of sight to the display portion of the QWERTY type virtual keyboard 430 and move the finger. That is, the user can use the QWERTY type virtual keyboard 430 without taking his / her line of sight from the insertion point of the character string. Therefore, the visual fatigue of the user can be reduced, and further, the operation time for adjusting the position of the finger or moving the viewpoint can be shortened.
[0084]
The key pitch is the distance between the centers of any two keys arranged side by side in the horizontal direction.
[0085]
Since the shape of the finger including the thickness varies depending on the individual, it is desirable that the key pitch of the keyboard is variable.
[0086]
In the case of a conventional virtual keyboard, (1) an appropriate key pitch is registered in advance for each user, or (2) the user explicitly performs an operation using a control panel or the like for adjustment. Operation was necessary.
[0087]
However, since this apparatus determines the key pitch suitable for the user based on the distance between the fingers contacting the tablet device 240, the key pitch can be designated directly and automatically.
[0088]
Furthermore, since the thickness of the finger varies from finger to finger, the distance between adjacent fingers in a state where the finger is naturally opened is considered to vary from finger to finger. The apparatus can also provide a virtual keyboard 430 that automatically adjusts the key pitch to the interval between adjacent fingers. Thereby, the excessive movement of fingers can be reduced and the physical burden can be reduced.
[0089]
The QWERTY type virtual keyboard 430 in the state of FIG. 20 may be displayed in a semi-transparent state or in an opaque state so that the portion that was originally displayed is hidden as much as possible by the display of the QWERTY type virtual keyboard 430. May be. When displayed in a semi-transparent state, there is an advantage that the user can recognize the originally displayed portion and use the information.
[0090]
The translucent state in the display of the QWERTY type virtual keyboard 430 is to prevent the part that was originally displayed from being hidden as much as possible by the display of the QWERTY type virtual keyboard 430 and is originally displayed on the display device. The display of the QWERTY type virtual keyboard 430 can be seen through from the top of the part that has been overlapped. Of the display dots of the display device, only the dot values sufficient for the user to determine the key are changed so that the hidden portions of the originally displayed portions are reduced. By doing so, the user can recognize the part that was originally displayed to some extent and use the information.
[0091]
Steps 1022 to 1056 will be described. The user inputs the correct user name and the correct password by typing with a finger using the QWERTY type virtual keyboard 430 displayed on the display device.
[0092]
Then, the system displays a mail title list screen 400E as shown in FIG. 452 represents an e-mail whose title is “Welcome to a hot spring trip”. Reference numeral 453 denotes a rectangular area representing an e-mail whose title is “Thank you for the other day”. Reference numeral 454 denotes a rectangular area representing an electronic mail whose title is “impressions that have seen xxx”. Reference numeral 455 denotes a rectangular area representing an e-mail whose title is “Feast”. Reference numeral 456 denotes a rectangular area representing an e-mail whose title is “Recent”. 452, 453, 454, 455, 456
The sender and title of the e-mail currently delivered to the user are displayed.
[0093]
Step 1060 will be described. The user operates the mouse cursor 225 or the like as necessary using the mouse device 220 or the like, and selects and executes the rectangular area 452.
[0094]
Step 1061 will be described. This device displays the contents of “Invitation for hot spring trip” on the display device. In this example, the apparatus displays a text on the upper part of the display device and a pamphlet on the lower part.
[0095]
FIG. 22 explains the state of display of a pamphlet as an accompanying document for “invitation of hot spring trip”. Reference numeral 610 denotes a window that displays the text of an e-mail message “invitation for hot spring trip” received by the user. Reference numeral 620 denotes a window for the contents of a brochure attached to the received mail. In this example, it is a hot spring pamphlet. Reference numeral 601 denotes a menu bar, and reference numeral 602 denotes a menu item for displaying a submenu related to “message”.
[0096]
Steps 1070 to 1071 will be described. The user reads the contents of the window 610 on the screen and the contents of the received mail attached pamphlet contents 620 and writes a reply.
[0097]
FIG. 23 explains the state of the screen when the user selects and executes the menu item for starting reply creation. Reference numeral 603 denotes a submenu related to “message”. Reference numeral 603A denotes one of the submenus, which is a menu item for selecting and executing a reply creation command. Reference numeral 603B denotes one of the submenus, which is a menu item for selecting and executing a transfer command. Reference numeral 603C denotes one of the submenus, which is a menu item for selecting and executing a transmission command.
[0098]
FIG. 24 explains the state of the screen when the user displays a window for writing a reply. The user selects the menu item 603A for creating a reply using the mouse device 220 or the like on the screen of FIG. Then, the present apparatus displays a window 640 for the user to write a reply on the display device. Others are the same as the description of FIG.
[0099]
Steps 1100 to 1103 will be described. In FIG. 25, 431 is a return key area, and 432 is a space key area. First, the user touches the tablet device 240 with eight fingers excluding the thumbs of the right hand 421 and the left hand 422. Then, the present apparatus displays the QWERTY type virtual keyboard 430 on the display device so as to match the home position of each finger of the user.
[0100]
If necessary, the user switches to the Japanese input mode using a key in the QWERTY type virtual keyboard 430. Here, it is assumed that the commonly known Romaji-kana conversion and Kana-Kanji conversion are used. Then, by typing “hiyouhadanokurakakarisoudesuka?”, A conversion character type “how much does it look like hiyo?” Is input. Then, the user performs conversion by typing the space key area 432, which is a key area for conversion, with a finger in the same manner as a normal kana-kanji conversion operation, and confirms. Then, the device inserts a character string “How much does it cost?” At the position of the cursor 415 and displays it on the display device. In the kana-kanji conversion system of the present embodiment, the space key is also used as the conversion key.
[0101]
FIG. 26 illustrates the state of the screen when the user inputs the line feed code and the character string “Brochure” following the input of the character string “How much does it cost?”. A line feed code can be input by pressing the return key area 431. Reference numeral 651 denotes a character string inserted by input, and the others are the same as in the description of FIG.
[0102]
Steps 1104 to 1105 will be described. When the user separates the right hand 421 and the left hand 422 from the tablet device 240, the QWERTY type virtual keyboard 430 is not displayed on the display device as shown in FIG.
[0103]
Generally, it is sufficient that the virtual keyboard is displayed only when inputting. In the case of this apparatus, it is sufficient that the display is performed only when the user touches the tablet device 240 with a finger. When displayed at other times, the display area of the display device is substantially reduced by the amount that the virtual keyboard is displayed.
[0104]
Upon completion of input, the present apparatus can automatically turn off the display of the QWERTY type virtual keyboard 430 by releasing all fingers of both hands from the tablet device 240. Therefore, a substantial reduction in display area due to the display of the QWERTY type virtual keyboard 430 can be prevented with a few operation procedures.
[0105]
Steps 1110 to 1111 will be described. When the user returns his / her hand to the tablet device 240 again, the state shown in FIG. 26, that is, the QWERTY type virtual keyboard 430 is displayed, and the state returns to a state where characters can be input. After completing the reply by continuing the text input operation, the user selects and executes the menu item 603C representing the transmission shown in FIG. 23 using the mouse device 220 or the like, and transmits the mail.
[0106]
A description of the subsequent operations is omitted.
[0107]
Hereinafter, a description will be given of the behavior of the present apparatus when a window in which a user is about to input characters is displayed at a position where it is difficult to see by overlapping the user's finger placed on the display screen.
[0108]
For example, the state of the screen in step 1071 is not the case shown in FIG. 24 but the case where the reply creation window 640 is displayed at the lower part of the screen which is likely to overlap with the user's finger as shown in FIG. It is desirable to input a character string or the like while looking at the input progress. In such a case, it is difficult to input while looking at the input progress unless any special measures are taken.
[0109]
Steps 1312 to 1313 shown in FIG. 15 will be described. The user touches the tablet device 240 with eight fingers to input a sentence. The apparatus then displays the QWERTY type virtual keyboard 430 so that the position of the user's finger is at the home position while scrolling the display on the display device upward.
[0110]
29 and 30 are diagrams for explaining the state of the scroll. FIG. 29 shows a state where both hands 441 and 442 of the user have not yet touched the tablet device 240. FIG. 30 shows a state in which the screen of the display device is automatically scrolled upward immediately before the QWERTY type virtual keyboard 430 is displayed so that the window 640 is not hidden by fingers with both hands 441 and 442 touching the tablet device 240. It is.
[0111]
The user can set whether or not to perform the automatic scroll function.
[0112]
Steps 1320 to 1333 will be described. It is assumed that the user wants to see the window 620 of the contents of the brochure attached to the received mail when the user inputs “How much does it cost? (Line feed character) brochure” as shown in FIG. However, in this state, the window 620 for the contents of the received mail attached brochure is out of the visible portion by scrolling the display device upward in step 1321. Here, as shown in FIG. 32, when all the fingers are temporarily released from the tablet device 240, the upward scrolling is released, and the received mail attached pamphlet content window 620 is displayed on the display device.
[0113]
The user refers to the window 620 of the contents of the brochure attached to the received mail, and then places the eight fingers on the tablet device 240 again to continue the input. When the sentence is completed, a menu item representing transmission is selected, executed, and transmitted.
[0114]
Hereinafter, the description of the operation until the power button 210 is turned off is omitted.
[0115]
As described in detail above, the information processing apparatus according to the present embodiment does not need to be provided with a mechanical keyboard, so that the entire apparatus can be reduced in weight and thickness.
[0116]
In addition, since a template such as a keyboard is displayed on a display device and a character string or the like can be input by bringing a finger or the like into contact with the tablet device, an operation can be performed as if a mechanical keyboard exists, and a mechanical keyboard is provided. It is possible to prevent a decrease in input efficiency in a device that does not.
[0117]
Moreover, since it is a virtual keyboard system, various templates can be provided to the user. The various templates here include, for example, a variety of display positions, key pitches, key area shapes, and the like, as well as a variety of key labels and arrangements including multilingual correspondence and functions. Specifically, in the case of a keyboard for character input, in addition to the commonly known QWERTY type arrangement, the DVORAK arrangement, or the Japanese alphabetical arrangement or the like is displayed for the user. Can be provided. It is possible to provide the user with input by displaying a numeric keypad arrangement for numerical input and an arrangement of a piano keyboard for music. In addition, for each application software, the function key labeling can be changed and displayed.
[0118]
【The invention's effect】
As described above, according to the present invention, the display screen of the information processing apparatus The touch operation by pressing can be performed efficiently. As a result, the device is thin and light and efficient. operation· Can be entered.
[Brief description of the drawings]
FIG. 1 is a perspective view of an information processing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of an information processing apparatus according to an embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of an information processing apparatus according to an embodiment of the present invention in more detail.
FIG. 4 is a diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 7 is a diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 8 is a state transition diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 9 is a state transition diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 10 is a state transition diagram for explaining pressure distribution detection according to an embodiment of the present invention.
FIG. 11 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 12 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 13 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 14 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 15 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 16 is a diagram showing an operation flow of one embodiment of the present invention.
FIG. 17 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 18 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 19 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 20 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 21 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 22 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 23 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 24 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 25 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 26 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 27 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 28 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 29 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 30 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 31 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 32 is a diagram showing an example of a display screen in one embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 200 ... This apparatus, 201 ... Main body apparatus case, 202 ... Display apparatus, 209 ... Power supply, 210 ... Power button, 211 ... Clock, 220 ... Mouse apparatus, 224 ... Control apparatus of mouse apparatus, 225 ... Mouse pointer, 228 ... Pen 231 ... Central processing unit, 234 ... Secondary storage device, 240 ... Tablet device, 24C ... Tablet device cut unit, 241 ... Tablet device pressure distribution processing module, 242 ... Pressed key detection unit, 243 ... Post processing module, 244 ... Control device, 400 ... Initial screen, 400E ... Received mail subject list screen, 401 ... Email activation icon, 410 ... User name / password input window, 415 ... Cursor, 421 ... User's left hand, 422 ... User's left hand Right hand, 430 ... QWERTY type virtual keyboard, 431 ... Return key area 432 ... Space key area, 452 ... Rectangle area representing e-mail whose title is "Welcome to hot spring trip", 453 ... Rectangular area representing e-mail whose title is "Thank you the other day", 454 ... The title is "I see xxx" Rectangular area representing an e-mail of “Takanou”, 455... Rectangular area representing an e-mail whose title is “Feast”, 456. ,...,... Enlarged view (1), 553... Vertex (1), 554... Enlarged view (2), 555... Vertex (2), 556. ,...,... P 2, 601... Menu bar, 602. 610 ... received mail body text window, 620 ... received mail attached brochure content window, 225 ... mouse pointer, 603 ... submenu related to "message", 603A ... menu item representing reply creation, 603B ... forwarded Menu item, 603C ... Menu item representing transmission, 640 ... Window for user to write reply, 651 ... Inserted character string, 1000 ... Operation step, 1001 ... Operation step, 1010 ... Operation step, 1011 ... Operation step DESCRIPTION OF SYMBOLS 1020 ... Operation step, 1021 ... Operation step, 1022 ... Operation step, 1051 ... Operation step, 1056 ... Operation step, 1060 ... Operation step, 1061 ... Operation step, 1070 ... Operation step, 1071 ... Operation step, 1 DESCRIPTION OF SYMBOLS 100 ... Operation step, 1101 ... Operation step, 1102 ... Operation step, 1103 ... Operation step, 1104 ... Operation step, 1105 ... Operation step, 1110 ... Operation step, 1111 ... Operation step, 1312 ... Operation step, 1313 ... Operation step, 1320 ... Operation step, 1321 ... Operation step, 1322 ... Operation step, 1323 ... Operation step, 1330 ... Operation step, 1331 ... Operation step, 1332 ... Operation step, 1333 ... Operation step, 1601A ... Input, 2001 ... Screen, 2002 ... Screen, 2003 ... screen.

Claims (6)

表示パネルの表示画面に指示手段のタッチ位置を検出するタッチパネルが設けられ、該表示画面に表示されるキーボードをタッチして操作できるようにしたタッチパネルを備えた情報処理装置において、
該キーボードをタッチ操作する際の指示手段による押圧力Pを検知する検知手段と、
予め設定圧力P1,P2(但し、0<P1<P2)が設けられ、該検知手段による検知圧力がP1≦P≦P2であるとき、第1の処理を行い、該押圧力PがP1≦P≦P2からP2<Pに変化したとき、第2の処理を行う制御部とを有し、
前記第1の処理は、前記表示画面のタッチ位置に応じた位置にキーボードを表示する処理であり、
前記第2の処理は、前記表示画面の所定の位置に入力表示される文字として、前記キーボードのうち、P2<Pの押圧力が検出された位置に対応するキーに割り当てられた文字が指示されたこととする処理であり、かつ、前記第1の処理としてのキーボードの表示は、前記P1≦P≦P2の圧力を検知したタッチ位置でそのまま前記キーボードを操作できる位置に表示することを特徴とするタッチパネルを備えた情報処理装置。
In an information processing apparatus provided with a touch panel that detects a touch position of an instruction unit on a display screen of a display panel and that can be operated by touching a keyboard displayed on the display screen.
Detecting means for detecting the pressing force P by the instruction means when touching the keyboard;
Preset pressures P1, P2 (where 0 <P1 <P2) are provided, and when the detected pressure by the detecting means is P1 ≦ P ≦ P2, the first process is performed, and the pressing force P is P1 ≦ P A control unit that performs a second process when P2 is changed from P2 to P2 <P;
The first process is a process of displaying a keyboard at a position corresponding to a touch position on the display screen;
In the second process, a character assigned to a key corresponding to a position where a pressing force of P2 <P is detected is designated as a character to be input and displayed at a predetermined position on the display screen. The display of the keyboard as the first process is displayed at a position where the keyboard can be operated as it is at the touch position where the pressure of P1 ≦ P ≦ P2 is detected. An information processing device equipped with a touch panel.
前記第1の処理は、該検知手段による検知圧力がP1≦P≦P2の状態が一定時間以上継続したときに行われる
ことを特徴とする請求項1に記載のタッチパネルを備えた情報処理装置。
2. The information processing apparatus with a touch panel according to claim 1, wherein the first process is performed when a state in which the detection pressure by the detection unit is P1 ≦ P ≦ P2 continues for a predetermined time or longer.
前記第1の処理が行われている状態において、前記キーボードに対応する位置の前記押圧力PがP2<Pとなったとき、前記第2の処理が行われる
ことを特徴とする請求項1または2に記載のタッチパネルを備えた情報処理装置。
The second process is performed when the pressing force P at a position corresponding to the keyboard satisfies P2 <P in a state where the first process is performed. An information processing apparatus comprising the touch panel according to 2.
前記第1の処理は、前記表示画面に前記キーボードを、前記P1≦P≦P2の圧力を検知したタッチ位置がそのままホームポジションとなる位置に表示する処理である
ことを特徴とする請求項1乃至3のいずれかに記載のタッチパネルを備えた情報処理装置。
The first process is a process of displaying the keyboard on the display screen at a position where the touch position where the pressure of P1 ≦ P ≦ P2 is detected becomes the home position as it is. An information processing apparatus comprising the touch panel according to any one of 3.
表示パネルの表示画面に設けられたタッチパネルにより指示手段のタッチ位置を検出し、該表示画面に表示されるキーボードをタッチして操作できるようにしたタッチパネルを用いた情報処理方法であって、
該キーボードをタッチ操作する際の指示手段による押圧力Pを検知し、予め設定圧力P1,P2(但し、0<P1<P2)が設けられ、検知した前記指示手段による押圧力がP1≦P≦P2であるとき、第1の処理を行い、該押圧力PがP1≦P≦P2からP2<Pに変化したとき、第2の処理を行い、
前記第1の処理は、前記表示画面のタッチ位置に応じた位置にキーボードを表示する処理であり、
前記第2の処理は、前記表示画面の所定の位置に入力表示される文字として、前記キーボードのうち、P2<Pの押圧力が検出された位置に対応するキーに割り当てられた文字が指示されたこととする処理であり、かつ、前記第1の処理としてのキーボードの表示は、前記P1≦P≦P2の圧力を検知したタッチ位置でそのまま前記キーボードを操作できる位置に表示することを特徴とするタッチパネルを備えた情報処理方法。
An information processing method using a touch panel that detects a touch position of an instruction unit by a touch panel provided on a display screen of a display panel and allows operation by touching a keyboard displayed on the display screen,
The pressure P by the instruction means when touching the keyboard is detected, and preset pressures P1 and P2 (where 0 <P1 <P2) are provided, and the detected pressure by the instruction means is P1 ≦ P ≦ When P2, the first process is performed. When the pressing force P is changed from P1 ≦ P ≦ P2 to P2 <P, the second process is performed.
The first process is a process of displaying a keyboard at a position corresponding to a touch position on the display screen;
In the second process, a character assigned to a key corresponding to a position where a pressing force of P2 <P is detected is designated as a character to be input and displayed at a predetermined position on the display screen. The display of the keyboard as the first process is displayed at a position where the keyboard can be operated as it is at the touch position where the pressure of P1 ≦ P ≦ P2 is detected. Processing method provided with a touch panel.
前記第1の処理が行われている状態において前記キーボードに対応する位置の前記押圧力PがP2<Pとなったとき、前記第2の処理が行われることを特徴とする請求項5に記載のタッチパネル用いた情報処理方法。When the pressing force P of the position corresponding to the keyboard in a state in which the first processing has been performed becomes P2 <P, according to claim 5, wherein the second process is performed information processing method using the touch panel.
JP14891796A 1996-06-11 1996-06-11 Information processing apparatus having touch panel and information processing method Expired - Fee Related JP4484255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14891796A JP4484255B2 (en) 1996-06-11 1996-06-11 Information processing apparatus having touch panel and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14891796A JP4484255B2 (en) 1996-06-11 1996-06-11 Information processing apparatus having touch panel and information processing method

Publications (2)

Publication Number Publication Date
JPH09330175A JPH09330175A (en) 1997-12-22
JP4484255B2 true JP4484255B2 (en) 2010-06-16

Family

ID=15463555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14891796A Expired - Fee Related JP4484255B2 (en) 1996-06-11 1996-06-11 Information processing apparatus having touch panel and information processing method

Country Status (1)

Country Link
JP (1) JP4484255B2 (en)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100766627B1 (en) * 1998-01-26 2007-10-15 핑거웍스, 인크. Manual input integration method and device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
CN101290540B (en) * 1999-10-27 2010-12-29 菲罗兹·加萨比安 Integrated keypad system
US6525717B1 (en) 1999-12-17 2003-02-25 International Business Machines Corporation Input device that analyzes acoustical signatures
EP1349052A4 (en) 2000-12-05 2009-08-26 Tokai Rika Co Ltd Screen operating device
CN1280700C (en) * 2002-07-04 2006-10-18 皇家飞利浦电子股份有限公司 Automatically adaptable virtual keyboard
JP3630153B2 (en) * 2002-07-19 2005-03-16 ソニー株式会社 Information display input device, information display input method, and information processing device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US20060050062A1 (en) * 2004-08-19 2006-03-09 Masanori Ozawa Input device
JP5198874B2 (en) * 2005-01-30 2013-05-15 スウィフトポイント リミテッド Computer mouse peripherals
JP2007029442A (en) * 2005-07-27 2007-02-08 Konami Digital Entertainment:Kk Game program, apparatus and method
JP4725485B2 (en) * 2006-10-20 2011-07-13 パナソニック株式会社 Keyboard display device
JP5067345B2 (en) * 2008-10-30 2012-11-07 日本電気株式会社 Mobile communication terminal, control method for mobile communication terminal, program, and recording medium
US9041660B2 (en) * 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
TW201027393A (en) * 2009-01-06 2010-07-16 Pixart Imaging Inc Electronic apparatus with virtual data input device
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
JP5959797B2 (en) * 2010-09-28 2016-08-02 京セラ株式会社 Input device and control method of input device
WO2012046295A1 (en) * 2010-10-05 2012-04-12 富士通株式会社 Information processing device and input device display method
JP5622270B2 (en) * 2010-10-28 2014-11-12 Necカシオモバイルコミュニケーションズ株式会社 INPUT DISPLAY CONTROL DEVICE, INPUT DISPLAY CONTROL METHOD, AND PROGRAM
JP5496337B2 (en) * 2011-02-04 2014-05-21 パナソニック株式会社 Electronics
JP5749043B2 (en) 2011-03-11 2015-07-15 京セラ株式会社 Electronics
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5524153B2 (en) * 2011-09-08 2014-06-18 日本電信電話株式会社 Display system, display method and program for touch-operated software keyboard
JP6001249B2 (en) * 2011-09-27 2016-10-05 京セラ株式会社 Electronics
JP5520273B2 (en) * 2011-10-11 2014-06-11 ヤフー株式会社 Information input device, method and program
US20130111391A1 (en) * 2011-11-01 2013-05-02 Microsoft Corporation Adjusting content to avoid occlusion by a virtual input panel
US20150123907A1 (en) * 2012-02-07 2015-05-07 Nec Casio Mobile Communications, Ltd. Information processing device, display form control method, and non-transitory computer readable medium
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP3594797B1 (en) 2012-05-09 2024-10-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
JP6182207B2 (en) 2012-05-09 2017-08-16 アップル インコーポレイテッド Device, method, and graphical user interface for providing feedback for changing an activation state of a user interface object
CN109062488B (en) 2012-05-09 2022-05-27 苹果公司 Apparatus, method and graphical user interface for selecting user interface objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104487928B (en) 2012-05-09 2018-07-06 苹果公司 For equipment, method and the graphic user interface of transition to be carried out between dispaly state in response to gesture
JP5910345B2 (en) 2012-06-21 2016-04-27 富士通株式会社 Character input program, information processing apparatus, and character input method
CN105144057B (en) 2012-12-29 2019-05-17 苹果公司 For moving the equipment, method and graphic user interface of cursor according to the cosmetic variation of the control icon with simulation three-dimensional feature
KR101905174B1 (en) 2012-12-29 2018-10-08 애플 인크. Device, method, and graphical user interface for navigating user interface hierachies
AU2013368445B8 (en) 2012-12-29 2017-02-09 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
KR101958582B1 (en) 2012-12-29 2019-07-04 애플 인크. Device, method, and graphical user interface for transitioning between touch input to display output relationships
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
JP6093877B2 (en) 2012-12-29 2017-03-08 アップル インコーポレイテッド Device, method, and graphical user interface for foregoing generation of tactile output for multi-touch gestures
JP2014235612A (en) 2013-06-03 2014-12-15 富士通株式会社 Terminal device, correction method, and correction program
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
JP6027182B2 (en) * 2015-05-12 2016-11-16 京セラ株式会社 Electronics
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
JP6190006B2 (en) * 2016-07-01 2017-08-30 京セラ株式会社 Electronics

Also Published As

Publication number Publication date
JPH09330175A (en) 1997-12-22

Similar Documents

Publication Publication Date Title
JP4484255B2 (en) Information processing apparatus having touch panel and information processing method
CA2501118C (en) Method of combining data entry of handwritten symbols with displayed character data
KR100478020B1 (en) On-screen key input device
US9430051B2 (en) Keyboard with input-sensitive display device
US5459796A (en) System for entering handwritten data into computer generated forms
US5276794A (en) Pop-up keyboard system for entering handwritten data into computer generated forms
US8604364B2 (en) Sensors, algorithms and applications for a high dimensional touchpad
US7091954B2 (en) Computer keyboard and cursor control system and method with keyboard map switching
US20100259482A1 (en) Keyboard gesturing
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
KR20050119112A (en) Unambiguous text input method for touch screens and reduced keyboard systems
US9189154B2 (en) Information processing apparatus, information processing method, and program
CN102193662A (en) Input device
JP3317379B2 (en) Display screen input device
WO2014072734A1 (en) Gesture input method and apparatus
JPH1091307A (en) Touch typing keyboard device
JP4027964B2 (en) Keyboard sheet setting method
JPH0883276A (en) Device and method for processing document
JP2003058301A (en) Keyboard input device with pointing device
JPH1097531A (en) Document editing device
JPH11345078A (en) Data selection input device
JPH08190552A (en) Document display device
JPH0785032A (en) Device and method for preparing document
JPH1153095A (en) Data input device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051228

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070205

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees