WO2006103196A1 - Input forecasting method and a user input forecasting interface - Google Patents

Input forecasting method and a user input forecasting interface Download PDF

Info

Publication number
WO2006103196A1
WO2006103196A1 PCT/EP2006/060993 EP2006060993W WO2006103196A1 WO 2006103196 A1 WO2006103196 A1 WO 2006103196A1 EP 2006060993 W EP2006060993 W EP 2006060993W WO 2006103196 A1 WO2006103196 A1 WO 2006103196A1
Authority
WO
WIPO (PCT)
Prior art keywords
input element
output
input
information
user
Prior art date
Application number
PCT/EP2006/060993
Other languages
German (de)
French (fr)
Inventor
Birgit Otto
Klaus-Peter Schneider
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2006103196A1 publication Critical patent/WO2006103196A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle

Definitions

  • the invention relates to a method for input preview.
  • Conventional user interfaces assume that a user can extract the function of their input elements from their labeling, prior knowledge or operating instructions. For the input elements of a
  • the user interface may include buttons, knobs, switches, knobs, jog dials, swashplates, joysticks, pedals, rotary pushbuttons, barrel keys, rotary dials, footswitches, pedals, and similar simple or complex input elements.
  • the keys of conventional keyboards are labeled so that the user can predict the effect of a key press before pressing the key concerned.
  • Input elements in a vehicle are also labeled by symbols or color coding to give the user an indication of their function.
  • a sensor detects an approach of a user's extremity to an input element or a touch of the extremity to the input element without actuating the input element. Furthermore, a data processing unit inputs via
  • the user interface with input preview has a sensor that can detect an approach of a user's extremity to an input element or a touch of the extremity with the input element, without the input element being actuated. Furthermore, the user interface to a data processing unit, which can output via an output device information about at least one effect, which can have an actuation of the input element.
  • the extremity may be a user's hand, foot or fingertip, for example. Either an approach or a touch, but also both can be detected.
  • the method of input preview or the user interface with input preview have numerous advantages. This gives the user a preview of possible interactions he might trigger. For example, if the preview does not reflect his intention to act, he can simply reposition his hand differently. Elaborate corrections for incorrect entries are not necessary as long as the input element has not actually been actuated. This increases the efficiency of operation. Input errors are reduced and the distraction of about a driver in traffic is significantly reduced, thereby improving traffic safety.
  • the input preview allows a user to locate the desired input element without looking at it. Furthermore, the output information can save a lookup in a manual.
  • an attitude of the extremity is classified. Furthermore, information is output about at least one effect that an actuation of the input element can have with this attitude.
  • the output device is a screen. An item is displayed on the screen representing the input item. After detection, the color or shape of the item is changed on the screen.
  • This embodiment allows the user to quickly and easily access the desired input element locate it by displaying a corresponding selection. It can be changed either the color or the shape of the element on the screen, but also both. Furthermore, the position, size or arrangement of the element can be varied on the screen.
  • the element may be, for example, an icon.
  • This embodiment enables a particularly intuitive preview of the effect of an actuation of the input element.
  • the information is output on a screen as a textual description. Similar to the "Tool Tips" for unknown icons on toolbars in Windows applications, the user thus learns in advance the function of the respective input element.
  • the information can also be output acoustically. This is particularly advantageous in traffic or for blind users, since the view of a screen can be omitted entirely.
  • Output can be made by a non-voice signal, thereby affecting less the driver's conversation.
  • the acoustic output can also be a voice output. This makes it possible to give the user an accurate indication of the function of the input element.
  • the information is output only after the approach or contact has been detected over a predetermined period of time. Similar to the "tool tips", the information is thus output only if the user is uncertain about the function of the respective input element.
  • the actuation of the input element may have different effects.
  • the information describes the different effects.
  • the input element is a key on a keyboard.
  • the preview information about its function can also be output here without pressing the key. This is particularly advantageous with function keys.
  • the senor is a touch sensor, a camera or an infrared sensor.
  • the touch sensor allows a particularly accurate tracking of the extremity of the user, especially in a variety of small input elements.
  • the camera is advantageous because it can replace a variety of touch sensors. Furthermore, it allows the use of one of the most mature techniques in the field of camera tracking.
  • the infrared sensor is particularly advantageous in dark environments.
  • the sensor is formed by a system with multiple sensors. For example, a large number of small switches require a corresponding number of touch sensors. Alternatively, different technologies can be combined to increase the accuracy of tracking or choose the most cost-effective tracking technology.
  • Figure 1 is a user interface
  • Figure 2 shows a PC workstation
  • Figure 3 is a vehicle cockpit
  • Figure 4 is a mobile phone
  • Figure 5 is a multimedia device.
  • FIG. 1 shows an arrangement 100 which enables an input preview.
  • the arrangement 100 is a user interface with which a user can make inputs.
  • an input element 102 is available to the user, which he can operate with a limb 101.
  • switches, dials, jog dial, swashplate, joystick, foot switch, pedal, rotary selector, rotary push button, barrel key etc. come into question.
  • the extremity 101 of the user may be about a hand, a fingertip or a foot. In this case, by a sensor 103, an approach or touch the
  • the sensor 103 may be a camera, a touch sensor, a temperature sensor, or the like act. It is also possible to use a sensor system comprising a plurality of sensors. The sensor 103 detects the approach or touch without actually actuating the input member 102. A later operation is not excluded. After the detection, there is one
  • Data processing unit 104 information about at least one effect, which may have an actuation of the input element 102.
  • the output here takes place via an output device 105.
  • the data processing unit 104 may be, for example, a personal computer, a processor in a mobile terminal (video cell phone, PDA, notebook, etc. Or a multimedia device or an embedded system, for example in a vehicle or in a dashboard ,
  • output device 105 can both visual output devices such as screens, projectors or LCD displays and acoustic
  • Output devices such as single speakers or surround systems are used.
  • the information indicates what the actuation of the input element 102 would do.
  • the information can be as
  • Text as a symbol or as a graphic to be displayed visually.
  • the information can be output as a speech signal or as a non-speech signal.
  • a pushbutton which may increase the volume of music playback, e.g. temporarily increases the volume of music playback.
  • the information is thus output acoustically, but non-linguistically.
  • the information may also indicate how to operate the input element 102, such as that the input element 102 may be rotated to achieve a particular effect.
  • FIG. 2 shows a PC workstation 200, which enables an input preview.
  • a user with a hand 201 and a foot 211 operates a keyboard 210 and a foot switch 212.
  • a camera 203 detects an approach or touch of a fingertip of the finger User to a key 202 without the user pressing this key 202.
  • information is output via a personal computer 204, which would result in the pressure of the key 202 in the current context.
  • the information output here may depend on the current menu or state of an application on the personal computer 204.
  • the output can be made either via a screen 205 or via speaker 206.
  • corresponding information may be output depending on its current function.
  • an input element leads to a state change of the respective application, it can be superimposed on the screen 205 as a preview in the respective state. If, for example, pressing the key 202 causes the change to a submenu, then an approaching or touching of the key by the user can cause the respective submenu to be temporarily displayed. When the user actually presses the button 202, the respective application actually changes to the state shown above. In this and all other embodiments, a combination of the aforementioned types of output is possible.
  • a preview of information about the effect which the respective key combination would currently effect in the current application can be output. For example, in a word processor, touching several keys may temporarily cause formatting - italics, underlining, etc. The changed format will only be displayed temporarily, as long as the corresponding format is displayed Keyboard shortcut is touched, and only accepted when the user actually presses the keys.
  • FIG. 3 shows a cockpit 300.
  • the cockpit 300 may be a pilot's cockpit in an airplane, a driver's cockpit in a vehicle or else a cockpit in a ship, submarine or simulator.
  • the cockpit may also be a medical surgical system operator console or any other user interface.
  • the cockpit is characterized by a variety of controls, sometimes with high complexity. For a user or driver, a blind operation of all these controls or memorizing their function is difficult. A blind operation is desirable because the user is about in the
  • a multifunction input element 301 can be operated in various ways, such as by pressing, rotating or shifting, it makes sense to output information on all the effects that the different types of operation may have.
  • an attitude of about a hand 201 of the user may be detected, which approaches or touches the multi-function input member 301.
  • the information can be specifically outputted for the effects that can be achieved by operating the multi-function input member 301 with the current posture.
  • a rotary control 304 Since this can only be rotated with a certain hand position, the information is output only when the corresponding posture is detected. In this way, superfluous expenses are avoided during fleeting movements of the user.
  • the cockpit 300 has a plurality of input elements 302. These can for example be designed as push buttons. If the user is looking for a particular input element 302 but does not want to look away from the screen 315, textual or graphical elements may be displayed on the latter. If an approach or contact of the user to one of the input elements 302 is detected, the shape or color of the associated element on the screen 315 is changed, for example.
  • a touch of other controls such as a toggle switch 303, a pedal 305 or a steering wheel 310 may lead to an output corresponding information.
  • an acoustic output via loudspeaker 316 can also take place.
  • Detection of the approach or contact is effected by a sensor system 313.
  • contact sensors, cameras, infrared sensors, temperature sensors, laser monitoring systems can be used alone or in combination. The detection is based here, for example, in a video surveillance system on conventional tracking methods. As a reference point for the tracking, for example, the fingertip of the user can be determined.
  • an approach or a touch can be detected.
  • the information can be output as text or as language: "By By activating this input element you can increase the room temperature. "
  • Figure 4 shows a mobile phone 400.
  • This has keys 402 which can be pressed by a user with a fingertip 401.
  • the mobile phone 400 includes a screen 405 and a speaker 406.
  • a swash plate 412 is available for input.
  • a touch of the fingertip 401 with one of the keys 402 or the swashplate 412 is preferably registered by touch sensors.
  • the swash plate 412 it can additionally be detected which side of the swash plate 412 is touched. Subsequently, information is output via the screen 405 or the speaker 406, which would cause the depression of the respective button 402 or the respective side of the swash plate 412.
  • FIG. 5 shows a multimedia device 500.
  • This has a display 505. Furthermore, it contains loudspeaker 506 and input elements 502.
  • hints on the function of the input elements 502 can be output visually or acoustically already before their actuation via the display 505 or the loudspeakers 506.
  • the multimedia device 500 includes a knob that controls the tuner of a built-in radio receiver, touching or approaching the dial on the display 505 may display a scale or list of possible frequencies or stations.
  • the input preview is not the blind operation, but a simplified operation.
  • user interfaces are conceivable which enable an input preview in accordance with the exemplary embodiments mentioned. This may allow a surgeon to perform an operation via a user interface, for example actual intervention is guided by robotic arms. Since the surgeon can not proceed according to the trial-end error principle here, he needs information on which functions the individual input elements are assigned. The information may also include medical knowledge and physiological data of the patient.
  • the embodiments may be implemented as hardware, such as electronic circuitry, or software. All mentioned embodiments can be used in any combination.

Abstract

The invention relates to an input forecasting method in which a sensor detects that a user extremity comes closer to an input element or is brought into contact therewith when said input element is not actuated. In addition, a data processing unit outputs, by means of an output device, information about at least one effect which can take place by the input element actuation.

Description

Beschreibungdescription
Verfahren zur Eingabevorschau und Benutzerschnittstelle mit EingabevorschauProcedure for input preview and user interface with input preview
Die Erfindung betrifft ein Verfahren zur Eingabevorschau. Herkömmliche Benutzerschnittstellen setzen voraus, dass ein Benutzer die Funktion ihrer Eingabeelemente deren Beschriftung, seinem Vorwissen oder einer Bedienungsanleitung entnehmen kann. Bei den Eingabeelementen einerThe invention relates to a method for input preview. Conventional user interfaces assume that a user can extract the function of their input elements from their labeling, prior knowledge or operating instructions. For the input elements of a
Benutzerschnittstelle kann es sich hierbei etwa um Tasten, Knöpfe, Schalter, Drehregler, Jog-Dials, Taumelscheiben, Joysticks, Pedale, Dreh-Drück-Knöpfe, Barrel-Keys, Drehwähler, Fußschalter, Pedale und ähnliche einfache oder komplexe Eingabeelemente handeln. So werden etwa die Tasten herkömmlicher Tastaturen beschriftet, damit der Benutzer die Wirkung eines Tastendrucks vorhersehen kann, bevor er die betreffende Taste drückt. Eingabeelemente in einem Fahrzeug werden ebenfalls durch Symbole oder farbliche Codierung beschriftet, um dem Benutzer einen Hinweis auf ihre Funktion zu geben.The user interface may include buttons, knobs, switches, knobs, jog dials, swashplates, joysticks, pedals, rotary pushbuttons, barrel keys, rotary dials, footswitches, pedals, and similar simple or complex input elements. For example, the keys of conventional keyboards are labeled so that the user can predict the effect of a key press before pressing the key concerned. Input elements in a vehicle are also labeled by symbols or color coding to give the user an indication of their function.
Bei einer Vielzahl von Eingabeelementen, wie sie etwa in heutigen Fahrzeugen zu finden sind, oder bei einem Benutzer ohne Vorwissen, muss jedoch davon ausgegangen werden, dass der Benutzer die Funktion der Eingabeelemente nicht allein ihrer Beschriftung entnehmen kann. In diesem Fall muss der Benutzer eine Bedienungsanleitung zu Rate ziehen. Gleiches gilt, wenn über ein Eingabeelement komplexe oder kontextabhängige Funktionen ausgelöst werden können. So ist bei Dreh-Drück-Knöpfen in Fahrzeugen, über die in einem komplexen Menü navigiert und eine Vielzahl von Funktionen kontextabhängig gewählt werden kann, eine einfache Beschriftung des Elements zur Erläuterung seiner Funktion nicht mehr ausreichend. Vergleichbares gilt fürHowever, with a variety of input elements, such as found in today's vehicles, or a user without previous knowledge, it must be assumed that the user can not extract the function of the input elements alone their caption. In this case, the user must consult a manual. The same applies if complex or context-dependent functions can be triggered via an input element. Thus, with rotary push buttons in vehicles, navigated in a complex menu and a variety of functions can be selected context-dependent, a simple label of the element to explain its function is no longer sufficient. The same applies to
Tastenkombinationen bei der Bedienung eines Computers, deren Funktion sich nicht aus der Beschriftung der Tastatur entnehmen lässt. Hier muss der Benutzer entweder die Funktion der Eingabeelemente auswendig lernen oder eine Bedienungsanleitung lesen. Alternativ besteht die Möglichkeit, das jeweilige Eingabeelement bzw. die Tastenkombination einfach zu betätigen und nach dem Versuch- und-Irrtum-Prinzip (trial and error) die Funktion derKeyboard shortcuts when operating a computer whose function can not be deduced from the lettering on the keyboard. Here the user must either the function memorize the input items or read a manual. Alternatively, it is possible to simply operate the respective input element or the key combination and the function of the trial and error principle according to the trial and error principle
Eingabeelemente zu erlernen. Eine solche Herangehensweise kann jedoch zu Bedienfehlern führen und wird nicht von allen Benutzern akzeptiert.To learn input elements. However, such an approach can lead to operator errors and is not accepted by all users.
Insbesondere beim Führen eines Fahrzeugs ist es nicht wünschenswert, dass der Benutzer den Blick senken muss, um anhand der Beschriftung das richtige Eingabeelement zu identifizieren. Hier sollen Blick und Aufmerksamkeit des Fahrers nach Möglichkeit auf der Fahrbahn verbleiben. Dies ist problematisch, da es dem Fahrer je nach Position und Komplexität der Eingabeelemente schwer fällt, diese ohne hinzusehen zu lokalisieren, korrekt zu betätigen und die Reaktion des Systems auf seine Eingabe vorherzusehen. In herkömmlichen Benutzerschnittstellen werden die Eingabeelemente daher so angepasst, dass beispielsweise ein Umgreifen nicht erforderlich ist. Hierbei entstehen jedoch erhebliche Restriktionen für die Gestaltung der Eingabeelemente. Andernfalls muss in Kauf genommen werden, dass der Fahrer doch einige Male auf die Eingabeelemente blicken muss, um seine Eingabe vorzunehmen.In particular, when driving a vehicle, it is not desirable for the user to have to look down to identify the correct input element from the label. Here, the driver's eye and attention should, if possible, remain on the road. This is problematic because, depending on the position and complexity of the input elements, it is difficult for the driver to locate, correct, and predict the system response to his input without looking. In conventional user interfaces, the input elements are therefore adapted so that, for example, embracing is not required. However, this creates considerable restrictions on the design of the input elements. Otherwise, it has to be accepted that the driver has to look at the input elements a few times to make his input.
Es stellt sich somit die Aufgabe, ein Verfahren und eine Benutzerschnittstelle anzugeben, welche es einem Benutzer erleichtern, Eingabeelemente zu bedienen, deren Funktion ihm unbekannt ist oder die er zum Zeitpunkt der Bedienung nicht ansehen will.It is therefore the object to provide a method and a user interface, which make it easier for a user to operate input elements whose function is unknown to him or he does not want to view at the time of operation.
Diese Aufgabe wird durch das Verfahren zur Eingabevorschau und die Benutzerschnittstelle mit Eingabevorschau gemäß den unabhängigen Patentansprüchen gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert. Bei dem Verfahren zur Eingabevorschau detektiert ein Sensor eine Annäherung einer Extremität eines Benutzers an ein Eingabeelement oder eine Berührung der Extremität mit dem Eingabeelement, ohne dass das Eingabeelement betätigt wird. Weiterhin gibt eine Datenverarbeitungseinheit über einThis object is achieved by the input preview method and the input-preview user interface according to the independent claims. Further developments of the invention are defined in the dependent claims. In the input preview method, a sensor detects an approach of a user's extremity to an input element or a touch of the extremity to the input element without actuating the input element. Furthermore, a data processing unit inputs via
Ausgabegerät eine Information über mindestens einen Effekt aus, den eine Betätigung des Eingabeelements haben kann.Output device information about at least one effect, which may have an actuation of the input element.
Die Benutzerschnittstelle mit Eingabevorschau weist einen Sensor auf, der eine Annäherung einer Extremität eines Benutzers an ein Eingabeelement oder eine Berührung der Extremität mit dem Eingabeelement detektieren kann, ohne dass das Eingabeelement betätigt wird. Weiterhin weist die Benutzerschnittstelle eine Datenverarbeitungseinheit auf, welche über ein Ausgabegerät eine Information über mindestens einen Effekt ausgeben kann, den eine Betätigung des Eingabeelements haben kann.The user interface with input preview has a sensor that can detect an approach of a user's extremity to an input element or a touch of the extremity with the input element, without the input element being actuated. Furthermore, the user interface to a data processing unit, which can output via an output device information about at least one effect, which can have an actuation of the input element.
Bei der Extremität kann es sich etwa um eine Hand, einen Fuß oder eine Fingerspitze eines Benutzers handeln. Es kann entweder eine Annäherung oder eine Berührung, aber auch beides detektiert werden.The extremity may be a user's hand, foot or fingertip, for example. Either an approach or a touch, but also both can be detected.
Das Verfahren zur Eingabevorschau bzw. die Benutzerschnittstelle mit Eingabevorschau weisen zahlreiche Vorteile auf. So bekommt der Benutzer eine Vorschau über mögliche Interaktionen, die er auslösen könnte. Falls die Vorschau nicht seiner Handlungsabsicht entspricht, kann er beispielsweise seine Hand einfach anders positionieren. Aufwändige Korrekturen bei falschen Eingaben sind nicht notwendig, solange das Eingabeelement nicht tatsächlich betätigt wurde. Hierdurch steigt die Effizienz der Bedienung. Eingabefehler verringern sich und die Ablenkung etwa eines Fahrers im Straßenverkehr wird deutlich verringert, wodurch die Verkehrssicherheit verbessert wird.The method of input preview or the user interface with input preview have numerous advantages. This gives the user a preview of possible interactions he might trigger. For example, if the preview does not reflect his intention to act, he can simply reposition his hand differently. Elaborate corrections for incorrect entries are not necessary as long as the input element has not actually been actuated. This increases the efficiency of operation. Input errors are reduced and the distraction of about a driver in traffic is significantly reduced, thereby improving traffic safety.
Weiterhin werden zahlreiche Anwendungen vereinfacht oder erstmals möglich, die eine Blindbedienung von Eingabeelementen erfordern. Auch hier sinkt das Risiko von Fehlbedienungen bei gleichzeitiger Steigerung der Effizienz. Eine Selbstbeschreibungsfähigkeit, Erwartungskonformität und Bedienfreundlichkeit der Benutzerschnittstelle werden erhöht.Furthermore, numerous applications are simplified or made possible for the first time, including a blind operation of Require input elements. Here, too, the risk of operating errors decreases while at the same time increasing efficiency. A self-descriptiveness, expectation conformity and user-friendliness of the user interface are increased.
Die Eingabevorschau ermöglicht es einem Benutzer, das von ihm gewünschte Eingabeelement auch ohne Hinsehen zu lokalisieren. Weiterhin können die ausgegebenen Informationen ein Nachschlagen in einer Bedienungsanleitung ersparen.The input preview allows a user to locate the desired input element without looking at it. Furthermore, the output information can save a lookup in a manual.
In einer Weiterbildung wird eine Haltung der Extremität klassifiziert. Weiterhin wird eine Information über mindestens einen Effekt ausgegeben, den eine Betätigung des Eingabeelements mit dieser Haltung haben kann.In one development, an attitude of the extremity is classified. Furthermore, information is output about at least one effect that an actuation of the input element can have with this attitude.
Diese Weiterbildung kommt bei komplexen Eingabeelementen zum Tragen, die je nach Handposition bzw. Handhaltung etwa gedrückt, gedreht oder verschoben werden können. Die Weiterbildung identifiziert nun die jeweilige Haltung der Extremität des Benutzers und gibt eine Information aus, welche Interaktionen mit der aktuellen Haltung vorgenommen werden können. So wird bei einem Drehwähler die Information erst ausgegeben, wenn eine Haltung klassifiziert wird, die tatsächlich eine Drehung des Drehwählers ermöglicht. Auf diese Weise wird sichergestellt, dass die Information erst dann ausgegeben wird, wenn sich der Benutzer für die Betätigung bereit macht, und dass die Information spezifisch für die Form der Betätigung ausgegeben werden kann, welche der Benutzer beabsichtigt.This development comes in complex input elements to fruition, which can be pressed, rotated or moved depending on the hand position or hand position. The training now identifies the respective posture of the extremity of the user and provides information about which interactions can be made with the current posture. Thus, with a rotary selector, the information is only output when classifying a pose that actually allows rotation of the rotary selector. In this way, it is ensured that the information is output only when the user prepares for the operation, and that the information can be issued specifically for the form of the operation which the user intends.
Gemäß einer Ausführungsform ist das Ausgabegerät ein Bildschirm. Auf dem Bildschirm wird ein Element angezeigt, welches das Eingabeelement repräsentiert. Nach der Detektion werden Farbe oder Form des Elements auf dem Bildschirm verändert.According to one embodiment, the output device is a screen. An item is displayed on the screen representing the input item. After detection, the color or shape of the item is changed on the screen.
Diese Ausführungsform ermöglicht es dem Benutzer, das gewünschte Eingabeelement schnell und einfach zu lokalisieren, indem ihm eine entsprechende Selektion angezeigt wird. Es kann entweder die Farbe oder die Form des Elements auf dem Bildschirm, aber auch beides verändert werden. Weiterhin können Position, Größe oder Anordnung des Elements auf dem Bildschirm variiert werden. Das Element kann beispielsweise ein Icon sein.This embodiment allows the user to quickly and easily access the desired input element locate it by displaying a corresponding selection. It can be changed either the color or the shape of the element on the screen, but also both. Furthermore, the position, size or arrangement of the element can be varied on the screen. The element may be, for example, an icon.
In einer weiteren Ausführungsform wird nach der Detektion auf dem Bildschirm ein Zustand eingeblendet, welcher durch Betätigung des Eingabeelements eintreten würde.In a further embodiment, after the detection on the screen, a state appears, which would occur by pressing the input element.
Diese Ausführungsform ermöglicht eine besonders intuitive Vorschau auf die Wirkung einer Betätigung des Eingabeelements .This embodiment enables a particularly intuitive preview of the effect of an actuation of the input element.
In einer anderen Ausführungsform wird die Information auf einem Bildschirm als textuelle Beschreibung ausgegeben. Ähnlich den "Tool-Tipps" für unbekannte Icons auf Symbolleisten in Windows-Anwendungen erfährt der Benutzer so vorab die Funktion des betreffenden Eingabeelements.In another embodiment, the information is output on a screen as a textual description. Similar to the "Tool Tips" for unknown icons on toolbars in Windows applications, the user thus learns in advance the function of the respective input element.
Ergänzend oder alternativ kann die Information auch akustisch ausgegeben werden. Dies ist insbesondere im Straßenverkehr oder für blinde Benutzer vorteilhaft, da hier der Blick auf einen Bildschirm gänzlich entfallen kann. Die akustischeAdditionally or alternatively, the information can also be output acoustically. This is particularly advantageous in traffic or for blind users, since the view of a screen can be omitted entirely. The acoustic
Ausgabe kann durch ein nicht-sprachliches Signal erfolgen, wodurch etwa ein Gespräch des Fahrers weniger beeinträchtigt wird.Output can be made by a non-voice signal, thereby affecting less the driver's conversation.
Die akustische Ausgabe kann jedoch auch eine Sprachausgabe sein. Dies ermöglicht es, dem Benutzer einen genauen Hinweis zur Funktion des Eingabeelements auszugeben.However, the acoustic output can also be a voice output. This makes it possible to give the user an accurate indication of the function of the input element.
In einer Weiterbildung wird die Information erst ausgegeben, nachdem die Annäherung oder Berührung über einen vorgegebenen Zeitraum detektiert wurde. Ähnlich den "Tool-Tipps" wird die Information somit nur ausgegeben, wenn sich der Benutzer über die Funktion des jeweiligen Eingabeelements im Unklaren ist.In a further development, the information is output only after the approach or contact has been detected over a predetermined period of time. Similar to the "tool tips", the information is thus output only if the user is uncertain about the function of the respective input element.
In einer weiteren Ausführungsform kann die Betätigung des Eingabeelements unterschiedliche Effekte haben. Die Information beschreibt die unterschiedlichen Effekte.In a further embodiment, the actuation of the input element may have different effects. The information describes the different effects.
Dies ist besonders bei komplexen Eingabeelementen von Vorteil, welche eine Vielzahl von Funktionen bereitstellen. Weiterhin kann auf diese Weise auch ein Spektrum, eine Skala oder eine Liste anwählbarer Werte etwa beim Berühren eines Drehwählers angezeigt werden.This is particularly advantageous for complex input elements that provide a variety of functions. Furthermore, a spectrum, a scale or a list of selectable values can be displayed in this way, for example when touching a rotary selector.
In einer Weiterbildung ist das Eingabeelement eine Taste auf einer Tastatur. Durch die Vorschau kann hier auch ohne ein Drücken der Taste eine Information über ihre Funktion ausgegeben werden. Dies ist insbesondere bei Funktionstasten vorteilhaft .In a further development, the input element is a key on a keyboard. Through the preview, information about its function can also be output here without pressing the key. This is particularly advantageous with function keys.
In einer besonderen Weiterbildung werden mehrere Annäherungen oder Berührungen gleichzeitig detektiert. Die Information beschreibt hierbei mindestens einen Effekt, der durch das Drücken der entsprechenden Tastenkombination hervorgerufen würde. Auf diese Weise wird es möglich, auch eineIn a particular embodiment, multiple approaches or touches are detected simultaneously. The information here describes at least one effect that would be caused by pressing the corresponding key combination. In this way it becomes possible, even one
Eingabevorschau für Tastenkombinationen bereitzustellen.Provide input preview for keyboard shortcuts.
Gemäß einer Ausführungsform ist der Sensor ein Berührungssensor, eine Kamera oder ein Infrarotsensor. Der Berührungssensor ermöglicht ein besonders genaues Tracking der Extremität des Benutzers, insbesondere bei einer Vielzahl kleiner Eingabeelemente. Die Kamera ist vorteilhaft, da sie eine Vielzahl von Berührungssensoren ersetzen kann. Weiterhin ermöglicht sie den Einsatz eines der ausgereiften Verfahren im Bereich des Kameratrackings . Der Infrarotsensor ist insbesondere in dunklen Umgebungen im Vorteil. In einer Weiterbildung wird der Sensor durch ein System mit mehreren Sensoren gebildet. So sind etwa bei einer Vielzahl von kleinen Schaltern entsprechend viele Berührungssensoren wünschenswert. Alternativ können unterschiedliche Technologien kombiniert werden, um die Genauigkeit des Trackings zu erhöhen oder die jeweils kostengünstigste Trackingtechnologie zu wählen.According to one embodiment, the sensor is a touch sensor, a camera or an infrared sensor. The touch sensor allows a particularly accurate tracking of the extremity of the user, especially in a variety of small input elements. The camera is advantageous because it can replace a variety of touch sensors. Furthermore, it allows the use of one of the most mature techniques in the field of camera tracking. The infrared sensor is particularly advantageous in dark environments. In a development, the sensor is formed by a system with multiple sensors. For example, a large number of small switches require a corresponding number of touch sensors. Alternatively, different technologies can be combined to increase the accuracy of tracking or choose the most cost-effective tracking technology.
Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert, die in den Figuren schematisch dargestellt sind. Gleiche Bezugszeichen in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im einzelnen zeigt:In the following, the invention will be explained in more detail with reference to exemplary embodiments, which are shown schematically in the figures. The same reference numerals in the individual figures indicate the same elements. In detail shows:
Figur 1 eine BenutzerschnittstelleFigure 1 is a user interface
Figur 2 einen PC-ArbeitsplatzFigure 2 shows a PC workstation
Figur 3 ein Fahrzeug-CockpitFigure 3 is a vehicle cockpit
Figur 4 ein MobiltelefonFigure 4 is a mobile phone
Figur 5 ein Multimediagerät.Figure 5 is a multimedia device.
Figur 1 zeigt eine Anordnung 100, welche eine Eingabevorschau ermöglicht. Bei der Anordnung 100 handelt es sich um eine Benutzerschnittstelle, mit der ein Benutzer Eingaben vornehmen kann. Hierfür steht dem Benutzer ein Eingabeelement 102 zur Verfügung, welches er mit einer Extremität 101 bedienen kann. Als Eingabeelement 102 kommen beispielsweise Schalter, Drehregler, Jog-Dial, Taumelscheibe, Joystick, Fußschalter, Pedal, Drehwähler, Dreh-Drück-Knopf, Barrel-Key etc. in Frage. Die Extremität 101 des Benutzers kann etwa eine Hand, eine Fingerspitze oder ein Fuß sein. Hierbei wird durch einen Sensor 103 eine Annäherung oder Berührung derFIG. 1 shows an arrangement 100 which enables an input preview. The arrangement 100 is a user interface with which a user can make inputs. For this purpose, an input element 102 is available to the user, which he can operate with a limb 101. As input element 102, for example, switches, dials, jog dial, swashplate, joystick, foot switch, pedal, rotary selector, rotary push button, barrel key etc. come into question. The extremity 101 of the user may be about a hand, a fingertip or a foot. In this case, by a sensor 103, an approach or touch the
Extremität 101 an das Eingabeelement 102 detektiert. Bei dem Sensor 103 kann es sich um eine Kamera, einen Berührungssensor, einen Temperatursensor oder ähnliches handeln. Es kann auch ein Sensorsystem aus mehreren Sensoren zum Einsatz kommen. Der Sensor 103 detektiert die Annäherung oder Berührung, ohne dass das Eingabeelement 102 tatsächlich betätigt wird. Eine spätere Betätigung ist jedoch nicht ausgeschlossen. Nach der Detektion gibt eineExtremity 101 to the input element 102 detected. The sensor 103 may be a camera, a touch sensor, a temperature sensor, or the like act. It is also possible to use a sensor system comprising a plurality of sensors. The sensor 103 detects the approach or touch without actually actuating the input member 102. A later operation is not excluded. After the detection, there is one
Datenverarbeitungseinheit 104 eine Information über mindestens einen Effekt aus, den eine Betätigung des Eingabeelements 102 haben kann. Die Ausgabe erfolgt hierbei über ein Ausgabegerät 105. Die Datenverarbeitungseinheit 104 kann etwa ein Personalcomputer, ein Prozessor in einem mobilen Endgerät (Videohandy, PDA, Notebook, ... ) oder einem Multimediagerät oder ein eingebettetes System etwa in einem Fahrzeug oder in einer Schalttafel sein. Als Ausgabegerät 105 können sowohl visuelle Ausgabegeräte wie Bildschirme, Projektoren oder LCD-Displays als auch akustischeData processing unit 104 information about at least one effect, which may have an actuation of the input element 102. The output here takes place via an output device 105. The data processing unit 104 may be, for example, a personal computer, a processor in a mobile terminal (video cell phone, PDA, notebook,...) Or a multimedia device or an embedded system, for example in a vehicle or in a dashboard , As output device 105 can both visual output devices such as screens, projectors or LCD displays and acoustic
Ausgabegeräte wie Einzellautsprecher oder Surround-Systeme dienen .Output devices such as single speakers or surround systems are used.
Die Information gibt hierbei an, was die Betätigung des Eingabeelements 102 bewirken würde. Die Information kann alsThe information indicates what the actuation of the input element 102 would do. The information can be as
Text, als Symbol oder als Grafik visuell ausgegeben werden.Text, as a symbol or as a graphic to be displayed visually.
Akustisch kann die Information als Sprachsignal oder als nicht-sprachliches Signal ausgegeben werden. Verweilt dieAcoustically, the information can be output as a speech signal or as a non-speech signal. Sorry the
Fingerspitze des Benutzers etwa auf einem Druckknopf, welcher die Lautstärke einer Musikwiedergabe erhöhen kann, so wird z.B. die Lautstärke der Musikwiedergabe vorübergehend erhöht.For example, if the user's fingertip is on a pushbutton, which may increase the volume of music playback, e.g. temporarily increases the volume of music playback.
In diesem Fall wird die Information also akustisch, aber nicht-sprachlich ausgegeben.In this case, the information is thus output acoustically, but non-linguistically.
Die Information kann auch angeben, wie das Eingabeelement 102 zu bedienen ist, etwa dass das Eingabeelement 102 gedreht werden kann, um einen bestimmten Effekt zu erzielen.The information may also indicate how to operate the input element 102, such as that the input element 102 may be rotated to achieve a particular effect.
Figur 2 zeigt einen PC-Arbeitsplatz 200, welcher eine Eingabevorschau ermöglicht. Hierbei bedient ein Benutzer mit einer Hand 201 und einem Fuß 211 eine Tastatur 210 sowie einen Fußschalter 212. Weiterhin detektiert eine Kamera 203 eine Annäherung oder Berührung einer Fingerspitze des Benutzers an eine Taste 202, ohne dass der Benutzer diese Taste 202 drückt. Anschließend wird über einen Personal- Computer 204 eine Information ausgegeben, was der Druck der Taste 202 im aktuellen Kontext bewirken würde. Die ausgegebene Information kann hierbei vom aktuellen Menü oder Zustand einer Anwendung auf dem Personal-Computer 204 abhängig sein. Die Ausgabe kann wahlweise über einen Bildschirm 205 oder über Lautsprecher 206 erfolgen. Auch in Bezug auf den Fußschalter 212 kann in Abhängigkeit von seiner aktuellen Funktion eine entsprechende Information ausgegeben werden. Bei dieser wie auch bei allen anderen Ausführungsformen kann es sinnvoll sein, die Ausgabe der Information erst nach einer vorgegebenen Zeitspanne vorzunehmen. Wenn der Benutzer beispielsweise mit seiner Fingerspitze länger als 1,5 Sekunden auf der Taste 202 verweilt, wird davon ausgegangen, dass er eine Hilfestellung benötigt, woraufhin die Information ausgegeben wird.FIG. 2 shows a PC workstation 200, which enables an input preview. Here, a user with a hand 201 and a foot 211 operates a keyboard 210 and a foot switch 212. Further, a camera 203 detects an approach or touch of a fingertip of the finger User to a key 202 without the user pressing this key 202. Subsequently, information is output via a personal computer 204, which would result in the pressure of the key 202 in the current context. The information output here may depend on the current menu or state of an application on the personal computer 204. The output can be made either via a screen 205 or via speaker 206. Also with respect to the foot switch 212, corresponding information may be output depending on its current function. In this as well as in all other embodiments, it may be useful to make the output of the information after a predetermined period of time. For example, if the user lingers on button 202 with his fingertip for more than 1.5 seconds, it is considered that he needs help, and then the information is output.
Führt die Betätigung eines Eingabeelements zu einem Zustandwechsel der jeweiligen Anwendung, so kann auf dem Bildschirm 205 als Vorschau in den jeweiligen Zustand überblendet werden. Bewirkt etwa das Drücken der Taste 202 den Wechsel in ein Untermenü, so kann eine Annäherung oder Berührung der Taste durch den Benutzer dazu führen, dass das jeweilige Untermenü vorübergehend eingeblendet wird. Drückt der Benutzer die Taste 202 daraufhin tatsächlich, wechselt die jeweilige Anwendung tatsächlich in den vorab gezeigten Zustand. Bei dieser und allen anderen Ausführungsformen ist auch eine Kombination der genannten Ausgabearten möglich.If the actuation of an input element leads to a state change of the respective application, it can be superimposed on the screen 205 as a preview in the respective state. If, for example, pressing the key 202 causes the change to a submenu, then an approaching or touching of the key by the user can cause the respective submenu to be temporarily displayed. When the user actually presses the button 202, the respective application actually changes to the state shown above. In this and all other embodiments, a combination of the aforementioned types of output is possible.
Berührt der Benutzer mehrere Tasten gleichzeitig, ohne diese zu drücken, so kann als Vorschau eine Information über den Effekt ausgegeben werden, welche die jeweilige Tastenkombination derzeit in der aktuellen Anwendung bewirken würde. In einer Textverarbeitung könnte das Berühren mehrerer Tasten hierbei etwa Formatierungen vorübergehend bewirken - kursiv, unterstrichen etc.. Das geänderte Format wird dabei nur vorübergehend angezeigt, solange die entsprechende Tastenkombination berührt wird, und nur dann übernommen, wenn der Benutzer die Tasten tatsächlich drückt.If the user touches several keys at the same time without pressing them, a preview of information about the effect which the respective key combination would currently effect in the current application can be output. For example, in a word processor, touching several keys may temporarily cause formatting - italics, underlining, etc. The changed format will only be displayed temporarily, as long as the corresponding format is displayed Keyboard shortcut is touched, and only accepted when the user actually presses the keys.
Figur 3 zeigt ein Cockpit 300. Das Cockpit 300 kann ein Piloten-Cockpit in einem Flugzeug, ein Fahrer-Cockpit in einem Fahrzeug oder auch ein Cockpit in einem Schiff, Unterseeboot oder Simulator sein. Bei dem Cockpit kann es sich weiterhin auch um eine Bedienkonsole für ein medizinisches Operationssystem oder um jede andere Benutzerschnittstelle handeln. Das Cockpit zeichnet sich durch eine Vielzahl von Bedienelementen aus, teilweise mit hoher Komplexität. Für einen Benutzer bzw. Fahrer ist eine Blindbedienung all dieser Bedienelemente bzw. das Auswendiglernen ihrer Funktion nur schwer möglich. Eine Blindbedienung ist wünschenswert, da der Benutzer etwa imFIG. 3 shows a cockpit 300. The cockpit 300 may be a pilot's cockpit in an airplane, a driver's cockpit in a vehicle or else a cockpit in a ship, submarine or simulator. The cockpit may also be a medical surgical system operator console or any other user interface. The cockpit is characterized by a variety of controls, sometimes with high complexity. For a user or driver, a blind operation of all these controls or memorizing their function is difficult. A blind operation is desirable because the user is about in the
Straßenverkehr die Umgebung durch eine Windschutzschreibe 320 beobachten möchte, ohne den Blick auf die Bedienelemente zu richten. In diesem Kontext werden üblicherweise die Bedienelemente von einem Bildschirm 315 getrennt angeordnet, damit dieser möglichst nah an der Windschutzscheibe 320 platziert werden kann. Um ein Umgreifen des Benutzers zu vermeiden, werden hierbei oft mehrere Funktionen über ein Multifunktions-Eingabeelement 301 zugänglich gemacht. Da ein solches Multifunktions-Eingabeelement 301 auf unterschiedliche Arten betätigt werden kann, etwa durch Drücken, Drehung oder Verschieben, ist es sinnvoll, Informationen zu allen Effekten auszugeben, die die unterschiedlichen Betätigungsarten haben können. Alternativ kann eine Haltung etwa einer Hand 201 des Benutzers detektiert werden, welche sich an das Multifunktions- Eingabeelement 301 annähert oder dieses berührt. Da bestimmte Betätigungsarten, wie etwa eine Drehung, nur mit einer bestimmten Haltung möglich sind, kann die Information spezifisch für die Effekte ausgegeben werden, die durch eine Betätigung des Multifunktions-Eingabeelements 301 mit der aktuellen Haltung erzielt werden können. Gleiches gilt etwa für einen Drehregler 304. Da dieser nur mit einer bestimmten Handhaltung gedreht werden kann, wird die Information erst dann ausgegeben, wenn die entsprechende Haltung detektiert wird. Auf diese Weise werden überflüssige Ausgaben bei flüchtigen Bewegungen des Benutzers vermieden.Road traffic would like to observe the environment through a Windschutzschreibe 320, without directing the view of the controls. In this context, usually the controls are separated from a screen 315 so that it can be placed as close to the windshield 320 as possible. In order to avoid encompassing the user, several functions are often made accessible via a multifunction input element 301 here. Since such a multi-function input element 301 can be operated in various ways, such as by pressing, rotating or shifting, it makes sense to output information on all the effects that the different types of operation may have. Alternatively, an attitude of about a hand 201 of the user may be detected, which approaches or touches the multi-function input member 301. Since certain types of operation, such as rotation, are possible only with a certain attitude, the information can be specifically outputted for the effects that can be achieved by operating the multi-function input member 301 with the current posture. The same applies, for example, to a rotary control 304. Since this can only be rotated with a certain hand position, the information is output only when the corresponding posture is detected. In this way, superfluous expenses are avoided during fleeting movements of the user.
Das Cockpit 300 weist eine Vielzahl von Eingabeelementen 302 auf. Diese können beispielsweise als Druckknöpfe ausgeführt sein. Wenn der Benutzer nach einem bestimmten Eingabeelement 302 sucht, seinen Blick aber nicht vom Bildschirm 315 abwenden möchte, so können auf letzterem textuelle oder graphische Elemente angezeigt werden. Wird nun eine Annäherung oder Berührung des Benutzers an eine der Eingabeelemente 302 detektiert, so wird beispielsweise die Form oder Farbe des zugeordneten Elements auf dem Bildschirm 315 verändert.The cockpit 300 has a plurality of input elements 302. These can for example be designed as push buttons. If the user is looking for a particular input element 302 but does not want to look away from the screen 315, textual or graphical elements may be displayed on the latter. If an approach or contact of the user to one of the input elements 302 is detected, the shape or color of the associated element on the screen 315 is changed, for example.
Auch eine Berührung weiterer Bedienelemente, etwa eines Kippschalters 303, eines Pedals 305 oder eines Lenkrads 310 kann hierbei zu einer Ausgabe entsprechender Informationen führen. Alternativ oder ergänzend zu einer visuellen Ausgabe über den Bildschirm 315 kann auch eine akustische Ausgabe über Lautsprecher 316 erfolgen. Die Detektion der Annäherung oder Berührung erfolgt hierbei durch ein Sensorsystem 313. Für das Sensorsystem 313 können etwa Berührungssensoren, Kameras, Infrarotsensoren, Temperatursensoren, Laserüberwachungssysteme jeweils allein oder in Kombination zum Einsatz kommen. Die Detektion basiert hierbei etwa bei einem Videoüberwachungssystem auf herkömmlichen Trackingverfahren . Als Referenzpunkt für das Tracking kann etwa die Fingerspitze des Benutzers ermittelt werden. Je nach Ausgestaltung des Sensorsystems 313 kann eine Annäherung oder eine Berührung detektiert werden. So kann auf Basis eines Kameratrackings eine Annäherung detektiert werden, sobald der Abstand der Hand 201 zum jeweiligen Eingabeelement einen vorgegebenen Schwellwert unterschreitet. Die Information kann etwa als Text oder als Sprache ausgegeben werden: "Durch Betätigung dieses Eingabeelements können Sie die Raumtemperatur erhöhen."A touch of other controls, such as a toggle switch 303, a pedal 305 or a steering wheel 310 may lead to an output corresponding information. Alternatively or in addition to a visual output via the screen 315, an acoustic output via loudspeaker 316 can also take place. Detection of the approach or contact is effected by a sensor system 313. For the sensor system 313, contact sensors, cameras, infrared sensors, temperature sensors, laser monitoring systems can be used alone or in combination. The detection is based here, for example, in a video surveillance system on conventional tracking methods. As a reference point for the tracking, for example, the fingertip of the user can be determined. Depending on the configuration of the sensor system 313, an approach or a touch can be detected. Thus, on the basis of a camera tracking approach can be detected as soon as the distance of the hand 201 to the respective input element falls below a predetermined threshold. The information can be output as text or as language: "By By activating this input element you can increase the room temperature. "
Figur 4 zeigt ein Mobiltelefon 400. Dieses weist Tasten 402 auf, welche durch einen Benutzer mit einer Fingerspitze 401 gedrückt werden können. Weiterhin enthält das Mobiltelefon 400 einen Bildschirm 405 und einen Lautsprecher 406. Neben den Tasten 402 steht eine Taumelscheibe 412 zur Eingabe zur Verfügung. In diesem Ausführungsbeispiel wird eine Berührung der Fingerspitze 401 mit einer der Tasten 402 oder der Taumelscheibe 412 vorzugsweise durch Berührungssensoren registriert. Etwa bei der Taumelscheibe 412 kann hierbei zusätzlich detektiert werden, welche Seite der Taumelscheibe 412 berührt wird. Anschließend wird über den Bildschirm 405 oder den Lautsprecher 406 eine Information ausgegeben, was das Drücken der jeweiligen Taste 402 oder der jeweiligen Seite der Taumelscheibe 412 bewirken würde.Figure 4 shows a mobile phone 400. This has keys 402 which can be pressed by a user with a fingertip 401. Furthermore, the mobile phone 400 includes a screen 405 and a speaker 406. In addition to the buttons 402, a swash plate 412 is available for input. In this embodiment, a touch of the fingertip 401 with one of the keys 402 or the swashplate 412 is preferably registered by touch sensors. For example, in the case of the swash plate 412, it can additionally be detected which side of the swash plate 412 is touched. Subsequently, information is output via the screen 405 or the speaker 406, which would cause the depression of the respective button 402 or the respective side of the swash plate 412.
Figur 5 zeigt ein Multimediagerät 500. Dieses weist ein Display 505 auf. Weiterhin enthält es Lautsprecher 506 und Eingabeelemente 502. Auch hier können Hinweise zur Funktion der Eingabeelemente 502 bereits vor deren Betätigung über das Display 505 oder die Lautsprecher 506 visuell bzw. akustisch ausgegeben werden. Wenn das Multimediagerät 500 beispielsweise einen Drehregler aufweist, durch welchen der Tuner eines eingebauten Radioempfängers steuerbar ist, so kann eine Berührung oder Annäherung an den Drehregler auf dem Display 505 eine Skala oder Liste möglicher Frequenzen oder Sender einblenden. Hier dient die Eingabevorschau nicht der Blindbedienung, sondern einer vereinfachten Betätigung.FIG. 5 shows a multimedia device 500. This has a display 505. Furthermore, it contains loudspeaker 506 and input elements 502. Here, too, hints on the function of the input elements 502 can be output visually or acoustically already before their actuation via the display 505 or the loudspeakers 506. For example, if the multimedia device 500 includes a knob that controls the tuner of a built-in radio receiver, touching or approaching the dial on the display 505 may display a scale or list of possible frequencies or stations. Here, the input preview is not the blind operation, but a simplified operation.
Weitere denkbare Ausführungsformen können sich auf beliebige Haushaltsgeräte wie etwa Waschmaschinen erstrecken.Other conceivable embodiments may extend to any household appliances such as washing machines.
Auch im medizintechnischen Kontext sind Benutzerschnittstellen denkbar, welche eine Eingabevorschau entsprechend den genannten Ausführungsbeispielen ermöglichen. Dies kann etwa einem Chirurgen ermöglichen, eine Operation über eine Benutzerschnittstelle durchzuführen, wobei der eigentliche Eingriff durch Roboterarme geführt wird. Da der Chirurg hier nicht nach dem Trial-End-Error-Prinzip vorgehen kann, braucht er Informationen, welchen Funktionen die einzelnen Eingabeelemente zugeordnet sind. Die Informationen können hierbei auch medizinisches Wissen und physiologische Daten des Patienten beinhalten.Also in the context of medical technology, user interfaces are conceivable which enable an input preview in accordance with the exemplary embodiments mentioned. This may allow a surgeon to perform an operation via a user interface, for example actual intervention is guided by robotic arms. Since the surgeon can not proceed according to the trial-end error principle here, he needs information on which functions the individual input elements are assigned. The information may also include medical knowledge and physiological data of the patient.
Die Ausführungsformen können als Hardware, etwa durch eine elektronische Schaltung, oder Software implementiert werden. Alle genannten Ausführungsformen können in beliebiger Kombination zum Einsatz kommen. The embodiments may be implemented as hardware, such as electronic circuitry, or software. All mentioned embodiments can be used in any combination.

Claims

Patentansprüche claims
1. Verfahren zur Eingabevorschau, bei dem1. Method for input preview, in which
- ein Sensor (103) eine Annäherung einer Extremität (101) eines Benutzers an ein Eingabeelement (102) oder einea sensor (103) an approach of a limb (101) of a user to an input element (102) or a
Berührung der Extremität (101) mit dem Eingabeelement (102) detektiert, ohne dass das Eingabeelement (102) betätigt wird,Touching the extremity (101) with the input element (102) detected without the input element (102) being actuated,
- eine Datenverarbeitungseinheit (104) über ein Ausgabegerät (105) eine Information über mindestens einen Effekt ausgibt, den eine Betätigung des Eingabeelements (102) haben kann.- A data processing unit (104) via an output device (105) outputs information about at least one effect that an actuation of the input element (102) may have.
2. Verfahren nach Anspruch 1, bei dem eine Haltung der Extremität (102) klassifiziert wird und bei dem eine2. The method of claim 1, wherein a posture of the extremity (102) is classified and in which a
Information über mindestens einen Effekt ausgegeben wird, den eine Betätigung des Eingabeelements (102) mit dieser Haltung haben kann.Information about at least one effect is output, which can have an actuation of the input element (102) with this attitude.
3. Verfahren nach Anspruch 1,3. The method according to claim 1,
- bei dem das Ausgabegerät (105) ein Bildschirm (205) ist,in which the output device (105) is a screen (205),
- bei dem auf dem Bildschirm (205) ein Element angezeigt wird, welches das Eingabeelement (102) repräsentiert,in which an element representing the input element (102) is displayed on the screen (205),
- bei dem nach der Detektion Farbe und/oder Form des Elements auf dem Bildschirm (205) verändert werden.- Wherein after the detection color and / or shape of the element on the screen (205) are changed.
4. Verfahren nach Anspruch 1,4. The method according to claim 1,
- bei dem das Ausgabegerät (105) ein Bildschirm (205) ist,in which the output device (105) is a screen (205),
- bei dem nach der Detektion auf dem Bildschirm (205) ein Zustand eingeblendet wird, welcher durch Betätigung des- In which after the detection on the screen (205), a state is displayed, which by pressing the
Eingabeelements (102) eintreten würde.Input element (102) would occur.
5. Verfahren nach Anspruch 1,5. The method according to claim 1,
- bei dem das Ausgabegerät (105) ein Bildschirm (205) ist, - bei dem die Information auf dem Bildschirm (205) als textuelle Beschreibung ausgegeben wird. - In which the output device (105) is a screen (205), - in which the information on the screen (205) is output as a textual description.
6. Verfahren nach Anspruch 1, bei dem die Information über das Ausgabegerät (105) akustisch ausgegeben wird.6. The method of claim 1, wherein the information via the output device (105) is output acoustically.
7. Verfahren nach Anspruch 6, bei dem die akustische Ausgabe eine sprachliche Ausgabe ist.The method of claim 6, wherein the acoustic output is a linguistic output.
8. Verfahren nach Anspruch 1, bei dem die Information erst ausgegeben wird, nachdem die Annäherung oder Berührung über einen vorgegebenen Zeitraum detektiert wurde.8. The method of claim 1, wherein the information is output only after the approach or touch has been detected over a predetermined period of time.
9. Verfahren nach Anspruch 1, bei dem die Betätigung des Eingabeelements (102) unterschiedliche Effekte haben kann und bei dem die Information die unterschiedlichen Effekte beschreibt .9. The method of claim 1, wherein the actuation of the input element (102) may have different effects and wherein the information describes the different effects.
10. Verfahren nach Anspruch 1, bei dem das Eingabeelement (102) eine Taste (202) auf einer Tastatur (210) ist.The method of claim 1, wherein the input element (102) is a key (202) on a keyboard (210).
11. Verfahren nach Anspruch 10, - bei dem mehrere Annäherungen oder Berührungen gleichzeitig detektiert werden,11. The method of claim 10, wherein a plurality of approaches or touches are detected simultaneously,
- bei dem die Information mindestens einen Effekt beschreibt, der durch das Drücken der entsprechenden Tastenkombination hervorgerufen würde.- where the information describes at least one effect that would be caused by pressing the appropriate key combination.
12. Benutzerschnittstelle mit Eingabevorschau,12. User interface with input preview,
- mit einem Sensor (103) , der eine Annäherung einer Extremität (101) eines Benutzers an ein Eingabeelement- With a sensor (103), the approach of a limb (101) of a user to an input element
(102) oder eine Berührung der Extremität (101) mit dem Eingabeelement (102) detektieren kann, ohne dass das Eingabeelement (102) betätigt wird,(102) or can detect a contact of the limb (101) with the input element (102), without the input element (102) being actuated,
- mit einer Datenverarbeitungseinheit (104), welche über ein Ausgabegerät (105) eine Information über mindestens einen Effekt ausgeben kann, den eine Betätigung des Eingabeelements (102) haben kann.- With a data processing unit (104), which can output via an output device (105) information about at least one effect that an actuation of the input element (102) may have.
13. Benutzerschnittstelle nach Anspruch 12, bei dem der Sensor (103) ein Berührungssensor, eine Kamera (203) oder ein Infrarotsensor ist.13. User interface according to claim 12, wherein the sensor (103) a touch sensor, a camera (203) or a Infrared sensor is.
14. Benutzerschnittstelle nach Anspruch 12, bei dem der Sensor (103) durch ein System mit mehreren Sensoren gebildet wird.The user interface of claim 12, wherein the sensor (103) is formed by a multi-sensor system.
15. Benutzerschnittstelle nach Anspruch 12, bei dem das Ausgabegerät (105) ein Bildschirm (205) und/oder ein Lautsprecher (206) ist. 15. User interface according to claim 12, wherein the output device (105) is a screen (205) and / or a loudspeaker (206).
PCT/EP2006/060993 2005-03-31 2006-03-23 Input forecasting method and a user input forecasting interface WO2006103196A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200510014774 DE102005014774A1 (en) 2005-03-31 2005-03-31 Procedure for input preview and user interface with input preview
DE102005014774.7 2005-03-31

Publications (1)

Publication Number Publication Date
WO2006103196A1 true WO2006103196A1 (en) 2006-10-05

Family

ID=36406529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/060993 WO2006103196A1 (en) 2005-03-31 2006-03-23 Input forecasting method and a user input forecasting interface

Country Status (2)

Country Link
DE (1) DE102005014774A1 (en)
WO (1) WO2006103196A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3009304A1 (en) * 2014-10-15 2016-04-20 Hon Hai Precision Industry Co., Ltd. System and method for projecting images of an electronic device on a vehicle window

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007018246A1 (en) * 2007-04-12 2008-10-16 Kässbohrer Geländefahrzeug AG vehicle
DE102012021252A1 (en) 2012-10-30 2014-04-30 Audi Ag Operating device for actuating e.g. DVD player mounted in motor car, has sensors that detect coordinates of operating unit in spatial directions, and evaluation device that determines position of operating unit based on coordinates
DE102012021251A1 (en) 2012-10-30 2014-04-30 Audi Ag Operating device for controlling functional units of motor vehicle, has control device for changing representation of symbol on display depending on position of operating unit relative to touch-sensitive surface
DE102013000085A1 (en) * 2013-01-08 2014-07-10 Audi Ag Method for changing between passive mode and active mode of infotainment system of motor vehicle, involves generating control signal for changing to other modes, if determined distance is smaller than threshold value
DE102014206036A1 (en) * 2014-03-31 2015-10-01 Volkswagen Aktiengesellschaft Operating method and operating system in a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1241558A2 (en) * 2001-03-13 2002-09-18 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US20030076364A1 (en) * 2001-10-18 2003-04-24 International Business Machines Corporation Method of previewing a graphical image corresponding to an icon in a clipboard
US20040008191A1 (en) * 2002-06-14 2004-01-15 Ivan Poupyrev User interface apparatus and portable information apparatus
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
EP1505485A2 (en) * 2003-05-01 2005-02-09 Semantic Compaction Systems A device and method for previewing themes and categories of sequenced symbols

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5311175A (en) * 1990-11-01 1994-05-10 Herbert Waldman Method and apparatus for pre-identification of keys and switches
DE19806024A1 (en) * 1998-02-13 1999-08-19 Siemens Nixdorf Inf Syst Method for monitoring a device operation process and self-service device monitored with it
GB0028712D0 (en) * 2000-11-24 2001-01-10 Ncr Int Inc Self-service terminal
US6535694B2 (en) * 2001-02-12 2003-03-18 Thomson Licensing S.A. Finger actuated device having a proximity detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1241558A2 (en) * 2001-03-13 2002-09-18 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US20030076364A1 (en) * 2001-10-18 2003-04-24 International Business Machines Corporation Method of previewing a graphical image corresponding to an icon in a clipboard
US20040008191A1 (en) * 2002-06-14 2004-01-15 Ivan Poupyrev User interface apparatus and portable information apparatus
EP1505485A2 (en) * 2003-05-01 2005-02-09 Semantic Compaction Systems A device and method for previewing themes and categories of sequenced symbols

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3009304A1 (en) * 2014-10-15 2016-04-20 Hon Hai Precision Industry Co., Ltd. System and method for projecting images of an electronic device on a vehicle window
US9694760B2 (en) 2014-10-15 2017-07-04 Hon Hai Precision Industry Co., Ltd. System and method for projecting images of an electronic device on a vehicle window

Also Published As

Publication number Publication date
DE102005014774A1 (en) 2006-10-05

Similar Documents

Publication Publication Date Title
EP3040816B1 (en) Method and device for entering data with two types of input and haptic feedback, especially in a motor vehicle
EP2451672B1 (en) Method and device for providing a user interface in a vehicle
DE60027515T2 (en) Electronic device
EP2338106B1 (en) Multi-function display and operating system and method for controlling such a system having optimized graphical operating display
DE60022030T2 (en) COMMUNICATION SYSTEM AND METHOD
DE202008001970U1 (en) Tilting touch control panel
EP2150883A1 (en) Multifunction display and operating device and method for operating a multifunction display and operating device having improved selection operation
WO2006103196A1 (en) Input forecasting method and a user input forecasting interface
EP2883738B1 (en) Method and assembly for controlling functions of a motor vehicle
EP3040817A1 (en) Device and method for inputting a text using virtual control elements with haptic feedback for simulating key haptics, especially in a motor vehicle
EP3108331A1 (en) User interface and method for contactlessly operating a hardware operating element in a 3-d gesture mode
EP2312429B1 (en) Operating device and method for producing a user interface
DE10154643A1 (en) Touch screen input device for a mobile phone or similar has a haptic or mechanical acknowledgement device that causes the screen to vibrate after a command has been successfully input
EP2137022B1 (en) Information system and method for furnishing information in a motor vehicle with improved operability
EP1912114A2 (en) Operating unit and method for representing a keypad
DE102009059869A1 (en) Method for providing user interface for control device utilized with e.g. driver assistance system in motor vehicle, involves releasing indicator after detection of touching of touch-sensitive surfaces
EP3755567B1 (en) Input device and method for controlling at least one functional unit for a vehicle with a visual displacement of an operation icon
EP3966063A1 (en) Method and operating system for detecting a user input for a device of a vehicle
EP1992515B1 (en) Multifunctional display and operational device and method for operating a multifunctional display and operational device in a motor vehicle
DE10326215A1 (en) operating device
WO2019076598A2 (en) Device, system and method for operating a graphical user interface and motor vehicle
DE102011006733A1 (en) Operating device, particularly for sound technical systems for digital mixing console, has touch screen and transparent cover arranged in front of touch screen corresponding to viewing side of touch screen
WO2021185664A1 (en) Method and device for selecting input fields displayed on a screen and/or for activating input content displayed in a selected input field on the screen by means of manual inputs
EP3966064A1 (en) Method for operating an operating system in a vehicle and operating system in a vehicle
EP3108332A1 (en) User interface and method for switching from a first operating mode of a user interface to a 3d gesture mode

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06725270

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6725270

Country of ref document: EP