DE69432199T2 - Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen - Google Patents

Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen Download PDF

Info

Publication number
DE69432199T2
DE69432199T2 DE69432199T DE69432199T DE69432199T2 DE 69432199 T2 DE69432199 T2 DE 69432199T2 DE 69432199 T DE69432199 T DE 69432199T DE 69432199 T DE69432199 T DE 69432199T DE 69432199 T2 DE69432199 T2 DE 69432199T2
Authority
DE
Germany
Prior art keywords
user
portal
user interface
room
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69432199T
Other languages
English (en)
Other versions
DE69432199D1 (de
Inventor
Patrick J. Palo Alto Naughton
Chris San Francisco Warth
III Charles H. San Francisco Clanton
Joseph M. Sunnyvale Palrang
James A. Gosling
Edward H. Portola Valley Frank
David A. Palo Alto LaVallee
R. Michael Oakton Sheridan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Application granted granted Critical
Publication of DE69432199D1 publication Critical patent/DE69432199D1/de
Publication of DE69432199T2 publication Critical patent/DE69432199T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/465Distributed object oriented systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03JTUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
    • H03J1/00Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general
    • H03J1/0008Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor
    • H03J1/0025Details of adjusting, driving, indicating, or mechanical control arrangements for resonant circuits in general using a central processing unit, e.g. a microprocessor in a remote control unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • H04B1/20Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver
    • H04B1/202Circuits for coupling gramophone pick-up, recorder output, or microphone to receiver by remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/75Indicating network or usage conditions on the user display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4113PC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43622Interfacing an external recording device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47214End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03JTUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
    • H03J2200/00Indexing scheme relating to tuning resonant circuits and selecting resonant circuits
    • H03J2200/25Remote control device with display
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03JTUNING RESONANT CIRCUITS; SELECTING RESONANT CIRCUITS
    • H03J2200/00Indexing scheme relating to tuning resonant circuits and selecting resonant circuits
    • H03J2200/25Remote control device with display
    • H03J2200/26Remote control device with touch screen display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/2809Exchanging configuration information on appliance services in a home automation network indicating that an appliance service is present in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/2818Controlling appliance services of a home automation network by calling their functionalities from a device located outside both the home and the home network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L2012/284Home automation networks characterised by the type of medium used
    • H04L2012/2841Wireless
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/329Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the application layer [OSI layer 7]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/977Dynamic icon, e.g. animated or live action

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf das Gebiet der grafischen Benutzerschnittstellen für Computersysteme und insbesondere auf ein Verfahren und eine Einrichtung zur Bereitstellung einer intuitiven Methodik für einen Anwender, um entfernte Einrichtungen mit einer computergesteuerten objektorientierten Benutzerschnittstelle unter Verwendung animierter grafischer Bilder zu steuern.
  • 2. Technischer Hintergrund
  • Die meisten populären grafischen Benutzerschnittstellen, die heute verfügbar sind, wie beispielsweise die grafischen Benutzerschnittstellen Xerox Star®, Apple Macintosh® und Microsoft Windows, basieren auf der „Schreibtisch-Metapher" bzw. „Desktop Metaphor". In einem Schreibtisch-Metapher-System wird der Anzeigebildschirm als ein virtueller Schreibtisch behandelt. Grafische Symbole, die auf dem virtuellen Schreibtisch (d. h. dem Anzeigebildschirm) angeordnet sind, werden zur Darstellung allgemein bekannter Objekte verwendet, die in einem Büroumfeld zu finden sind, wie beispielsweise Dateien, Dateiordner und Drucker. Diese Schreibtisch-Metapher-Systeme weisen verschiedene Beschränkungen auf, die die Effektivität der Mensch-Maschine-Schnittstelle zwischen dem menschlichen Anwender und dem Computersystem beeinträchtigen.
  • Ein Problem bei den vorhandenen auf der Schreibtisch-Metapher basierenden grafischen Benutzerschnittstellen ist die Verwendung eines hierarchischen Dateisystems. Die meisten grafischen Benutzerschnittstellen mit Schreibtisch-Metapher basieren auf einem Computer mit einem Dateisystem, in welchem die Computerdateien in einer hierarchischen Struktur organisiert sind. Die Struktur des hierarchischen Dateisy stems weist ein Wurzelverzeichnis und mehrere Unterverzeichnisse in dem Wurzelverzeichnis auf. Jedes Unterverzeichnis kann Unter-Unterverzeichnisse haben und so weiter. Die Struktur des hierarchischen Dateisystems wird auf dem Bildschirm als eine Art von Wurzel-Dateischrank mit Dateiordnern darin grafisch dargestellt. Die Betriebssysteme Microsoft Windows und Apple Macintosh® verwenden beide hierarchische Dateisysteme, die als Dateiordner dargestellt werden.
  • Die hierarchische Struktur von Dateiordnern ist für neue Benutzer häufig sehr verwirrend. Beispielsweise können sich viele Benutzer verirren, während sie durch die hierarchischen Dateisysteme navigieren, weil das System der Aufbewahrung von Dateien in Dateiordnern, welche sich in anderen Dateiordnern befinden, die bis zu einer beliebigen Tiefe ineinander angeordnet sind, von der Natur der Sache her verwirrend ist. Benutzer verirren sich, weil jeder Dateiordner aussieht wie jeder andere Dateiordner, und der Benutzer erhält wenig Rückmeldung über seinen Standort innerhalb der Hierarchie des Dateisystems. Ebenso liefert kein Dateiordner Informationen über seinen Inhalt, außer einer benutzerdefinierten Beschriftung. Beispielsweise ist, mit Ausnahme einer kurzen Text-Beschriftung, welche von einem anderen Benutzer definiert worden sein kann, der Benutzer im Allgemeinen nicht in der Lage, zu bestimmen, ob ein geöffneter Ordner ein Buchhaltungs-Dateiordner mit Tabellenkalkulationsdaten oder ein Datenbank-Dateiordner mit einer Kundendatenbank ist. Daher ist das Navigieren durch die komplexe Dateisystemhierarchie schwierig, da die aktuelle grafische Benutzerschnittstelle mit Schreibtisch-Metapher wenig Rückmeldung hinsichtlich des Standorts eines Benutzers innerhalb der Dateihierarchie bietet.
  • Bei aktuellen auf der Schreibtisch-Metapher basierenden grafischen Benutzerschnittstellensystemen passen bestimmte Anwendungen häufig konzeptionell nicht gut in eine Schreibtisch-Metapher-Umgebung. Insbesondere nicht-bürobezogene An wendungen können für ein auf der Schreibtisch-Metapher basierendes System ungeeignet sein. Beispielsweise müßte in einer Schreibtisch-Metapher eine Anwendung, die ein Fernsehgerät steuert, in einem „Dokument"-Dateiordner auf dem Desktop plaziert werden.
  • Ein weiteres allgemeines Problem mit Schreibtisch-Metapher-Benutzerschnittstellen besteht darin, daß die Anzeige einer großen Anzahl von Anwendungen auf dem Desktop zu einem überhäuften Desktop führt. Viele Benutzer von Schreibtisch-Metapher-Systemen bewahren eine große Zahl von Anwendungen und Dateien, üblicherweise in Icon-Form, auf dem Anzeigebildschirm. Ein Versuch wurde unternommen, eine grafische Darstellung zu verwenden, die die Art der Anwendung oder Datei identifiziert. Wenn jedoch ein Benutzer eine bestimmte Anwendung oder Datei öffnen möchte, muß der Benutzer den Anzeigebildschirm durchsuchen, um das gewünschte Icon zu finden, gerade so, als wenn der Benutzer versuchen würde, eine bestimmte Dokumentenakte auf einem unordentlichen Schreibtisch zu finden. Icons, die auf einem Desktop plaziert sind, haben keine erkennbare Hierarchie und sind alle gleich. Diese Gleichheit kann einen Benutzer verwirren und Probleme verursachen, wenn der Benutzer von einer Task bzw. Aufgabe zur nächsten wechseln möchte.
  • Verschiedene Systeme sind zur Verbesserung der Organisation der grafischen Benutzerschnittstelle mit Schreibtisch-Metapher entstanden. Ein System ist das Konzept der „Räume". Siehe Patrick Chan, „Learning Considerations in User Interface Design: The Room Model", Bericht CS-84-16, Universität Waterloo, Abteilung Computerwissenschaften, Ontario, Kanada, Juli 1984; Brenda Laurel, „Computers as Theatre", Addison-Wesley Publishing Co., 1991; Brenda Laurel, "The Art of Human-Computer Interface Design", Addison-Wesley Publishing Co., 1990; US-Patent 5,072,412, Henderson, Jr. et. al; "User Interface with Multiple Workspaces for Sharing Display System Objects", und die hierin zitierten Referenzen.
  • In Systemen, die auf dem Räume-Konzept basieren, erzeugt der Benutzer verschiedene Räume, wo der Benutzer eine einzelne Aufgabe oder eine Gruppe zusammenhängender Aufgaben ausführt. Jeder Raum repräsentiert einen individuellen virtuellen Schreibtisch mit einer Gruppe zugehöriger Aufgaben. Jeder Raum erhält eine Beschriftung, die den Raum mit dessen Funktionen identifiziert. Ein Benutzer kann beispielsweise einen Postraum, einen Schreibraum mit einem Textverarbeitungssystem und einen Buchhaltungsraum mit einer Tabellenkalkulation erzeugen. Jeder Raum hat nur solche Icons und Fenster, die mit der bestimmten Aufgabe des Raums verbunden sind, sowie alle Fenster, die von allen Räumen benutzt werden, wie beispielsweise eine Uhr.
  • Um zwischen den Aufgaben in einem System zu wechseln, das das Räume-Konzept verwendet, bewegt sich ein Benutzer zu den verschiedenen Räumen, die mit den verschiedenen Aufgaben verbunden sind. Beispielweise bewegt sich ein Benutzer vom Buchhaltungsraum zum Postraum, um von einer Tabellenkalkulation zum Abrufen einer E-Mail zu gehen. Um sich zwischen den beiden Räumen zu bewegen, wählt ein Benutzer ein Icon aus, das eine Tür repräsentiert, die den aktuellen Raum mit dem anderen Raum verbindet. Benutzer können Türen zwischen allen verfügbaren Räumen erzeugen.
  • Obwohl das Räume-Konzept zur Lösung des Problems des „überhäuften Desktop" beiträgt, basiert das Räume-Konzept noch auf der allgemeinen Schreibtisch-Metapher. Beispielsweise trägt das Räume-Schnittstellenkonzept nicht zur Vereinfachung der verwirrenden hierarchischen Dateistruktur bei, die zum Speichern der Informationen verwendet wird. Das Räume-Konzept bewirkt auch wenig bei der Lösung der Form- und Funktion-Widersprüchlichkeiten, die sichtbar sind, wenn Anwendungen, die nicht in die Schreibtisch-Metapher hineinpassen, zu dem System hinzugefügt werden.
  • Bei dem Stand der Technik entsprechenden grafischen Benutzerschnittstellen muß jedes Mal, wenn ein neues Hardwareteil in das System eingeführt wird, ebenfalls ein neues Steuersoftwareteil vom Benutzer hinzugefügt werden. Wenn beispielsweise ein Benutzer von Apple®, Macintosh® oder ein Benutzer von Microsoft® Windows den Wunsch hat, einen neuen Drucker zu dem System hinzuzufügen, muß der Benutzer ebenfalls einen neuen Druckertreiber installieren, um den hinzugefügten Drucker zu steuern. Daher muß jedes Mal, wenn ein Benutzer den Wunsch hat, ein neues Gerät zu dem System hinzuzufügen, der Benutzer auch ein kompliziertes Verfahren befolgen, um die entsprechende Software hinzuzufügen.
  • Wie beschrieben werden wird, stellt die vorliegende Erfindung eine verbesserte grafische Benutzerschnittstelle bereit, die verschiedene Probleme, die mit den Schreibtisch-Metapher-Systemen verbunden sind, überwindet. Es werden ebenfalls ein Verfahren und eine Einrichtung offenbart, um eine Benutzerschnittstelle einer entfernten Einrichtung zu erhalten, ohne daß der Benutzer die damit verbundene Software laden muß. Die entfernte Einrichtung kann gesteuert werden, indem die Benutzerschnittstelle der entfernten Einrichtung verwendet wird, wie auf dem Anzeigebildschirm der vorliegenden Erfindung angezeigt wird. Obwohl die Benutzerschnittstelle unter Bezugnahme auf die Steuerung entfernter Einrichtungen beschrieben wird, wird aus der folgenden Erörterung klar werden, daß die Benutzerschnittstelle auf eine Vielzahl von Anwendungen in Computer-Arbeitstationen, tragbaren Computern und Handsteuerungssystemen angewendet werden kann.
  • Weitere Bespiele für verschiedene dem Stand der Technik entsprechende Anordnungen sind in EP-a-0439873 (IBM et. al) und IBM Technical Disclosure Bulletin, Bd. 36, Nr. 4, April 1993, New York, USA, Seiten 215-216, XP002012167, „Animated Command Execution Icon" beschrieben.
  • ZUSAMMENFASSENDE DARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung stellt eine intuitive grafische Benutzerschnittstelle und ein Verfahren zur Steuerung entfernter Einrichtungen bereit, wie es in den beigefügten Ansprüchen dargelegt wird.
  • Die grafische Benutzerschnittstelle wird auf einer Handanzeigeeinrichtung angezeigt. Die Handanzeigeeinrichtung umfaßt wenigstens eine zentrale Verarbeitungseinheit (CPU), die mit einem grafischen Anzeigesystem gekoppelt ist. Das grafische Anzeigesystem ist berührungsempfindlich, um dem Benutzer zu gestatten, Informationen unter Verwendung einer Fingerspitze - ohne die Notwendigkeit zusätzlicher Eingabeeinrichtungen, wie beispielweise eine Tastatur - einzugeben. Eine Kommunikationsschaltung ist ebenfalls mit der CPU gekoppelt, die Informationen über ein Kommunikationsmedium überträgt. Die Kommunikationsschaltung wird verwendet, um entfernten Einrichtungen zu steuern und mit diesen zu kommunizieren.
  • Die grafische Benutzerschnittstelle erzeugt eine Welt von Räumen, die in einer Struktur einer geographischen Karte organisiert sind, durch welche man problemlos navigieren kann, da jeder Raum bekannte geographische Umgebungen bereitstellt. Jeder Raum wird von einem Hintergrundbild repräsentiert, welches Navigations-Orientierungspunkte bereitstellt, die identifizieren, wo der Raum innerhalb der geographischen Kartenstruktur angeordnet ist. Beispielsweise enthält das Hintergrund eines Wohnzimmer-Raums Elemente, die üblicherweise in einem Wohnzimmer zu finden sind, wie beispielsweise eine Lampe, einen Stuhl und einen Tisch. Daher wird die Navigation durch diese „Welt" vereinfacht, weil der Benutzer sich orientieren kann, indem er sich umsieht und die Umgebung überprüft, genau so, wie es eine Person in der realen Welt tun würde.
  • In jedem Raum stellt die Benutzerschnittstelle grafische Objekte bereit, die vom Benutzer ausgewählt und bearbeitet werden können. Die grafischen Objekte werden als animierte Karikatur-ähnliche grafische Objekte wiedergegeben, die problemlos als Objekte der realen Welt identifizierbar sind, wie beispielsweise ein Fernseher und VCRs. Es gibt mindestens drei Arten von Objekten, die in den Räumen der Benutzerschnittstelle existieren: Datenobjekte, Schaltflächen und Portale. Datenobjekte sind Objekte, die mit einer bestimmten Datenangabe verbunden sind. Schaltflächen sind Objekte, die mit einer bestimmten Funktion oder Aktion verbunden sind; wenn ein Benutzer eine Schaltfläche auswählt, führt die Benutzerschnittstelle die mit der Schaltfläche verbundene Funktion oder Aktion aus. Portale sind Objekte, die in einem ersten Raum angezeigt werden, aber mit einem zweiten Raum verknüpft sind; wenn ein Benutzer ein Portal auswählt, geht der Benutzer durch das Portal und bewegt sich in den zweiten mit diesem Portal verknüpften Raum. Die Benutzerumgebung wird ferner durch die Verwendung eines Klangs erweitert, der mit jeder Benutzeraktion koordiniert wird und die bereitgestellte visuelle Rückmeldung ergänzt.
  • Um entfernte Einrichtungen der realen Welt zu steuern, sind viele der grafischen Objekte, die auf dem Bildschirm präsentiert werden, entfernten Einrichtungen der realen Welt zugeordnet. Um eine entfernte Einrichtung der realen Welt zu steuern, wählt ein Benutzer das grafische auf dem Anzeigebildschirm bildlich dargestellte Objekt aus, das der bestimmten entfernten Einrichtung zugeordnet ist. Nachdem der Benutzer ein grafisches Objekt ausgewählt hat, das der entfernten Einrichtung zugeordnet ist, zeigt die Handanzeigeeinrichtung eine Benutzerschnittstelle für das Steuern der entfernten Einrichtung an. Der Benutzer kann dann mit der Benutzerschnittstelle der entfernten Einrichtung interagieren. Um die entfernte Einrichtung zu steuern, ruft die vorliegende Erfindung ein Einrichtungstreiberverfahren für die entfernte Einrichtung auf. Das Geräte- bzw. Einrichtungstreiberverfahren kann in Abhängigkeit von der technischen Perfektion der entfernten Einrichtung in der entfernten Einrichtung oder in der lokalen Handanzeigeeinrichtung angeordnet sein.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden für einen Fachmann in Anbetracht der folgenden detaillierten Beschreibung deutlich werden, in welcher:
  • 1a einen Überblick über die Fernsteuerungsfunktionalität darstellt, die die vorliegende Erfindung bereitstellt;
  • 1b einen Überblick über die Hardware darstellt, die zur Implementierung der Handanzeigeeinrichtung der vorliegenden Erfindung verwendet wird;
  • 1c eine Blockdarstellung einer intelligenten entfernten Einrichtung darstellt, die von der vorliegenden Erfindung gesteuert wird;
  • 1d eine Blockdarstellung einer einfachen entfernten Einrichtung darstellt, die von der vorliegenden Erfindung gesteuert wird;
  • 1a eine Blockdarstellung einer herkömmlichen elektronischen Einrichtung darstellt, die von der vorliegenden Erfindung ferngesteuert wird;
  • 2a eine Struktur verschiedener geographischer Räume darstellt;
  • 2b–2c ein Muster einer geographischen Kartenstruktur der Räume darstellen, die zur Breitstellung einer Benutzerschnittstelle verwendet wird;
  • 3 eine Ansicht des Weltraum-Raums der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 4 eine erste Ansicht des Erdoberflächen-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 5 eine zweite Ansicht des Erdoberflächen-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 6 eine Ansicht des Ersten-Haus-Raums der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 7 eine Ansicht eines Wohnzimmer-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 8 eine Ansicht eines Fernseh-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 9 eine Ansicht eines Fernsehprogramm-Listenverzeichnis-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 10 eine Ansicht eines Ein- bzw. Einzel-Fernsehprogramm-Beschreibungs-Raums in der Benutzerschnittstelle basierend auf der geographischen Kartenstruktur in 2b und 2c darstellt;
  • 11 eine konzeptionelle Ansicht des Fernsehprogramm-Listenverzeichnis-Raums aus 9 darstellt; 12 eine Ansicht einer Mehrzahl von Objekten darstellt, die nicht auf eine einzelne Bildschirmanzeige passen;
  • 13 eine konzeptionelle Ansicht einer Mehrzahl von Objekten darstellt, die auf einem Objektrad plaziert sind;
  • 14 eine konzeptionelle Ansicht des Objektrads aus 13 darstellt, wo das Objektrad rotiert hat und neue Objekte zeigt;
  • 15 die schnelle Drehgeste darstellt, die angewendet wird, um ein Objektrad schnell zu drehen;
  • 16a eine Aufnehmen-Geste darstellt, die angewendet wird, um ein Objekt von einem Objektrad aufzunehmen;
  • 16b eine Aufnehmen-Geste darstellt, die angewendet wird, um ein Objekt aus einem Raum aufzunehmen;
  • 17a das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei die Kleidung eines Arztes getragen wird, um einen Diagnostik-Modus zu symbolisieren;
  • 17b das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei ein Bleistift gehalten wird, um einen Schreib-Modus zu symbolisieren;
  • 17c das Assistenten-Portal der vorliegenden Erfindung darstellt, wobei versucht wird, den Benutzer wegen eines kürzlich eingetretenen Ereignisses zu alarmieren;
  • 18a eine intelligente Einrichtung darstellt, die ihre grafische Benutzerschnittstelle an eine Anzeigeeinrichtung übermittelt;
  • 18b eine Anzeigeeinrichtung darstellt, die die grafische Benutzerschnittstelle einer intelligenten steuerbaren Einrichtung anzeigt;
  • 18c die Anzeigeeinrichtung darstellt, die die Benutzerinteraktionen mit der Benutzerschnittstelle an die intelligente Einrichtung übermittelt;
  • 18d die intelligente Einrichtung darstellt, die Rückgabewerte oder eine Rückmeldung an die Anzeigeeinrichtung übermittelt;
  • 19a ein konzeptionelles Diagramm der Programmobjekte in der intelligenten Einrichtung darstellt, die an die Anzeigeeinrichtung gesendet werden;
  • 19b ein konzeptionelles Diagramm der Programmobjekte der intelligenten Einrichtung in der Anzeigeeinrichtung darstellt;
  • 19c ein konzeptionelles Diagramm der Anzeigeeinrichtung darstellt, die ein Verfahren in einem Objekt in der entfernten intelligenten Einrichtung aufruft;
  • 19d ein konzeptionelles Diagramm des Verfahrens in einem Objekt in dem Rückgabestatus der entfernten intelligenten Einrichtung darstellt;
  • 20 ein Flußdiagramm der Übertragung der Benutzerschnittstelle einer intelligenten Einrichtung darstellt; 21a ein Zustandsdiagramm des RPC-Managers für einen Client, der einen Aufruf eines fernen Verfahrens verlangt, darstellt;
  • 21b ein Zustandsdiagramm des RPC-Managers für einen Server, der einen Aufruf eines fernen Verfahrens behandelt, darstellt;
  • 21c die Abfolge eines Aufrufs eines fernen Verfahrens darstellt;
  • 22a die einfache Einrichtung darstellt, die ihre grafische Benutzerschnittstelle an eine Anzeigeeinrichtung überträgt;
  • 22b eine Anzeigeeinrichtung darstellt, die die grafische Benutzerschnittstelle der einfachen steuerbaren Einrichtung anzeigt;
  • 22c die Anzeigeeinrichtung darstellt, die einfache Steuercodes an die einfache Einrichtung übermittelt;
  • 22d die einfache Einrichtung darstellt, die Rückgabewerte oder eine Rückmeldung an die Anzeigeeinrichtung übermittelt;
  • 23a ein konzeptionelles Diagramm der Programmobjekte in einer einfachen Einrichtung darstellt, die an die Anzeigeeinrichtung gesendet werden;
  • 23b ein konzeptionelles Diagramm der Programmobjekte der einfachen Einrichtung in der Anzeigeeinrichtung darstellt;
  • 23c ein konzeptionelles Diagramm der Anzeigeeinrichtung darstellt, die ein Verfahren in einem Programmobjekt aufruft und Steuercodes an die einfache Einrichtung übermittelt;
  • 23d ein konzeptionelles Diagramm der entfernten einfachen Einrichtung darstellt, die Statusinformationen zurückgibt;
  • 24 ein Flußdiagramm der Übertragung der Benutzerschnittstelle einer einfachen Einrichtung darstellt.
  • BEZEICHNUNG UND TERMINOLOGIE
  • Die folgenden ausführlichen Beschreibungen werden in großem Umfang anhand von Anzeigebildern, Algorithmen und symbolischen Darstellungen der Operationen von Datenbits in einem Computerspeicher präsentiert. Diese algorithmischen Beschreibungen und Darstellungen sind die Mittel, die von den Fachleuten in der Datenverarbeitungstechnik verwendet werden, um das Wesen ihrer Arbeit am effektivsten an andere Fachleute zu übermitteln.
  • Ein Algorithmus wird hier und allgemein als eine logische Abfolge von Schritten verstanden, die zu einem gewünschten Ergebnis führen. Diese Schritte sind diejenigen, die physikalische Manipulationen physikalischer Größen erfordern. Normalerweise, obwohl nicht notwendigerweise, nehmen diese Größen die Form elektrischer oder magnetischer Signale an, die gespeichert, übermittelt, kombiniert, verglichen, selektiert, ausgewählt, modifiziert und anderweitig verarbeitet werden können. Es erweist sich mitunter als zweckmäßig, hauptsächlich aus Gründen der allgemeinen Verwendung, diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Bilder, Begriffe, Zahlen oder dergleichen zu bezeichnen. Es sei jedoch angemerkt, daß alle diese sowie ähnliche Begriffe mit den geeigneten physikalischen Größen zu verknüpfen sind, und nur zweckmäßige Bezeichnungen sind, die diesen Größen zugeordnet werden.
  • In dem vorliegenden Fall sind die Operationen Maschinenoperationen, die in Verbindung mit einem menschlichen Anwender ausgeführt werden. Zu den verwendbaren Maschi nen zur Ausführung der Operationen der vorliegenden Erfindung gehören digitale Mehrzweck-Computer oder andere ähnliche Einrichtungen. In allen Fällen sollte der Unterschied zwischen den Verfahrensoperationen der Bedienung eines Computers und dem Verfahren der Berechnung selbst beachtet werden. Die vorliegende Erfindung bezieht sich auf Verfahrensschritte für die Bedienung eines Computers und die Verarbeitung elektrischer oder anderer physikalischer Signale, um andere gewünschte physikalische Signale zu erzeugen.
  • Die vorliegende Erfindung bezieht sich auch auf eine Einrichtung zur Ausführung dieser Operationen. Diese Einrichtung kann speziell für den erforderlichen Zweck konstruiert sein, oder kann einen Mehrzweck-Computer aufweisen, der gezielt durch ein im Computer gespeichertes Computerprogramm aktiviert oder rekonfiguriert wird. Die hierin dargestellten Algorithmen sind per se nicht auf einen speziellen Computer oder eine spezielle andere Einrichtung bezogen. Insbesondere können verschiedene Mehrzweck-Maschinen mit Programmen gemäß den hierin enthaltenen Lehren verwendet werden, oder es kann sich als zweckmäßiger erweisen, eine speziellere Einrichtung zu konstruieren, um die erforderlichen Verfahrensschritte auszuführen. Die erforderliche Struktur für eine Vielzahl dieser Maschinen wird aus der weiter unten gegebenen Beschreibung deutlich. Zu den Maschinen, die die Funktionen der vorliegenden Erfindung ausführen können, gehören die von dem Zessionar, FirstPerson, Inc., hergestellten Maschinen, sowie die anderer Hersteller von Computersystemen, einschließlich Sun Microsystems, Inc., Mountain View, Kalifornien.
  • CODIERUNGSDETAILS
  • Für die Ausführung der verschiedenen hierin beschriebenen Verfahren ist keine bestimmte Programmiersprache angegeben worden. Dies ist teilweise durch die Tatsache begründet, daß nicht alle Sprachen, die genannt werden könnten, universell verfügbar sind. Jeder Benutzer eines bestimmten Computers wird eine Sprache kennen, die für seinen unmittelbaren Zweck am besten geeignet ist. In der Praxis hat es sich als vorteilhaft erwiesen, die vorliegende Erfindung im Wesentlichen in einer höheren Sprache zu implementieren, welche dann in einen maschinen-ausführbaren Objektcode kompiliert wird. Da die Computer- und Monitorsysteme, welche bei der Ausführung der aktuellen Erfindung verwendet werden können, aus vielen verschiedenen Elementen bestehen, ist keine detaillierte Programmauflistung bereitgestellt worden. Es wird davon ausgegangen, daß die Operationen und anderen Prozeduren bzw. Verfahren, die hierin beschrieben und in den zugehörigen Zeichnungen dargestellt werden, ausreichend offenbart worden sind, um einem Fachmann zu gestatten, die aktuelle Erfindung auszuführen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Es wird ein computerbasiertes Fernsteuerungssystem mit einer intuitiven grafischen Benutzerschnittstelle offenbart. In der folgenden Beschreibung wird für Zwecke der Erläuterung eine spezifische Terminologie dargelegt, um ein umfassendes Verständnis der vorliegenden Erfindung zu gewährleisten. Es wird jedoch für einen Fachmann offensichtlich sein, daß diese spezifischen Details nicht erforderlich sind, um die vorliegende Erfindung auszuführen. In anderen Fällen werden bekannte Schaltungen, Funktionen, Prozesse und Einrichtungen in Form von Blockdarstellungen und konzeptionellen Diagrammen gezeigt, um die vorliegende Erfindung nicht unnötigerweise zu verschleiern.
  • Systemüberblick
  • 1a stellt einen Überblick über das computerbasierte Fernsteuerungssystem der vorliegenden Erfindung dar. Die Hauptkomponenten der vorliegenden Erfindung bestehen aus einer Handanzeigeeinrichtung 170, wie in 1a dargestellt. In dem vorliegenden Ausführungsbeispiel umfaßt die Handanzeigeeinrichtung 170 ein Computersystem mit einer Farbgrafik-Berührungsbildschirmanzeige. Die Handanzeigeeinrichtung 170 ist ausgelegt, um jede beliebige kompatible, entfernte Einrichtung zu steuern, wie beispielsweise ein Thermostat 150, einen Videokassettenrecorder 39 und ein Stereosystem 152. Die Handanzeigeeinrichtung 170 kommuniziert mit den entfernten Einrichtungen unter Verwendung eines Kommunikationsmediums 160.
  • Das Fernsteuerungssystem der vorliegenden Erfindung, wie in 1a dargestellt, unterscheidet sich wesentlich von den dem Stand der Technik entsprechenden Fernsteuerungssystemen, da es auf modularer objekt-orientierter Software basiert. Die objekt-orientierte Software stellt Eigenschaften bereit, die vorher in dem Stand der Technik entsprechenden Fernsteuerungssystemen nicht verfügbar waren. Wenn beispielsweise ein Anwender (hierin manchmal als „Benutzer" bezeichnet) zu dem System eine neue kompatible, entfernte Einrichtung, wie beispielsweise Thermostat 150, hinzufügt, übermittelt die neue entfernte Einrichtung Informationen über sich selbst an die Handanzeigeeinrichtung 170. Die übermittelten Informationen beinhalten ein Benutzerschnittstellenobjekt, das verwendet werden kann, um eine grafische Benutzerschnittstelle für die entfernte Einrichtung wiederzugeben. Die vorliegende Erfindung verwendet das Benutzerschnittstellenobjekt, um eine grafische Benutzerschnittstelle für die neue entfernte Einrichtung auf der Handanzeigeeinrichtung 170 anzuzeigen. Die übermittelten Informationen können ebenfalls ein Einrichtungstreiberobjekt beinhal ten, das verwendet wird, um die neue entfernte Einrichtung zu steuern. Um alle verfügbaren Benutzerschnittstellenobjekte zu organisieren, erzeugt die Handanzeigeeinrichtung 170 eine „Welt" geographischer Räume, durch welche man unter Verwendung eines Satzes von Gesten problemlos navigieren kann.
  • Diese Patentbeschreibung wird zuerst die Hardware offenbaren, die benötigt wird, um die Handanzeigeeinrichtung 170 und die kompatiblen entfernten Einrichtungen der vorliegenden Erfindung zu konstruieren. Die geographische Räume und Objekte aufweisende grafische Benutzerschnittstelle, welche auf der Handanzeigeeinrichtung 170 angezeigt wird, wird dann beschrieben. Ein Satz von Gesten, der von den Anwendern verwendet wird, um rund um die Benutzerschnittstelle der vorliegenden Erfindung zu navigieren, wird ebenfalls definiert. Um die Benutzerschnittstellenelemente zu kombinieren, wird eine Reise durch ein Ausführungsbeispiel der Benutzerschnittstelle der vorliegenden Erfindung unternommen, um zu erläutern, wie die Navigationsgesten verwendet werden, um mit den auf der Handanzeigeeinrichtung 170 angezeigten Objekten zu interagieren. Schließlich wird das System zum Gewinnen von Informationen von den entfernten Einrichtungen definiert, so daß die Handanzeigeeinrichtung 170 mit den entfernten externen Einrichtungen kommunizieren und diese steuern kann.
  • Aufgrund der Beschränkungen einer schriftlichen Patentbeschreibung hinsichtlich der Beschreibung animierter Ereignisse auf einer Schnittstelle, wird der Leser auf ein Videoband mit dem Titel „Green Project User Interface" hingewiesen, das vom Anmelder zusammen mit dem Einreichen der Anmeldung, auf welcher dieses Patent basiert, vorgelegt wurde. Zusätzlich muß auch angemerkt werden, daß die Eigenschaften der vorliegenden Erfindung in den begleitenden Zeichnungen in schwarzweiß dargestellt werden. Jedoch in dem gegenwärtig bevorzugten Ausführungsbeispiel, und wie unten beschrieben, werden Objekte und Eigenschaften in Farbe angezeigt.
  • Hardware-Konfiguration
  • Die Handanzeigeeinrichtung 170 der vorliegenden Erfindung weist ein Computersystem auf, wie beispielweise das, das in 1b dargestellt wird. Das Computersystem 170 von 1b enthält eine zentrale Verarbeitungseinheit (CPU) 30, eine Speichereinheit 33 und eine Eingabe/Ausgabe (I/O)-Einheit 34. Diese Elemente sind diejenigen, die üblicherweise in den meisten Mehrzweck-Computern zu finden sind, und in der Tat ist es beabsichtigt, daß das Handcomputersystems 170 für eine ausgedehnte Kategorie von Datenverarbeitungseinrichtungen repräsentativ ist, die in der Lage sind, Grafikanzeigen zu erzeugen.
  • Mit der Eingabe/Ausgabe(I/O)-Einheit 34 von Computersystem 170 ist eine Farbgrafikbildschirmanzeige 37 gekoppelt. Die Bildschirmanzeige 37 weist teilweise eine Farbrasterbildschirmeinrichtung auf, wie beispielsweise, einen Kathodenstrahlröhren(CRT)-Monitor oder eine Flüssigkristallanzeige (LCD). Die Bildschirmanzeige 37 muß über eine ausreichende Auflösung derart verfügen, daß die Bildschirmanzeige 37 Grafikbilder wiedergeben kann.
  • In dem bevorzugten Ausführungsbeispiel weist die Bildschirmanzeige 37 ferner ein Berührungsbildschirmanzeigesystem auf. Die Berührungsbildschirmanzeige beinhaltet ein Merkmal bzw. eine Eigenschaft, die das Vorhandensein eines Fingers, der den Anzeigebildschirm 37 berührt, erfassen kann. Ferner kann der Berührungsbildschirm den genauen Ort identifizieren, an dem der Finger den Anzeigebildschirm 37 berührt, so daß der Anzeigebildschirm Fingergesten erfassen kann, die vom Finger eines Benutzers auf dem Anzeigebildschirm 37 ausgeführt werden. Die Berührungsbildschirmanzeige 37 kann einen aus einer Vielzahl von berührungsempfindlichen Anzeigebildschirmen aufweisen, die auf dem Markt handelsüblich sind.
  • Alternativ kann das Handcomputersystem 170 mit einem herkömmlichen grafischen Anzeigesystem ohne einen berührungsempfindlichen Anzeigeschirm konstruiert werden. Ein derartiges System benötigt ein alternatives Eingabesystem, um die Interaktionen des Benutzers zu erhalten. 1b stellt eine alternative Eingabeeinrichtung 42 dar. Obwohl die Benutzerschnittstelle der vorliegenden Erfindung mit alternativen Eingabeeinrichtungen 42, wie beispielsweise Mäusen, Trackballs und Joysticks, verwendet werden kann, wird das System in dieser Patentbeschreibung als das bevorzugte Ausführungsbeispiel mit einer Berührungsbildschirmanzeige 37 beschrieben.
  • Im Betrieb erzeugt die CPU 30 durch die Ausführung des Computercodes, der im Speicher 33 gespeichert ist, eine grafische Benutzerschnittstelle und zeigt diese auf der Berührungsbildschirmanzeige 37 an. Der im Speicher 33 gespeicherte Computercode wird hierin nicht offenbart, da die Beschreibung der vorliegenden Erfindung in dieser Patentbeschreibung für einen Fachmann in der Computertechnik ausreichend ist, um die Lehren der Erfindung in einer Vielzahl von Computersystemen unter Verwendung einer der vielen Computersprachen anzuwenden.
  • Eine externe Kommunikationsschaltung 35 ist mit der Eingabe/Ausgabe(I/O)-Einheit 34 von Computersystem 170, in 1b, gekoppelt. Die externe Kommunikationsschaltung 35 stellt ein System für das Senden und Empfangen von Informationen an das und von dem Handcomputersystem 170 bereit. Die vorliegende Erfindung verwendet die externe Kommunikationsschaltung 35 im Computersystem 170, um mit entfernten Geräten, wie beispielsweise einem Videokassettenrecorder 39 und einem Thermostaten 150, über ein Kommunikationsmedium 160 zu kommunizieren. Die Kommunikationsschaltung 35 kann eine der vielen bekannten Kommunikationstechnologien, wie beispiels weise Funkwellen, leistungsarme, mobile, infrarote Signale oder Datensignale, die auf den vorhandenen Stromleitungen transportiert werden, verwenden.
  • Um von der vorliegenden Handanzeigeeinrichtung 170 der vorliegenden Erfindung gesteuert zu werden, muß eine entfernte Einrichtung wenigstens über ein Verfahren für das Empfangen von Informationen, die von der Handanzeigeeinrichtung 170 gesendet werden, verfügen. Idealerweise sind die entfernten Einrichtungen intelligente Einrichtungen, die Informationen sowohl senden als auch empfangen können. Die Handanzeigeeinrichtung 170 kann jedoch jede beliebige entfernte Einrichtung steuern, die einem der folgenden drei „Typen" entfernter Einrichtungen entspricht:
    Der erste Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, ist eine „intelligente entfernte Einrichtung", die speziell konzipiert wurde, um mit der Handanzeigeeinrichtung 170 zu arbeiten. In der vorliegenden Erfindung ist eine „intelligente entfernte Einrichtung" als eine entfernte Einrichtung definiert, die einen Mikroprozessor, ein Kommunikationssystem und einen Speicher enthält. 1c stellt eine Blockdarstellung der Komponenten in einer intelligenten entfernten Einrichtung 150 bereit. Wie in 1c dargestellt, umfaßt die intelligente entfernte Einrichtung 150 eine CPU 403, einen Speicher 404, eine Kommunikationsschaltung 401 und eine Einrichtungssteuerschaltung 405.
  • Die Handanzeigeeinrichtung 170 der vorliegenden Erfindung kommuniziert mit einer intelligenten entfernten Einrichtung 150 über die Kommunikationsschaltung 401 der intelligenten entfernten Einrichtung. Der Speicher 404 speichert Programme und Daten, die von der CPU 403 verwendet werden, einschließlich eines Benutzerschnittstellenobjekts 303 und eines Einrichtungstreiberobjekts 301. Die CPU 403 in der intelligenten entfernten Einrichtung ruft Verfahren in dem Einrichtungstreiberobjekt 301 auf, um die entfernte Einrichtung zu steuern.
  • Der zweite Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, ist eine „einfache entfernte Einrichtung", die speziell konzipiert wurde, um mit der Handanzeigeeinrichtung 170 zu arbeiten. In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „einfache entfernte Einrichtung" definiert, wenn die entfernte Einrichtung keinen Mikroprozessor aufweist, oder die entfernte Einrichtung einen solchen primitiven Prozessor aufweist, daß die Handanzeigeeinrichtung 170 keine Verfahren in einem Einrichtungstreiberobjekt innerhalb der entfernten Einrichtung aufrufen kann.
  • 1d stellt ein Blockdarstellung der Komponenten in einer typischen einfachen entfernten Einrichtung 155 bereit. Wie in 1d dargestellt, umfaßt die einfache entfernte Einrichtung 155 einen Sender 420, einen Empfänger 421, einen Speicher 424 und eine Einrichtungssteuerschaltung 425. Der Emitter 420 in der einfachen entfernten Einrichtung 155 wird verwendet, um den Inhalt des Speichers 424 an die Handanzeigeeinrichtung 170 zu senden. Daher sendet die einfache entfernte Einrichtung 155 sowohl das Benutzerschnittstellenobjekt 353 als auch das Einrichtungstreiberobjekt 351 in dem Speicher 424 in der Weise, daß die Handanzeigeeinrichtung beide Objekte empfängt.
  • Um die einfache entfernte Einrichtung 155 zu steuern, ruft die Anzeigeeinrichtung 170 ein Verfahren in dem Einrichtungstreiberobjekt 351 auf, um die Interaktionen des Benutzers in einfache vordefinierte Steuercodes zu übersetzen. Die Anzeigeeinrichtung 170 sendet dann die einfachen vordefinierten Steuercodes an die einfache entfernte Einrichtung 155, welche die Steuercodes über Empfänger 421 empfängt und die Informationen an die Einrichtungssteuerschaltung 425 leitet.
  • Schließlich ist der dritte Typ einer entfernten Einrichtung, die von der vorliegenden Erfindung gesteuert werden kann, eine herkömmliche elektronische Einrichtung, die von gesendeten Signalen, wie beispielsweise Infrarotsignalen, gesteuert werden kann. Daher ist die vorliegende Erfindung mit den meisten existierenden Einrichtungen, die ferngesteuert werden können, abwärtskompatibel. 1e stellt eine typische elektronische Einrichtung 157 dar, die von codierten Signalen gesteuert werden kann. Die Einrichtung hat einen Empfänger 450 für das Empfangen gesendeter codierter Steuersignale und eine Einrichtungssteuerschaltung 455 für das Antworten auf die codierten Steuersignale. Die Handanzeigeeinrichtung 170 steuert die elektronische Einrichtung 157 durch Senden codierter Steuersignale. Die entfernte elektronische Einrichtung 157 empfängt die gesendeten Signale und antwortet entsprechend.
  • Die Anzeigeinrichtungsbenutzerschnittstelle
  • Um ein neues Produkt zu erzeugen, das einfach im Gebrauch ist, versuchen Produktdesigner das neue Produkt so zu gestalten, daß es in einer ähnlichen Weise wie ein altes Produkt funktioniert, von dem der vorgesehene Anwender bereits weiß, wie es zu bedienen ist. Beispielsweise sind Tonbandkassettenrecorder seit einer so langen Zeit erhältlich, daß die meisten Menschen wissen, wie ein Tonbandkassettenrecorder zu verwenden ist. Daher sind die Wiedergabe-, Stop-, Rückspulen-, Vorspulen- und Aufnahme-Tasten auf Kassettenrecordern den meisten Menschen bekannt. Die Hersteller von Videokassettenrecordern stellten einfach zu verwendende Videokassettenrecorder her, indem sie sich dieses allgemein bekannte Wissen zunutze machten. Die Videokassettenrecorder sind einfach zu verwenden, da bei den Videokassettenrecordern dieselben Tasten – d. h. die Wiedergabe-, Stop-, Rückspulen-, Vorspulen- und Aufnahme-Tasten – verwendet werden, die für die Bedienung von Tonbandkassettenrecordern verwendet werden.
  • Um eine Handanzeigeeinrichtung 170 einfach im Gebrauch zu machen, zeigt die vorliegende Erfindung eine intuitive grafische Benutzerschnittstelle auf der Handanzeigeeinrichtung 170 an. Dieser Abschnitt definiert die grafische Benutzerschnittstelle, welche für Benutzer auf einer Handanzeigeeinrichtung 170 bereitgestellt wird.
  • Um eine grafische Benutzerschnittstelle zu entwerfen, die einfach zu navigieren ist, sollten Designer die grafische Benutzerschnittstelle mit einer Struktur organisieren, die die meisten Benutzer bereits verstehen. Menschen leben in einer dreidimensionalen geographischen Welt. Um in unserer dreidimensionalen geographischen Welt zu überleben, müssen die Menschen lernen, wie man in dem lokalen geographischen Gebiet, einschließlich solcher geographischen Räume wie ihr Haus, ihre Nachbarschaft und ihre Stadt, navigiert. Um dies zu tun, erzeugt jede Person eine mentale Karte der geographischen Räume ihrer relevanten lokalen Welt.
  • Die mentalen Karten der geographischen Räume, die die Menschen erzeugen, sind de facto geographische Kartenstrukturen. 2a stellt eine typische geographische Kartenstruktur dar. Beispielsweise weiß jeder Mensch auf diesem Planeten, daß er auf der Erde lebt. Jeder Mensch lebt auch in einer bestimmten Stadt, aber jede Person ist sich der Tatsache bewußt, daß andere Städte auf der Erde existieren. Jeder Mensch lebt in einem bestimmten Haus in einer bestimmten Straße, aber jeder Mensch ist sich der Tatsache bewußt, daß es andere Straßen in der Stadt mit anderen Häusern in jeder Straße gibt. Die Identifizierung eines bestimmten Hauses in einer Straße innerhalb einer Stadt auf der Erde ist eine natürlich vorkommende geographische Kartenstruktur, wie in 2a dargestellt.
  • Die geographische Kartenstruktur kann bis in das Haus ausgedehnt werden. Beispielsweise ist das Wohnzimmer ein Raum von vielen innerhalb des Hauses. Das Fernsehgerät, das Fernsehprogrammverzeichnis und der Videokassettenrecorder sind Objekte innerhalb des Wohnzimmers. Jedes Objekt kann seinen eigenen geographischen Raum haben. Die Kartenstruktur kann auch auf abstrakte Räume sowie auf geographische Räume ausgedehnt werden. Jedes Fernsehprogramm, das in einem Programmverzeichnis aufgeführt ist, hat eine Programmbeschreibung. Die Programmbeschreibung kann als ein Raum innerhalb des Fernsehprogrammverzeichnisses betrachtet werden. Die meisten Menschen verstehen sowohl die Struktur geographischer Räume als auch das Detail, das in jedem geographischen Raum zu finden ist. Daher repräsentiert die de facto geographische Kartenstruktur der Räume eine Struktur, die den meisten Menschen bekannt ist.
  • Die vorliegende Erfindung verwendet die bekannte geographische Kartenstruktur unserer dreidimensionalen Welt in einer grafischen Benutzerschnittstelle. Die vorliegende Erfindung beschreibt eine Technik der Benutzernavigation in einer beliebig großen und komplexen geographischen Kartenstruktur mit grafischen Hintergrundbildern, die geographische Räume darstellen. Derartige geographische Kartenstrukturen verbessern das Erinnerungsvermögen eines Benutzers für die Organisation komplexer Daten. Der Vorteil der Einbeziehung derartiger geographischer Kartenstrukturen besteht darin, daß die bekannten Strukturen eine größere Anzahl von Menschen in die Lage versetzen, eine Informationsspeicherung zu nutzen, die von einem Computer unterstützt wird.
  • 2b und 2c stellen ein Muster einer geographischen Kartenstruktur dar, die von der vorliegenden Erfindung verwendet wird. In der vorliegenden Erfindung wird jeder Raum in der geographischen Kartenstruktur der 2b und 2c als ein Hintergrundbild auf dem Anzeigebildschirm der Handanzeigeeinrichtung, wie beispielsweise der in 1b dargestellten, repräsentiert. In jedem geographischen Raum sind Objekte angeordnet, die von einem Benutzer ausgewählt und bearbeitet werden können.
  • Benutzerschnittstellenanzeigeelemente
  • Die Benutzerschnittstellenumgebung der vorliegenden Erfindung besteht aus zwei Hauptanzeigeelementen: „Räumen" und auswählbaren „Objekten". Jedes Gebiet der geographischen Kartenstruktur der 2b und 2c repräsentiert einen Raum. Der Raum stellt eine geographische Referenz bereit, die den Benutzer über dessen aktuellen Standort innerhalb der geographischen Kartenstruktur informiert. In jedem Raum gibt es ein oder mehrere „Objekte". Ein Benutzer kann die Objekte in jedem Raum auswählen und manipulieren. In dem vorliegenden Ausführungsbeispiel der Handanzeigeeinrichtung 170 mit Berührungsbildschirmanzeige 37 kann ein Benutzer Objekte auswählen, indem er die Objekte berührt, die auf der Berührungsbildschirmanzeige 37 angezeigt werden. Andere Zeigeeinrichtungen als der Finger des Benutzers und andere Eingabeeinrichtungen als ein Berührungsbildschirm könnten die Auswahl und die Benutzereingabe auf eine andere Weise ausführen.
  • Räume
  • Jeder Raum in den 2b und 2c weist ein verknüpftes Hintergrundbild auf, das eine entsprechende Symbolik für den Raum enthält. Wenn ein Benutzer einen Raum betritt, wird das Hintergrundbild des Raums auf dem Anzeigebildschirm 37 wiedergegeben. Jedes Hintergrundbild enthält Orientierungspunkte, die dem Benutzer helfen, festzustellen, wo er sich befindet. Beispielsweise wird der Erdoberflächen-Raum 32 von 2b als Hintergrundbild in 4 und 5 dargestellt. Das Erdoberflächen-Hintergrundbild der 4 und 5 ähnelt einer Straße auf der Erdoberfläche, wodurch ein Benutzer informiert wird, daß sich der Benutzer in dem Erd oberflächen-Raum der Kartenstruktur befindet. Das System gibt das Hintergrundbild unter Verwendung ungesättigter oder gedämpfter Farben in der Weise wieder, daß das Hintergrundbild problemlos von auswählbaren Objekten unterschieden werden kann. Das Hintergrundbild für einen Raum kann größer als der Anzeigebildschirm 37 sein; daher stellt die vorliegende Erfindung eine Geste für das „Schwenken" in der Weise bereit, daß sich ein Benutzer in einem Raum bewegen kann, wie später erläutert werden wird.
  • Objekte
  • Objekte sind einzelne grafische Icons, die in den Hintergrundbildern der Räume wiedergegeben werden. Jedes Objekt ist tatsächlich ein objekt-orientierter Programmierungstyp eines Objekts, der Datenverfahren bzw. -methoden enthält, welche aufgerufen werden können, um auf die Daten einzuwirken. Ein Benutzer kann jedes der Objekte auswählen und bearbeiten, die in dem Hintergrundbild eines Raums erscheinen. Jedes Objekt weist leuchtende Farben auf und ist schwarz umrandet. Die leuchtenden Farben unterscheiden die Objekte in einem Raum von dem Hintergrundbild des Raums, das unter Verwendung ungesättigter Farben gezeichnet wurde. Wenn ein Benutzer auf ein Objekt zeigt, erzeugt die Benutzerschnittstelle einen Klang für ein „Auswählbares Objekt", der den Benutzer informiert, daß das Objekt ausgewählt und bearbeitet werden kann. Es wird erneut auf 4 Bezug genommen; in dem vorliegenden Beispiel sind die Häuser 47 und 48 Objekte, die von einem Benutzer ausgewählt und bearbeitet werden können.
  • In der vorliegenden Erfindung wird eine „Aktionsvorwegnahme-Animation" verwendet, um den Benutzer zu informieren, wenn eine Aktion stattfindet. Die Aktionsvorwegnahme-Animation ist eine kurze auf dem Anzeigebildschirm 37 angezeigte Animation, die von der CPU 30 erzeugt wird. In den meisten Fällen besteht die Aktionsvorwegnahme-Animation aus der Ver größerung des Icons eines Objekts in der Weise, daß es den Anschein hat, als ob sich das Icon näher auf den Benutzer zu bewegt, wenn das Objekt ausgewählt wird.
  • Es wird beispielsweise auf 3 Bezug genommen; wenn das Erd-Portal 100 ausgewählt wird, expandiert das Erd-Portal 100 in der Weise, daß es den Anschein hat, als ob es sich näher auf den Benutzer zu bewegt. Nachdem das Erd-Portal 100 antizipiert bzw. aktionsvorweggenommen wurde, bewegen die Benutzerschnittstellen den Benutzer zu dem Erdoberflächen-Raum 32, der mit dem Erd-Portal 100 verknüpft ist, wie in 4 dargestellt ist.
  • Wenn ein Benutzer ein Objekt auswählt, indem er für einen vorherbestimmten Mindestzeitraum auf das Objekt zeigt, wird ein Klang erzeugt, das Objekt antizipiert, und die CPU ruft ein Verfahren in dem Objekt auf, welches eine mit dem Objekt verknüpfte Aktion ausführt.
  • Es gibt mindestens drei Arten von Objekten, die in der Benutzerschnittstelle des vorliegenden Ausführungsbeispiels existieren: Datenobjekte, Schaltflächen und Portale. Das einfachste Objekt ist ein Datenobjekt. Datenobjekte sind Objekte, die mit einem Satz von Daten verknüpft sind. Schaltflächen sind Objekte, die Mittel für die Ausführung von Funktionen bereitstellen. Portale stellen ein Verfahren für die Bewegung zwischen verschiedenen Räumen bereit. Jede Objektart wird unten einzeln erläutert.
  • Datenobjekte
  • Ein Datenobjekt ist ein einfaches Objekt, das verwendet wird, um eine Information zu repräsentieren. Ein Datenobjekt kann beispielsweise eine Farbe oder einen Fernsehkanal repräsentieren. Die Datenobjekte enthalten keine Verfahren, die aufgerufen werden können, um eine zugeordnete Aktion oder Funktion auszuführen, wenn das Datenobjekt ausgewählt wird. Ein Datenobjekt kann jedoch auf anderen Objekten abgesetzt werden, die die Informationen in dem Datenobjekt verwenden. Beispielsweise kann ein Fernsehprogrammverzeichnis-Datenobjekt auf einem Videokassettenrecorderobjekt abgesetzt werden, um den Videokassettenrecorder so zu programmieren, daß er das Fernsehprogramm aufzeichnet.
  • Schaltflächen
  • Ein Schaltflächenobjekt ist ein spezielles Objekt, das eine zugeordnete Aktion oder Funktion hat. Wenn ein Benutzer eine Schaltfläche auswählt, ruft die CPU 30 das Aktionsverfahren in dem Schaltflächenobjekt auf, um die Ausführung der Aktion oder Funktion, die der Schaltfläche zugeordnet ist, zu veranlassen. Wenn die Schaltfläche ausgewählt wird, antizipiert die CPU auch die Schaltfläche und erzeugt einen Klang für die „Schaltflächenaktion", der die Rückmeldung für den Benutzer bereitstellt, daß die Schaltfläche ausgewählt worden ist. Bestimmte Schaltflächen stellen eine zusätzliche visuelle Rückmeldung bereit, um den Benutzer über die Ergebnisse des von der CPU aufgerufenen Verfahrens, die der Schaltfläche zugeordnete Aktion auszuführen, zu informieren.
  • Es wird beispielsweise auf 8 Bezug genommen; eine Fernseher-„Ein-"Schalt-Schaltfläche 61 und eine Fernseher„Aus-"Schalt-Schaltfläche 62 werden angezeigt. Wenn ein Benutzer die Fernseher-„Ein-"Schalt-Schaltfläche 61 auswählt, antizipiert die Fernseher-„Ein-"Schalt-Schaltfläche 61, und die CPU 30 erzeugt einen Klang für die „Schaltflächenaktion". Die CPU ruft ebenfalls ein Verfahren in dem Schaltflächenobjekt auf, das die notwendigen Informationen sendet, um ein reales Fernsehgerät einzuschalten, das mit dem in 8 dargestellten Fernseher-Bedienungsfeld verbunden ist.
  • Wenn das reale Fernsehgerät eine „intelligente entfernte Einrichtung" ist, kann das Fernsehgerät einen Ergebniswert an die Anzeigeeinrichtung zurücksenden, der den Benutzer informiert, ob das Fernsehgerät eingeschaltet wurde oder nicht. Die Benutzerschnittstelle kann dann die Fernseher „Ein-"Schalt-Schaltfläche 61 erhellen und einen „Summ"-Ton erzeugen, um den Benutzer zu informieren, daß das reale Fernsehgerät tatsächlich eingeschaltet wurde.
  • Schaltflächen können kopiert und in verschiedene Räume verlagert werden, so daß ein Benutzer die „Welt" der Benutzerschnittstelle individuell anpassen kann. Beispielsweise könnten die Fernseher-„Ein-"Schalt-Schaltfläche 61 und die Fernseher-„Aus-"Schalt-Schaltfläche 62 kopiert werden und dann die Schaltflächenkopien aus dem Fernsehsteuerungs-Raum in jeden anderen Raum verlagert werden. Ein Benutzer kann die Kopien dieser Fernseher-„Ein-"Schalt-Schaltfläche 61 und der Fernseher-„Aus-"Schalt-Schaltfläche 62 in dem neuen Raum verwenden, um den Fernseher zu steuern.
  • Portale
  • Portale sind Objekte, die ein einfaches Verfahren der Bewegung aus dem aktuellen Raum in einen anderen Raum, der dem Portal zugeordnet ist, bereitstellen. Ein Benutzer bewegt sich aus dem aktuellen Raum in einen anderen Raum, der einem Portal zugeordnet ist, indem er einfach das Portal auswählt. Nachdem der Benutzer das Portal ausgewählt hat, antizipiert das Portal, erzeugt einen „Bewegung-durch-das-Portal-Klang", und die CPU ruft ein Verfahren auf, das den Benutzer in den Raum bewegt, der dem Portal zugeordnet ist.
  • Es wird beispielsweise auf die geographische Karte von 2b Bezug genommen; um sich aus dem Erdoberflächen-Raum 32 in den Haus-Raum 50 zu bewegen, wählt der Benutzer einfach das Haus-Portal 48 aus. Es wird auf den Erdoberflächen-Raum 32, wie in 4 dargestellt, Bezug genommen; ein Benutzer führt die Bewegung aus, indem er das Haus-Portal 48 innerhalb des Erdoberflächen-Raums 32 auswählt. Nachdem das Haus-Portal 48 ausgewählt worden ist, antizipiert das Haus-Portal 48, erzeugt einen „Bewegung-durch-das-Portal-Klang", und dann wird der Benutzer in den Haus-Raum 50, wie in 6 dargestellt, bewegt.
  • Portale können kopiert und in der Weise verlagert werden, daß ein Benutzer die „Welt" der Benutzerschnittstelle individuell anpassen kann. Beispielweise wird in 7a ein Fernsehprogrammverzeichnis-Portal 71 in dem Wohnzimmer-Raum 60 dargestellt. Das TV-Programmverzeichnis-Portal 71 ist einem Raum zugeordnet, der TV-Programmverzeichnisinformationen enthält. Ein Benutzer kann eine Kopie des Fernsehprogrammverzeichnis-Portals 71 anfertigen und die Kopie in einen anderen Raum verlagern, in welchem der Benutzer in der Lage sein möchte, auf das Fernsehprogrammverzeichnis zuzugreifen. Der Benutzer kann dann die Kopie des Fernsehprogrammverzeichnis-Portals verwenden, um auf dieselben Informationen zuzugreifen, auf die unter Verwendung des ursprünglichen Fernsehprogrammverzeichnis-Portals zugegriffen werden könnte. Somit wäre ein Benutzer in der Lage, aus verschiedenen Räumen auf dieselben Informationen zuzugreifen.
  • Es gibt zwei spezielle Portale, die für einen Anwender der Benutzerschnittstelle fast immer verfügbar sind: ein Rückweg-Portal und ein Assistenten-Portal.
  • Das Rückweg-Portal
  • Das Rückweg-Portal stellt einen Weg für einen Benutzer bereit, um einen Pfad zurückzuverfolgen, auf dem sich der Benutzer zwischen verschiedenen Räumen bewegt hat. Das Rückweg-Portal 45 besteht aus einem kleinen rechteckigen Einzelbild, das eine Momentaufnahme des vorherigen Raums entlang dem Pfad durch die Räume, auf dem sich der Benutzer bewegt hat, einschließt. Da das Hintergrundbild für einen Raum größer sein kann, als bei einer einzigen Ansicht zu erkennen ist, zeigt das Rückweg-Portal eine Momentaufnahme der Ansicht des vorhergehenden Raums, genauso wie er erschien, als der Benutzer durch ein Portal in diesen vorherigen Raum gegangen ist. Bei dem vorliegenden Ausführungsbeispiel ist das Rückweg-Portal für den Benutzer in jedem Raum in der unteren rechten Ecke des Anzeigebildschirms verfügbar. Falls ge wünscht, kann der Benutzer das Rückweg-Portal an einen anderen Ort auf dem Anzeigebildschirm in der Weise verlagern, daß das Rückweg-Portal dann an dem neuen Ort auf dem Bildschirm in jedem Raum erscheint.
  • Um sich auf dem aktuellen Pfad einen Schritt rückwärts zu bewegen, wählt der Benutzer das Rückweg-Portal 45. Nach der Auswahl antizipiert die CPU 30 das Rückweg-Portal 45, erzeugt einen „Bewegung-durch-das-Rückweg-Portal"-Klang und bewegt den Benutzer in den Raum, der in dem Rückweg-Portal dargestellt ist. Bei dem vorliegenden Ausführungsbeispiel ist der „Bewegung-durch-das-Rückweg-Portal"-Klang eigentlich derselbe Klang wie der „Bewegung-durch-das-Portal"-Klang mit der Ausnahme, daß er rückwärts gespielt wird. Indem der „Bewegung-durch-das-Portal"-Klang bei der Bewegung durch das Rückweg-Portal rückwärts gespielt wird, wird die Rückwärtsbewegung auf dem aktuellen Pfad für den Benutzer hervorgehoben.
  • Wenn Benutzer durch Portale gehen, hinterlassen sie eine Spur von unsichtbaren Markierungen. Jede Markierung repräsentiert einen Besuch in einem Raum. Das Rückweg-Portal verwaltet diese Markierungen und erhält sie in der Reihenfolge aufrecht, in der die Räume besucht wurden. Die Markierungen und die Reihenfolge der Markierungen definieren den Pfad, den der Benutzer durch die Welt der Benutzerschnittstelle genommen hat. Somit wird, wenn ein Benutzer durch das Rückweg-Portal geht, der von den Markierungen definierte Pfad jeweils eine Markierung zurückverfolgt. Jedes Mal, wenn der Benutzer durch das Rückweg-Portal in einen Raum geht, wird eine der Markierungen, die von dem Rückweg-Portal verwaltet werden, entfernt.
  • Es wird beispielsweise auf eine in 2b dargestellte geographische Kartenstruktur Bezug genommen; wenn ein Benutzer in dem Weltraum-Raum 99 startet, sich in den Erdoberflächen-Raum 32 bewegt, und sich dann in den Haus-Raum 50 bewegt, wird ein Pfad von dem Weltraum-Raum 99 in den Erdoberflächen-Raum 32 in den Haus-Raum 50 erzeugt. Nach dem Durchlaufen dieses Pfades zeigt der Anzeigebildschirm 37 den Haus-Raum 50, wie in 6 dargestellt, an. In der unteren rechten Ecke von Haus-Raum 50 befindet sich das Rückweg-Portal 45. Wie in 6 dargestellt, zeigt das Rückweg-Portal 45 eine Miniaturmomentaufnahme des vorherigen Raums entlang dem Raumpfad an. In diesem Fall ist der vorherige Raum entlang dem Raumpfad der Erdoberflächen-Raum 32; daher zeigt das Rückweg-Portal 45 eine Miniaturmomentaufnahme des Erdoberflächen-Raums 32 an, wie er erschien, als der Benutzer durch das Haus-Portal ging. Wenn der Benutzer dann das Rückweg-Portal 45 auswählt, antizipiert das Rückweg-Portal 45, erzeugt den „Bewegung-durch-das-Rückweg-Portal"-Klang und bewegt den Benutzer dann in den Erdoberflächen-Raum 32, wie in 4 dargestellt. Bei Erdoberflächen-Raum 32, wie in 4 dargestellt, zeigt das Rückweg-Portal nun eine Miniaturmomentaufnahme des Weltraum-Raums 99 an, welcher der erste Raum entlang dem Pfad war. Daher stellt das Rückweg-Portal 45 einen „Rückweg " entlang dem Pfad durch die Räume, durch die der Benutzer gegangen ist, bereit.
  • Die vorliegende Erfindung implementiert das Rückweg-Portal 45 als einen Stapel von Datenstrukturen, wobei jede Datenstruktur einen Zeiger und ein Koordinatenpaar enthält. Der Zeiger in jeder Datenstruktur auf dem Stapel zeigt auf einen Raum, den der Benutzer vorher besucht hat. Das Koordinatenpaar in jeder Datenstruktur auf dem Stapel spezifiziert genau, wo sich der Benutzer in dem Raum, auf den der Zeiger zeigt, aufgehalten hat, als der Benutzer den Raum durch ein Portal verließ. Jedes Mal, wenn der Benutzer sich durch ein Portal aus einem bestimmten Raum herausbewegt, „schiebt" die Benutzerschnittstelle eine Datenstruktur, die den Zeiger auf den Raum und das Koordinatenpaar enthält, welches genau definiert, wo sich der Benutzer in dem Raum aufgehalten hat, als der Benutzer durch das Portal ging, auf den Rückweg-Sta pel. Das Rückweg-Portal 45 zeigt eine Miniaturmomentaufnahme des Raums an, auf den der Zeiger in der Datenstruktur auf der Oberseite des Stapels zeigt. Zur Rückverfolgung entlang dem Pfad durch die Räume „nimmt" die Benutzerschnittstelle jedes Mal, wenn der Benutzer das Rückweg-Portal 45 auswählt, eine Datenstruktur von dem Stapel „weg" und bewegt sich in den Raum, der von dem Zeiger in der Datenstruktur angezeigt wird.
  • Das Assistenten-Portal
  • Das Assistenten-Portal ist ein anthropomorphisches Zeichen, das den Benutzer beim Navigieren auf der Benutzerschnittstelle und bei der Behandlung von Ereignissen unterstützt, die in der von der Benutzerschnittstelle erzeugten „Welt" auftreten. Es wird auf den Erdoberflächen-Raum von 4 Bezug genommen; der Assistent ist in der unteren linken Ecke dargestellt. Der Assistent 41 transportiert Objekte für den Benutzer. Diese Transportfunktion wird durch eine Aktentasche repräsentiert, die der Assistent ebenfalls trägt. Ein Benutzer kann auf Objekte zugreifen, die der Assistent transportiert, indem er das Assistenten-Portal 41 auswählt, wodurch er einen Assistenten-Raum betritt, der dem Assistenten-Portal 41 zugeordnet ist. Wenn ein Benutzer das Assistenten-Portal 41 auswählt, antizipiert der Assistent, indem scheinbar die Aktentasche herauszieht und öffnet. Die CPU erzeugt dann den „Bewegung-durch-das-Portal"-Klang und bewegt den Benutzer in den Assistenten-Raum.
  • Um ein Objekt in die Aktentasche des Assistenten zu legen, nimmt der Benutzer das Objekt auf und „setzt" dann das Objekt auf dem Assistenten-Portal 41 „ab". Das auf dem Assistenten-Portal 41 abgesetzte Objekt ist dann für den Benutzer aus jedem Raum immer verfügbar, indem er den Assistenten-Raum betritt. Der Assistent wird weiter unten in dem Abschnitt „Der Assistent" umfassender diskutiert.
  • Objektrad
  • Häufig ist es erforderlich, daß ein Benutzer eine Auswahl unter einer beliebig großen Anzahl von Objekten trifft. Daher muß die Benutzerschnittstelle sowohl ein Verfahren für das Anzeigen einer großen Anzahl von Objekten als auch ein Verfahren bereitstellen, das dem Benutzer gestattet, jedes der angezeigten Objekte auszuwählen.
  • Es wird beispielsweise auf den in 8 dargestellten Fernsehsteuerungs-Raum 64 Bezug genommen; die Benutzerschnittstelle der vorliegenden Erfindung muß ein Verfahren zum Anzeigen einer beliebigen Anzahl von Fernsehkanälen bereitstellen, aus der der Benutzer auswählen kann. In jedem System ist der Bildschirmplatz sehr gefragt. Wenn der Benutzer unter vielen möglichen Optionen wählen muß, müssen daher die Optionen kompakt präsentiert werden. Wenn bei der vorliegenden Erfindung 500 Fernsehkanalobjekte für einen Benutzer zur Auswahl stehen, würde eine umfassende gleichzeitige Präsentation dieser nicht nur beträchtlichen Bildschirmplatz in Anspruch nehmen, sondern es ginge auch der visuelle Kontext der Liste (d. h. der Grund, weshalb der Benutzer diese Liste zuerst anschaut) verloren. Somit wird ein Verfahren benötigt, das dem Benutzer ein Blättern durch alle verfügbaren Objekte gestattet.
  • Die Benutzerschnittstelle der vorliegenden Erfindung führt ein „Objektrad" ein, um ein Verfahren bereitzustellen, das dem Benutzer gestattet, eine Auswahl aus einer großen Gruppe von Objekten zu treffen. Bei dem Objektrad werden ein paar sofort zugreifbare Objekte in einem Objektrad auf dem Anzeigebildschirm angezeigt, während die übrigen Objekte in der Gruppe auf dem Bildschirm nicht wiedergegeben werden. Um auf die Objekte zuzugreifen, die auf dem Bildschirm nicht wiedergegeben werden, „dreht" der Benutzer das Objektrad „schnell", um die vorher nicht zugreifbaren Objekte zur Ansicht auf den Anzeigebildschirm zu bewegen.
  • Es wird auf 12 Bezug genommen; eine große Anzahl von Fruchtobjekten ist zur Auswahl für einen Benutzer verfügbar, aber nur vier Fruchtobjekte passen auf einmal horizontal auf den Anzeigebildschirm 37. Um dem Benutzer den Zugriff auf alle verfügbaren Fruchtobjekte zu ermöglichen, plaziert die vorliegende Erfindung den Streifen mit den Fruchtobjekten auf einem „Objektrad" 38, wie es in dem konzeptionellen Diagramm von 13 angezeigt wird. Einige dieser Fruchtobjekte auf dem Objektrad 38 sind für einen Benutzer auf dem Anzeigebildschirm 37 sofort zugreifbar. Um auf die Objekte zuzugreifen, die auf dem Anzeigebildschirm 37 nicht angezeigt werden, dreht der Benutzer das Objektrad 38. Wenn sich das Objektrad 38 dreht, werden neue Objekte zur Ansicht gebracht und andere Objekte verschwinden aus der Ansicht, wie in 14 dargestellt. Ein Anwender verwendet die Navigationsgesten Zeigen, schnelles Drehen und Aufnehmen, um das Objektrad zu handhaben, das auf der Berührungsbildschirmanzeige 37 präsentiert wird. Diese drei Navigationsgesten werden im folgenden Abschnitt erläutert.
  • Um den Eindruck des Benutzers zu verstärken, daß ein echtes Rad schnell gedreht wird, folgen Objekträder den Gesetzen der Physik. Beispielsweise verfügen die Objekträder über Masse und daher über Trägheit; Objekträder drehen sich schneller, wenn der Benutzer mehr „Kraft" aufwendet, wenn er das Rad dreht; Objekträder reagieren aus Reibung, da ein sich drehendes Objektrad allmählich zum Stillstand kommt.
  • Während sich ein Objektrad dreht und sich die Objekte über den Bildschirm bewegen, erzeugt bei dem vorliegenden Ausführungsbeispiel die Benutzerschnittstelle einen „Klick"-Ton. Der von der Benutzerschnittstelle erzeugte „Klick"-Ton simuliert den Ton, den Rasten am Rad eines Spielautomaten hervorrufen, welche das Rad zum Anhalten und zur Ausrichtung zwingen. Wie ein echtes Rad halten die Objekträder der vorliegenden Erfindung immer ausgerichtet und halten niemals zwischen zwei Objektauswahlvorgängen an. Ein Benutzer kann ein sich schnell drehendes Objektrad zu jeder Zeit anhalten, indem er auf ein sich bewegendes Objekt auf dem Objektrad Zeigt, während sich das Objektrad schnell dreht.
  • Ein Objektrad kann vertikal oder horizontal auf dem Anzeigebildschirm ausgerichtet werden. Bei vertikaler Ausrichtung kann das Objektrad sowohl nach oben als auch nach unten schnell gedreht werden. Bei horizontaler Ausrichtung kann das Objektrad sowohl nach links als auch nach rechts schnell gedreht werden.
  • Benutzerschnittstellen-Navigationsgesten
  • Die Navigation und Objekthandhabung in der Benutzerschnittstelle werden unter Verwendung einer Bildschirmzeigereinrichtung ausgeführt. Bei dem bevorzugten Ausführungsbeispiel ist die Handanzeigeeinrichtung 170 mit einer Berührungsbildschirmanzeige 37 konstruiert, und die verwendete Zeigeeinrichtung ist der Finger eines Benutzers. Alternativ kann die Benutzerschnittstelle implementiert werden, indem jede andere Art von Bildschirmzeigereinrichtung verwendet wird, wie beispielsweise eine Maus, ein Trackball oder ein Joystick. Diese Patentbeschreibung beschreibt jedoch nur das bevorzugte Ausführungsbeispiel, das den Finger des Benutzers als Zeigeeinrichtung auf einem Berührungsbildschirm verwendet.
  • Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung enthält die Handanzeigeeinrichtung 170 teilweise eine Berührungsbildschirmanzeige 37, wie in 1b dargestellt. Die Berührungsbildschirmanzeige 37 erfaßt, wenn ein Finger auf dem Anzeigebildschirm plaziert worden ist und identifiziert, wo der Finger plaziert worden ist. Benutzer wählen Objekte auf dem Berührungsbildschirm aus und handhaben die Objekte, indem sie einen Satz von sechs Navigationsgesten verwenden: Zeigen, Auswählen, Schwenken, schnelles Drehen, Aufnehmen und Absetzen. Jede Navigationsgeste, die von der Benutzerschnittstelle verwendet wird, wird unten einzeln erläutert. (Da die Namen der Navigationsgesten dieselben sind wie Wörter des allgemeinen Sprachgebrauchs, werden in dieser Patentbeschreibung alle Bezugnahmen auf die Navigationsgesten mit großem Anfangsbuchstaben geschrieben.)
  • Zeigen
  • Zeigen ist die einfachste Geste in der Benutzerschnittstelle der vorliegenden Erfindung. Ein Anwender verwendet die Zeigen-Geste, um Objekte auszusuchen, die auf dem Anzeigebildschirm wiedergegeben werden. Wenn beispielsweise die Benutzerschnittstelle der vorliegenden Erfindung den Benutzer auffordert, eines der vielen Objekte auszusuchen, die auf dem Anzeigebildschirm wiedergegeben werden, Zeigt der Benutzer auf ein Objekt, um das Objekt auszuwählen.
  • Ein Benutzer Zeigt auf ein Objekt, indem er einfach einen Finger auf das auf dem Berührungsbildschirm angezeigte Objekt plaziert. Wenn ein Benutzer erfolgreich auf ein Objekt Gezeigt hat, erzeugt die Benutzerschnittstelle einen „Auswählbares-Objekt"-Klang. Der Auswählbares-Objekt-Klang stellt eine Rückmeldung für den Benutzer bereit, die anzeigt, daß der Benutzer erfolgreich auf das Objekt Gezeigt hat.
  • Auswählen
  • Die Auswählen-Geste ist der Zeigen-Geste sehr ähnlich. Ein Anwender verwendet die Auswählen-Geste, um ein Objekt ein Verfahren zur Ausführung einer Funktion oder einer mit dem Objekt verknüpften Aktion aufrufen zu lassen. Beispielsweise ruft ein Ausgewähltes Portal ein Verfahren auf, das den Benutzer in den Raum bewegt, der dem Portal zugeordnet ist, und eine Ausgewählte Schaltfläche ruft ein Verfahren auf, das die Aktion oder Funktion ausführt, die der Schaltfläche zugeordnet ist.
  • Um ein Objekt Auszuwählen, Zeigt ein Benutzer zuerst auf ein Objekt, indem er das Objekt mit einem Finger berührt. Wenn der Benutzer für einen vorherbestimmten Mindestzeitraum weiter auf das Objekt Zeigt, wird das Objekt ein Ausgewähltes Objekt. Nachdem ein Benutzer ein Objekt Ausgewählt hat, „antizipiert" das Objekt, erzeugt einen Klang für die Benutzer-Rückmeldung, und dann wird ein Verfahren in dem Objekt aufgerufen. Wenn das Objekt eine Schaltfläche ist, dann führt das aufgerufene Verfahren eine Funktion aus, die der Schaltfläche zugeordnet ist. Wenn das Objekt ein Portal ist, dann bewegt das aufgerufene Verfahren den Benutzer in den Raum, der diesem Portal zugeordnet ist.
  • Alternativ kann ein Benutzer ein Objekt auf dem Anzeigebildschirm Auswählen, indem er nacheinander zweimal schnell auf das Objekt Zeigt. Wenn ein Benutzer ein Objekt Auswählt, indem er zweimal schnell auf das Objekt Zeigt, antizipiert das Objekt nicht. Statt dessen erzeugt die Benutzerschnittstelle nur den entsprechenden Rückmeldungs-Klang und führt dann die Aktion aus, die mit dem Objekt verknüpft ist. Dies stellt dem Benutzer ein Verfahren zum schnellen Auswählen eines Objekts zur Verfügung.
  • Schwenken
  • Um sich in einem Raum zu bewegen, verwendet ein Benutzer die Schwenken- bzw. Fahren-Navigationsgeste. Ein Benutzer Schwenkt bzw. Fährt durch einen Raum, indem er einen Finger auf das Hintergrundbild eines Raumes plaziert, der auf dem Berührungsanzeigebildschirm 37 angezeigt wird, und mit dem Finger in die gewünschte Bewegungsrichtung gleitet. Die Benutzerschnittstelle der vorliegenden Erfindung reagiert, indem sie einen „Schwenken-Aktiv"-Klang erzeugt und das Hintergrundbild des Raumes und alle Objekte in dem Raum in die entgegengesetzte Richtung der Fingerbewegung bewegt. Durch Bewegung des Raums in die entgegengesetzte Richtung simuliert die Benutzerschnittstelle die Bewegung der Perspektive des Benutzers in die andere Richtung.
  • 4 und 5 stellen die Verwendung der Schwenken-Geste dar. Wenn ein Benutzer seinen Finger auf den Hintergrund von 4 plaziert und dann mit dem Finger auf dem Berührungsbildschirm nach rechts gleitet, wird die Ansicht entsprechend nach rechts schwenken, indem das Hintergrundbild des Raums und alle Objekte in dem Raum nach links bewegt werden. 5 stellt das Ergebnis der Schwenken-nach-Rechts-Operation dar, wo das Haus 48 sich von der rechten Seite des Anzeigebildschirms zur linken Seite des Anzeigebildschirms hinüberbewegt hat.
  • Das Hintergrundbild für jeden Raum in der vorliegenden Erfindung kann beliebig groß sein. Wenn das Hintergrundbild eines Raums eine endliche Größe hat, stellt die Benutzerschnittstelle der vorliegenden Erfindung eine Rückmeldung bereit, daß die weiteste Ausdehnung des Hintergrundbildes erreicht worden ist. Wenn ein Benutzer in einer Richtung ganz bis zum Ende des Hintergrundbildes Schwenkt, bewegt die Schwenken-Geste den Benutzer nicht weiter in diese Richtung. Um den Benutzer über diese Tatsache zu informieren, erzeugt die Benutzerschnittstelle anstelle des „Schwenken-Aktiv"-Klangs einen „Ende-der-Ausdehnung"-Klang, wenn ein Benutzer versucht, über das Ende eines Hintergrundbildes hinaus zu Schwenken. Der „Ende-der-Ausdehnung"-Klang klingt wie ein „dumpfer Schlag", der erzeugt wird, wenn irgend etwas gegen eine wand stößt. Der „Ende-der-Ausdehnung"-Klang informiert dadurch den Benutzer, daß er das Ende des Hintergrundbildes getroffen hat und nicht weitergehen kann.
  • Schnelles Drehen
  • Ein Anwender verwendet die Schnell-Drehen-Geste zum Blättern durch mehrere Objekte, die auf einem Objektrad plaziert sind. Wenn ein Benutzer ein Schnell-Drehen eines Objektrades ausführt, bewegen sich die sichtbaren Objekte auf dem Objektrad über den Anzeigebildschirm und verschwinden an dem einen Ende vom Bildschirm, und vorher unsichtbare Objekte bewegen sich an dem anderen Ende auf den Bildschirm.
  • Ein Benutzer führt ein Schnell-Drehen eines Objektrades aus, indem er einen Finger auf dem Objektrad plaziert und dann den Finger über den Anzeigebildschirm in eine Richtung parallel zur Bewegung des Objektrades bewegt. 15 stellt die Schnell-Drehen-Geste dar. In 15 plaziert ein Benutzer einen Finger zuerst auf dem Objektrad (wie durch Sternchen 96 gezeigt). Der Benutzer gleitet dann mit dem Finger über das Objektrad (wie durch den Pfeil 97 gezeigt). Diese Fingergeste veranlaßt das Objektrad zu einer Schnellen Drehung in Richtung der Fingerbewegung. Je schneller der Benutzer mit dem Finger über das Objektrad auf der Anzeige gleitet, desto schneller dreht sich das Objektrad. Wenn sich das Objektrad dreht, erscheinen die Objekte auf dem Objektrad an einem Ende des Objektrades, bewegen sich über den Anzeigebildschirm und verschwinden dann am anderen Ende des Objektrades, ähnlich den Figuren, die auf dem Rad eines Spielautomaten erscheinen.
  • Aufnehmen
  • Die Aufnehmen-Geste wird verwendet, um ein in einem Raum oder auf einem Rad befindliches Objekt in der Weise aufzunehmen, da ein Benutzer das Objekt durch die von der Benutzerschnittstelle der vorliegenden Erfindung definierte „Welt" transportieren kann. Bei dem bevorzugten Ausführungsbeispiel werden verschiedene Verfahren verwendet, um ein Objekt aus einem Raum oder von einem Objektrad Aufzunehmen. Jedes Verfahren wird unten einzeln erläutert. Es ist jedoch klar, daß dieselbe Geste verwendet werden könnte, um Objekte in beiden Situationen Aufzunehmen.
  • Die Geste, die verwendet wird, um ein Objekt von einem Objektrad Aufzunehmen, ist in 16a dargestellt. 16a stellt ein Objektrad 91 mit einer Anzahl von Fruchtob jekten zur Auswahl dar. Um eines der auf dem Objektrad 91 angeordneten Fruchtobjekte Aufzunehmen, plaziert ein Benutzer zuerst einen Finger auf dem Objekt (wie durch das Sternchen 92 bezeichnet) und bewegt den Finger in eine Richtung senkrecht zur Bewegung des Objektrades. Die Bewegung des Fingers in eine Richtung senkrecht zur Bewegung des Objektrades wird durch den Pfeil 93 dargestellt. Die senkrechte Fingerbewegung „reißt" das Objekt in der Weise von dem Objektrad los, daß der Benutzer das Objekt bewegen kann. Wenn sich das Objekt von dem Objektrad löst, erzeugt die Benutzerschnittstelle einen „Losreißen"-Klang, der den Benutzer informiert, daß das Objekt von dem Objektrad entfernt worden ist. Wenn ein Objekt Aufgenommen worden ist, wirft das Objekt einen Schatten auf das Hintergrundbild des Raums und bewegt das Objekt in Übereinstimmung mit dem Finger des Benutzers.
  • Die Geste zum Aufnehmen eines Objekts aus einem Raum wird in 16b dargestellt. 16b stellt einen Raum mit einem Objekt in der Mitte dar. Um das Objekt Aufzunehmen, umkreist ein Benutzer das Objekt mit dem Finger, wie durch den Pfeil 203 dargestellt und berührt dann das Objekt, wie durch das Sternchen 201 dargestellt. Wenn sich das Objekt aus dem Raum löst, erzeugt die Benutzerschnittstelle den Losreißen-Klang, der den Benutzer informiert, daß das Objekt Aufgenommen worden ist. Nachdem ein Objekt von einem Benutzer aus einem Raum Aufgenommen worden ist, verbleibt ein fiktives Bild des Objekts an dem ursprünglichen Ort des Objekts. Das fiktive Bild des Objekts wird in ungesättigten Farben gezeichnet, was dem Benutzer anzeigt, daß das fiktive Objekt nicht Ausgewählt werden kann.
  • Nachdem ein Benutzer ein Objekt, entweder von einem Objektrad oder aus einem Raum, Aufgenommen hat, erzeugt die Benutzerschnittstelle einen „Transportieren-Objekt"-Klang, der den Benutzer informiert, daß das Objekt transportiert wird. Der Benutzer kann das transportierte Objekt innerhalb eines Raums bewegen, von Raum zu Raum bewegen, oder das transportierte Objekt auf einem anderen Objekt Absetzen.
  • Absetzen
  • Die letzte Geste, die zur Interaktion mit der Benutzerschnittstelle der vorliegenden Erfindung verwendet wird, ist das Absetzen. Nachdem ein Benutzer die Aufnehmen-Geste verwendet hat, um ein Objekt aus einem Raum oder von einem Objektrad Aufzunehmen, muß der Benutzer den Finger weiter gegen den Bildschirm drücken, um das Objekt zu transportieren. Der Benutzer bewegt das transportierte Objekt, indem er mit dem Finger über das Berührungsbildschirmanzeigesystem gleitet. Nach der Verlagerung des transportierten Objekts an einen gewünschten Ort, verwendet der Benutzer dann die Absetzen-Geste, um das Objekt an dem gewünschten Ort zu plazieren. Um das Objekt Abzusetzen, hebt der Benutzer den Finger von der Berührungsbildschirmanzeige ab. Wenn der Benutzer ein Objekt Absetzt, fällt das Objekt in das Hintergrundbild eines Raums, als ob es durch die Schwerkraft angezogen wird, und das Objekt wirft keinen Schatten mehr.
  • Ein Benutzer der vorliegenden Erfindung verwendet die Absetzen-Geste, um eine Reihe verschiedener Funktionen auszuführen. Die Absetzen-Geste kann verwendet werden, um ein Objekt zu kopieren, indem das Objekt aufgenommen und in ein Portal in der Weise Abgesetzt wird, daß eine Kopie des Objekts in dem Raum erzeugt wird, der dem Portal zugeordnet ist. Die Absetzen-Geste kann verwendet werden, um ein Objekt an einen neuen Ort zu verlagern, indem das Objekt aufgenommen und an dem gewünschten Ort Abgesetzt wird. Die Absetzen-Geste kann ebenfalls verwendet werden, um ein Datenobjekt, das Informationen enthält, einem anderen Objekt bereitzustellen, welches die Informationen verwendet, um eine Funktion auszuführen. Die verschiedenen Verwendungsmöglichkeiten der Absetzen-Geste werden unten erläutert.
  • Um eine Kopie von eine Objekt unter Verwendung der Absetzen-Geste anzufertigen, muß ein Benutzer zuerst das Objekt Aufnehmen und dann das Objekt auf einem Portal Absetzen. Ein Objekt, das aufgenommen worden ist, wird über das Portal transportiert, indem der Finger über den Bildschirm gleitet. Wenn das transportierte Objekt über dem Portal ist, wird das Portal in der Weise hervorgehoben, daß es eine Rückmeldung für den Benutzer bereitstellt, die signalisiert, daß sich das transportierte Objekt über dem Portal befindet. Bei dem vorliegenden Ausführungsbeispiel strahlt das Portal ein grünes Leuchten aus. Um das transportierte Objekt in das Portal Abzusetzen, hebt der Benutzer den Finger von der Berührungsbildschirmanzeige ab. Das Objekt wird dann in der Weise angezeigt, daß es das Portal mit einer entsprechenden Animation passiert. Während der Animation erzeugt die CPU 30 einen „Durch-das-Portal-Gesaugt"-Klangeffekt. Wenn das Objekt vollständig durch das Portal verschwunden ist, ändert sich das in ungesättigten Farben gezeichnete fiktive Bild des Objekts in dem gegenwärtigen Raum wieder in ein Bild mit leuchtenden Farben. Dies liefert eine visuelle Rückmeldung an den Benutzer, daß das ursprüngliche Objekt in dem vorliegenden Raum verbleibt, obwohl eine Kopie des Objekts durch das Portal in einen anderen Raum gesendet worden ist.
  • Benutzer können Objekte entweder innerhalb eines einzelnen Raums oder von einem Raum in einen anderen bewegen. Um ein Objekt innerhalb eines einzelnen Raums zu bewegen, verwendet der Benutzer zuerst die Aufnehmen-Geste, um ein Objekt aufzunehmen, verlagert das Objekt an den gewünschten neuen Ort und Setzt dann das Objekt unter Verwendung der Absetzen-Geste ab. Nachdem das Objekt Abgesetzt worden ist, verschmilzt das fiktive Bild des Objekts mit dem Abgesetzten Objekt an dem neuen Ort und es entsteht ein einzelnes Bild des Objekts an dem neuen Ort in leuchtenden Farben. Dies informiert den Benutzer, daß das Objekt an einen neuen Ort verlagert worden ist und daß keine Kopie angefertigt worden ist.
  • Die Bewegung eines Objekts in einen anderen Raum wird ausgeführt, indem das Objekt durch ein Portal in einen anderen Raum transportiert wird. Um ein Objekt in einen anderen Raum zu bewegen, muß ein Benutzer zuerst das Objekt Aufnehmen und dann das Objekt über ein Portal transportieren. Wenn sich das transportierte Objekt über dem Portal befindet, wird das Portal in der Weise hervorgehoben, daß es eine Rückmeldung an den Benutzer bereitstellt, die signalisiert, daß sich das transportierte Objekt über dem Portal befindet, und das Portal strahlt ein grünes Leuchten aus. Um das transportierte Objekt durch das Portal zu bewegen, hält der Benutzer das Objekt über dem Portal für einen vorherbestimmten Mindestzeitraum. Das Portal antizipiert schließlich, indem es den Benutzer und das transportierte Objekt in den Raum bewegt, der dem Portal zugeordnet ist. Das fiktive Bild des in ungesättigten Farben gezeichneten transportierten Objekts wird ebenfalls mit dem Benutzer und dem transportierten Objekt in den Bestimmungsraum bewegt. Wenn der Benutzer das transportierte Objekt Absetzt, indem er seinen Finger von dem Berührungsbildschirmanzeigesystem abhebt, verschmelzen das transportierte Objekt und das fiktive Bild zu einem einzelnen Bild des Objekts in leuchtenden Farben. Dies stellt eine Rückmeldung an den Benutzer bereit, daß das Objekt in den Raum verlagert und nicht kopiert worden ist.
  • Die Absetzen-Geste kann ebenfalls verwendet werden, um Informationen an ein Objekt bereitzustellen. Ein Benutzer stellt Informationen an ein Objekt bereit, indem er ein Objekt, das Daten enthält (d. h. ein Datenobjekt), auf dem Objekt absetzt, das die Daten verwenden wird.
  • Um Informationen an ein Objekt bereitzustellen, muß ein Benutzer zuerst ein Datenobjekt Aufnehmen, das die notwendigen Informationen enthält. Der Benutzer transportiert dann das Datenobjekt über das Objekt, welches die Informa tionen verwenden kann. Wenn sich das transportierte Datenobjekt über dem Objekt, das die Informationen verwenden kann, befindet, wird das Objekt, das die Informationen verwenden kann, hervorgehoben, wenn das transportierte Datenobjekt die richtige Objektklasse aufweist. Indem das Objekt, das die Informationen verwenden kann, hervorgehoben wird, stellt es eine Rückmeldung an den Benutzer bereit, daß das transportierte Datenobjekt die richtige Objektklasse aufweist. Um das Datenobjekt in das Objekt, das die Informationen verwenden kann, Abzusetzen, hebt der Benutzer seinen Finger, der zum Transport des Datenobjekts verwendet wurde, von dem Berührungsbildschirm ab. Das Datenobjekt wird dann mit entsprechenden Animations- und Klangeffekten durch und in das Portal geleitet. Wenn das Datenobjekt in dem Empfängerobjekt vollständig verschwunden ist, welches die Informationen verwenden kann, führt dann das Empfängerobjekt die entsprechende Funktion an den bereitgestellten Daten aus.
  • Beispielsweise kann die Absetzen-Geste verwendet werden, um Fernsehprogramminformationen an das Videokassettenrecorderobjekt bereitzustellen, welches mit einem physischen Videokassettenrecorder in der Weise verknüpft ist, daß sich der Videokassettenrecorder selbst programmiert, um das Fernsehprogramm aufzuzeichnen. Um den Videokassettenrecorder zu programmieren, verwendet ein Benutzer zuerst die Aufnehmen-Geste, um ein Datenobjekt aufzunehmen, das Fernsehprogramminformationen enthält. Der Benutzer transportiert dann ein Fernsehprogrammdatenobjekt über das Videokassettenrecorderobjekt. Das Videokassettenrecorderobjekt modifiziert dann sein Erscheinungsbild, um anzuzeigen, daß es ein „Programmier-Videokassettenrecorder"-Modus ist. Dies informiert den Benutzer, daß der Videokassettenrecorder die Informationen „versteht", die über ihm sind (d. h. der Videokassettenrecorder wird so programmiert, daß er das Fernsehprogramm aufzeichnet, wenn der Benutzer das Fernsehprogrammdatenobjekt auf dem Videokassettenrecorder Absetzt).
  • Wenn der Benutzer das Fernsehprogrammobjekt in den Videokassettenrecorder Absetzt, erkennt das Videokassettenrecorderobjekt, daß das Fernsehprogrammdatenobjekt Informationen enthält, die er verwenden kann. Der Videokassettenrecorder extrahiert dann die Zeit- und Kanalinformationen aus dem Fernsehprogrammdatenobjekt in der Weise, daß das Videokassettenrecorderobjekt sich selbst so programmiert, daß es das Fernsehprogramm aufzeichnet.
  • Ein Rundgang durch das vorliegende Ausführungsbeispiel im Betrieb
  • Um das Aussehen und den Eindruck der Benutzerschnittstelle der vorliegenden Empfindung am besten zu übermitteln, wird ein „Rundgang" durch eine Musterumgebung unter Bezugnahme auf die 3–10 ausgeführt. Die Musterumgebung, die während des Rundgangs erkundet wird, basiert auf der geographischen Kartenstruktur der Räume, die in den 2b und 2c grafisch dargestellt sind. Der Rundgang durch die hierin beschriebene Musterumgebung soll den Schutzumfang der vorliegenden Erfindung nicht einschränken, sondern statt dessen ein Beispiel für ein mögliches Ausführungsbeispiel der vorliegenden Erfindung geben. Aufgrund der Beschränkungen einer schriftlichen Patentbeschreibung hinsichtlich der Beschreibung der animierten Benutzersehnittstelle der vorliegenden Erfindung, wird der Leser aufgefordert, sich ein Videoband mit dem Titel „Green Project User Interface" anzuschauen, das vom Anmelder zusammen mit der. Einreichung der Anmeldung, auf welcher dieses Patent basiert, vorgelegt wurde.
  • Es wird auf 3 Bezug genommen; wenn der Benutzer die Benutzerschnittstelle der vorliegenden Erfindung zum ersten Mal betritt, positioniert die Benutzerschnittstelle den Benutzer zu Anfang in einem Weltraum-Raum 99. Dieser Raum wird in der geographischen Kartenstruktur der Räume dargestellt, die in 2b grafisch dargestellt sind. Obwohl der Benutzer zu Anfang in dem Weltraum-Raum 99 plaziert wird, wird die Benutzerschnittstelle den Benutzer später als erstes in dem letzten Raum setzen, in dem der Benutzer war, als er die Verwendung der Handanzeigeeinrichtung beendete. Es wird erneut auf 3 Bezug genommen; bei dem Weltraum-Raum 99 gibt die Benutzerschnittstelle ein Erd-Portal 100 mit leuchtenden Farben vor einem dunklen Weltraum-Hintergrundbild auf dem Anzeigebildschirm wieder.
  • Bald nach dem Betreten der Benutzerschnittstelle erscheint eine Kontur einer Hand 31 auf dem Anzeigebildschirm, um den Benutzer zu unterrichten, wie auf der Benutzerschnittstelle navigiert wird. Die Hand 31, die auf dem Anzeigebildschirm erscheint, ist die Hand des Assistenten. Die Hand 31 des Assistenten streckt einen Finger aus, um den Bildschirm zu berühren und gleitet dann mit dem Finger über den Bildschirm, wodurch der Raum und die Objekte auf der Bildschirmanzeige zum Schwenken und die Benutzerschnittstelle zum Ausgeben des „Schwenken-Aktiv"-Klangs veranlasst werden. Es wird auf 3 Bezug genommen; die Konturhand 31 des Assistenten wird bei der Bewegung über den Bildschirm gezeigt. Durch Berühren des Anzeigebildschirms und Bewegen eines Fingers über den Anzeigebildschirm zeigt die Hand 31 des Assistenten einem neuen Benutzer, wie die Schwenken-Geste verwendet wird, um sich in der Ansicht eines Raums zu bewegen.
  • Nachdem demonstriert worden ist, wie die Schwenken-Geste verwendet wird, um sich in einem Raum zu bewegen, demonstriert die Hand 31 des Assistenten als nächstes, wie die Zeigen- und Auswählen-Gesten verwendet werden. Der Assistent demonstriert, wie die Zeigen-Geste verwendet wird, um auf ein Objekt zu Zeigen, indem ein Finger auf dem Erd-Portal 100 plaziert wird. Nachdem der Assistent auf das Erd-Portal 100 Gezeigt hat, gibt die Benutzerschnittstelle den „Auswählbares-Objekt"-Klang aus, um eine Rückmeldung bereitzustellen, die den Benutzer informiert, daß das Erd-Portal 100 ein Auswählbares Objekt ist. Der Assistent demonstriert dann, wie die Auswählen-Geste verwendet wird, um ein Objekt Auszuwählen, indem das Zeigen auf das Erd-Portal 100 fortgesetzt wird. Nachdem die Hand 31 des Assistenten für den vorherbestimmten Mindestzeitraum auf das Erd-Portal 100 Gezeigt hat, antizipiert das Erd-Portal 100, und die CPU erzeugt den „Bewegen-durch-das-Portal"-Klang. Das Erd-Portal 100 antizipiert, indem es schnell in der Weise expandiert, daß es den Anschein hat, als ob sich das Erd-Portal 100 näher auf den Benutzer zu bewegt. Der Bildschirm verblaßt dann, und es erscheint ein neues Hintergrundbild, das den Erdoberflächen-Raum 32 anzeigt, der dem Erd-Portal 100 zugeordnet ist, wie in 4 dargestellt.
  • Bei dem Erdoberflächen-Raum 32 scheint das Assistenten-Portal 41 auf die Berührungsbildschirmanzeige 37 zu „springen" und bewegt sich in die untere linke Ecke des Anzeigebildschirms. Der Assistent 41 ist für den Benutzer immer erreichbar, da der Assistent in jedem Raum außer dem Assistenten-Raum erscheint. Falls gewünscht, kann der Benutzer den Assistenten aus der linken unteren Ecke an einen anderen Ort auf dem Anzeigebildschirm verlagern. Diese Verlagerung des Assistenten verändert den Ort des Assistenten in jedem Raum.
  • Es wird auf 4 Bezug genommen; in der unteren rechten Ecke der Anzeige befindet sich das Rückweg-Portal 45. Das Rückweg-Portal 45 zeigt eine Einzelbild-Momentaufnahme des Weltraum-Raums 99 aus 3, aus welchem der Benutzer gerade kam. Wenn der Benutzer das Rückweg-Portal 45 Auswählt, bewegt die Benutzerschnittstelle der vorliegenden Erfindung den Benutzer auf dem durchlaufenen Pfad zurück in den Raum, der in dem Rückweg-Portal 45 dargestellt ist. Wenn beispielsweise der Benutzer den Wunsch hat, in den Weltraum-Raum 99 zurückzukehren, der in dem Rückweg-Portal 45 ange zeigt wird, Wählt der Benutzer einfach das Rückweg-Portal 45 aus.
  • Der Erdoberflächen-Raum 32, der in 4 bildlich dargestellt ist, besteht aus einer Anzahl von Häusern und Gebäuden für die Allgemeinheit, wie beispielsweise Geschäften, Banken, Schulen etc. Jedes Gebäude in dem Erdoberflächen-Raum 32 repräsentiert ein Portal, das von dem Benutzer Ausgewählt werden kann, um den Benutzer zu einem Raum zu bewegen, der dem Portal zugeordnet ist. Beispielweise sind in dem Erdoberflächen-Raum, der in 4 bildlich dargestellt ist, das erste Haus 47 und das zweite Haus 48 Portale, die von dem Benutzer Ausgewählt werden können. Wenn der Benutzer entweder das erste Haus 47 oder das zweite Haus 48 Auswählt, wird der Benutzer in einen zugeordneten Haus-Raum bewegt.
  • Während sich der Benutzer in dem Erdoberflächen-Raum, der in 4 bildlich dargestellt ist, befindet, kann er sich in dem Raum bewegen, indem er die Schwenken-Geste auf dem Berührungsbildschirm verwendet, wie es von der Hand 31 des Assistenten in 3 demonstriert wurde. Um zu Schwenken, plaziert der Benutzer einfach einen Finger auf dem Bildschirm und bewegt den Finger in die Richtung, in die er sich bewegen möchte. Die Benutzerschnittstelle reagiert auf die Fingerbewegung des Benutzers, indem sie den „Schwenken-Aktiv"-Klang erzeugt und das Hintergrundbild und die Objekte auf dem Bildschirm in die entgegengesetzte Richtung der Fingerbewegung bewegt, wodurch andere Objekte zur Ansicht gebracht werden.
  • Wenn beispielsweise ein Benutzer, der den Erdoberflächen-Raum 32 im Blick hat, wie in 4 bildlich dargestellt, den Wunsch hat, sich nach rechts zu bewegen, plaziert der Benutzer einfach einen Finger auf dem Hintergrundgebiet des Erdoberflächen-Raums 32 und gleitet mit dem Finger nach rechts. Die Benutzerschnittstelle reagiert in umgekehrter Weise auf die Fingerbewegung des Benutzers, indem sie das Hintergrundbild des Raums und die Objekte in dem Raum nach links bewegt. 5 stellt die Ansicht des Erdoberflächen-Raums 32 bildlich dar, nachdem der Benutzer einen Finger auf das Hintergrundgebiet von 4 plaziert hat und mit dem Finger nach rechts geglitten ist. Ein Erstes-Haus-Portal 47, das in 4 angezeigt wird, hat sich aus dem Blickfeld herausbewegt und ist in 5 nicht sichtbar. Ein Zweites-Haus-Portal 48, das auf der rechten Seite der Ansicht in 4 angezeigt wird, hat sich auf die linke Seite der Ansicht in 5 bewegt und ist nun nur teilweise sichtbar. Ein Bank-Portal 49, das in 4 nicht sichtbar war, hat sich von rechts in die Ansicht bewegt, wie in 5 dargestellt. Das Assistenten-Portal 41 und das Rückweg-Portal 45 bleiben in der Ansicht in derselben unteren linken beziehungsweise rechten Position.
  • Wenn der Benutzer irgendein Portal aus dem Erdoberflächen-Raum 32 Auswählt, wie in 4 und 5 bildlich dargestellt, antizipiert das Ausgewählte Portal, um eine Rückmeldung an den Benutzer bereitzustellen, und die Benutzerschnittstelle bewegt den Benutzer in einen Raum, der dem Ausgewählten Portal zugeordnet ist. Wenn beispielsweise ein Benutzer an dem Erdoberflächen-Raum 32, der in 4 bildlich dargestellt ist, das Erste-Haus-Portal 47 Auswählt, antizipiert das Haus-Portal 47, und dann bewegt die Benutzerschnittstelle den Benutzer in einen Haus-Raum, der dem Haus-Portal 47 zugeordnet ist. 6 stellt einen Haus-Raum 50 dar, der dem Haus-Portal 47 aus 4 zugeordnet ist.
  • Der in 6 angezeigte Haus-Raum 50 besteht aus einem Haus mit entfernten Außenwänden, so daß die einzelnen Räume im Inneren des Hauses sichtbar sind. Alle Räume im Inneren des Hauses, wie beispielsweise das in 6 bildlich dargestellte Wohnzimmer 54, Schlafzimmer 53, Badezimmer 55, Mansarde 52 und Küche 56, sind Portale, die von dem Benutzer Ausgewählt werden können. Wie in 6 dargestellt, enthält das Rückweg-Portal 45 eine Miniaturmomentaufnahme des Erdoberflächen-Raums 32, wie er erschien, als der Benutzer den vorhergehenden Raum verließ. Somit enthält das in 6 bildlich dargestellte Rückweg-Portal 45 nicht nur eine Miniaturansicht des Erdoberflächen-Raums 32, sondern auch eine Ansicht des Teils des Erdoberflächen-Raums 32, der in der Ansicht war, als der Benutzer das Haus-Portal 47 aus 4 Auswählte. Um sich in den Erdoberflächen-Raum aus 4 zurückzubewegen, Wählt der Benutzer das Rückweg-Portal 45 aus, das ein Momentaufnahmebild des Erdoberflächen-Raums enthält.
  • Es wird auf 6 Bezug genommen; wenn der Benutzer das Wohnzimmer-Portal 54 Auswählt, antizipiert das Wohnzimmer-Portal 54, der „Bewegen-durch-das-Portal"-Klang wird erzeugt, und die Benutzerschnittstelle bewegt den Benutzer in einen Wohnzimmer-Raum, der dem Wohnzimmer-Portal 54 zugeordnet ist. Es wird auf 7 Bezug genommen; es wird ein Ausführungsbeispiel eines Wohnzimmer-Raums 60 bildlich dargestellt. In dem Wohnzimmer-Raum 60 aus 7 befinden sich ein Fernsehgerät 73, ein Videokassettenrecorder 75 und ein Fernsehprogramm-Listenverzeichnis 71. Das Fernsehgerät 73, der Videokassettenrecorder 75 und das Fernsehprogramm-Listenverzeichnis 71 sind jeweils Portale, die von dem Benutzer ausgewählt werden können. Das Fernsehgerät-Portal 73 und das Videokassettenrecorder-Portal 75 sind einem realen Fernsehgerät beziehungsweise Videokassettenrecorder zugeordnet.
  • Wenn ein Benutzer das Fernsehgerät-Portal 73 Auswählt, das in dem Wohnzimmer-Raum 60 von 7 angezeigt wird, antizipiert das Fernsehgerät-Portal 73, und die Benutzerschnittstelle zeigt eine grafische Benutzerschnittstelle an, die dem realen Fernsehgerät zugeordnet ist. 8 stellt den Fernsehsteuerungs-Raum 64 bildlich dar, welcher die grafische Benutzerschnittstelle des Fernsehgeräts in dem vorliegenden Ausführungsbeispiel aufweist. Die im Fernseh-Raum 64 verfügbaren Objekte umfassen eine grüne „Ein"-Schaltflä che 61, eine rote „Aus"-Schaltfläche 62 und verschiedene Fernsehkanal-Schaltflächen 66–69. Die Fernsehkanal-Schaltflächen 66–69 befinden sich auf einem horizontal ausgerichteten Objektrad 63 in der Weise, daß ein Benutzer das Objektrad 63 schnell nach links oder rechts Drehen kann, um zusätzliche Fernsehkanal-Schaltflächen sichtbar zu machen, die auf dem Anzeigebildschirm aktuell nicht angezeigt werden.
  • Das Ein-Schaltflächenobjekt 61, das Aus-Schaltflächenobjekt 62 und die Fernsehkanal-Schaltflächenobjekte 66–69, die in dem Fernseh-Raum 64 verfügbar sind, sind keine Portale, die den Zugang zu anderen Räumen in der Raum-Karte aus 1b ermöglichen. Statt dessen sind die Ein-Schaltfläche 61, die Aus-Schaltfläche 62 und die Fernsehkanal-Schaltflächen 66–69 Schaltflächen, denen Funktionen zugeordnet sind. Beispielsweise sind die grüne „Ein"-Schaltfläche 61 und die rote „Aus"-Schaltfläche 62 den Funktionen „Schalte das Fernsehgerät ein" beziehungsweise „Schalte das Fernsehgerät aus" zugeordnet. Wenn ein Benutzer entweder die Ein- oder Aus-Schaltfläche Auswählt, antizipiert die Schaltfläche, um eine Rückmeldung für den Benutzer bereitzustellen, daß die Schaltfläche Ausgewählt wurde. Die Handanzeigeeinrichtung sendet dann die entsprechenden Befehle, die das Fernsehgerät ein- oder ausschalten. In ähnlicher Weise antizipiert die Fernsehkanal-Schaltfläche, wenn der Benutzer irgendeine der Fernsehkanal-Schaltflächen 66–69 Auswählt, und die Handanzeigeeinrichtung sendet dann die entsprechenden Befehle an das reale Fernsehgerät, womit das Fernsehgerät auf den Ausgewählten Kanal eingestellt wird. Der Prozeß des Sendens von Befehlen an das physische Fernsehgerät wird im folgenden Abschnitt im Detail erläutert.
  • Es wird wieder auf 7 Bezug genommen; wenn ein Benutzer das Fernsehprogramm-Listenverzeichnis-Portal 71 Auswählt, antizipiert das Fernsehprogramm-Listenverzeichnis-Portal 71, und die Benutzerschnittstelle bewegt den Benutzer in den Fernsehprogramm-Listenverzeichnis-Raum. 9 stellt den Fernsehprogramm-Listenverzeichnis-Raum der vorliegenden Erfindung bildlich dar. In dem Fernsehprogramm-Listenverzeichnis-Raum von 9 wird dem Benutzer ein zweidimensionaler Bereich von Fernsehprogramm-Listen präsentiert. In dem Bereich sind die Fernsehprogramm-Listen vertikal nach Fernsehkanal und horizontal nach der Zeit geordnet. Jede Fernsehprogramm-Liste ist ein Portal, das von dem Benutzer Ausgewählt werden kann. Jede Fernsehprogramm-Liste kann auch vom Benutzer transportiert werden und auf einem Videokassettenrecorder-Portal in der Weise Abgesetzt werden, daß die Handanzeigeeinrichtung den Videokassettenrecorder so programmiert, daß das Fernsehprogramm aufgezeichnet wird.
  • Der Fernsehprogramm-Listenverzeichnis-Raum von 9 ist tatsächlich als ein Paar verbundener, vertikal orientierter Objekträder organisiert. Es wird auf 11 Bezug genommen; es wird eine konzeptionelle Darstellung des Fernsehprogramm-Listenverzeichnis-Raums dargestellt. Die Fernsehkanäle aus 9 sind auf einem ersten Objektrad 72 plaziert, wie in 11 dargestellt. Die Fernsehprogrammlisten sind auf einem zweiten Objektrad 85 plaziert. Die zwei Objekträder 72 und 85 sind in der Weise verbunden, daß, wenn der Benutzer ein Objektrad schnell Dreht, sich das andere Objektrad mit derselben Geschwindigkeit dreht, so daß die Fernsehkanäle und die Fernsehprogramm-Listen immer ausgerichtet sind.
  • Jede Fernsehprogrammliste auf dem Fernsehprogramm-Verzeichnisobjektrad 85 ist ein Portal. Wenn ein Benutzer eines der Fernsehprogrammlisten-Portale Auswählt, antizipiert das Fernsehprogrammlisten-Portal, und die Benutzerschnittstelle bewegt den Benutzer in einen Fernsehprogramminformations-Raum. 10 stellt einen typischen Fernsehprogramminformations-Raum dar. Der Fernsehprogramminformations-Raum enthält eine Uhr 81, ein Datum 82 und einen Fernsehkanal 83, welche den Benutzer informieren, wann das Fernsehprogramm läuft und auf welchem Kanal es läuft. Der Fernsehprogramminformations-Raum enthält ebenfalls eine Beschreibung des Fernsehprogramms, wie in 10 dargestellt.
  • Der Assistent
  • Der Assistent ist ein anthropomorphisches Zeichen, das dazu bestimmt ist, einem Benutzer der vorliegenden Erfindung auf eine mehrere zu helfen. Der Assistent unterstützt Benutzer, indem er Hilfe bereitstellt, indem er Zustandsinformationen bereitstellt, indem er den Benutzer bezüglich bestimmter Ereignisse alarmiert, und indem er als Depot wirkt. Jede Funktion, die der Assistent ausführt, wird einzeln erläutert.
  • Hilfe
  • Wie vorher in dem Rundgang des vorliegenden Ausführungsbeispiels unter Bezugnahme auf 3 beschrieben wurde, demonstriert der Assistent, wenn ein Benutzer zum ersten Mal die Benutzerschnittstelle der vorliegenden Erfindung betritt, wie die Zeigen-Geste und Auswählen-Geste verwendet werden. Ferner demonstriert der Assistent, wie die Schwenken-Geste verwendet wird, um sich in einem Raum zu bewegen. Der Assistent kann ebenfalls demonstrieren, wie andere Eigenschaften der Benutzerschnittstelle verwendet werden, je nach Notwendigkeit.
  • Um Benutzer weiter zu unterstützen, transportiert der Assistent ein Hilfe-Handbuch in seiner Aktentaschen, das dem Benutzer jederzeit zur Verfügung steht. Um auf das Hilfe-Handbuch zuzugreifen, Wählt der Benutzer einfach das Assistenten-Portal aus. Der Assistent antizipiert, indem er eine Animation des Assistenten bereitstellt, in der er seine Aktentasche öffnet. Der Benutzer Wählt dann das Hilfe-Handbuch aus der Aktentasche des Assistenten aus.
  • Zustand- und Modusinformationen
  • Der Assistent wird ebenfalls verwendet, um den aktuellen Zustand oder Modus der Benutzerschnittstelle auszudrücken. Um den aktuellen Zustand oder Modus auszudrücken, verändert der Assistent seine Kleidung, verändert seinen Ausdruck, oder verändert die Requisiten, die er trägt.
  • Wenn beispielweise die Benutzerschnittstelle der vorliegenden Erfindung in einen Diagnostik-Modus versetzt wird, wird die Kleidung verändert, die der Assistent trägt, um diese Tatsache zu mitzuteilen. Es wird auf 17a Bezug genommen; der Assistent wird in Arztkleidung dargestellt, um zu symbolisieren, daß sich die Benutzerschnittstelle in einem Diagnostik-Modus befindet.
  • 17b stellt ein anderes Beispiel dafür bereit, wie das Erscheinungsbild des Assistenten Zustandsinformationen mitteilen kann. Wenn sich die Benutzerschnittstelle in einem Schreib-Zustand befindet, wird dem Assistenten ein Bleistift gegeben, um zu symbolisieren, daß sich die Benutzerschnittstelle in einem Schreib-Zustand befindet.
  • Alarme
  • Während ein Benutzer die Handanzeigeeinrichtung der vorliegenden Erfindung verwendet, können bestimmte Ereignisse eintreten, die es erforderlich machen, daß der Benutzer unverzüglich informiert wird. Derartige Ereignisse werden üblicherweise als Alarme bezeichnet. Wenn beispielsweise die Handanzeigeeinrichtung mit einem elektronischen Nachrichtendienst gekoppelt ist, sollte die Handanzeigeeinrichtung den Benutzer alarmieren, wenn eine Nachricht eingegangen ist, die an den Benutzer adressiert ist.
  • In der Benutzerschnittstelle der vorliegenden Erfindung wird der Assistent verwendet, um die Aufmerksamkeit des Benutzers zu erhalten, um den Benutzer über Alarme zu informieren. Um die Aufmerksamkeit des Benutzers zu erhalten, winkt der Assistent mit der Hand. Zusätzlich kann der Assi stent mit beiden Armen winken oder Klänge erzeugen, wenn der Alarm sehr wichtig ist, um weiterhin die Aufmerksamkeit des Benutzers auf sich zu ziehen.
  • Wenn beispielsweise ein Ereignis eintritt, das die Aufmerksamkeit des Benutzers erfordert, beginnt der Assistent zu winken, wie in 17c dargestellt. Um zu erklären, was den Alarm verursacht hat, kann ferner das Erscheinungsbild des Assistenten verändert werden, wie im vorhergehenden Abschnitt demonstriert, um Informationen über den spezifischen Alarm mitzuteilen. Wenn beispielsweise eine dringende Nachricht eingeht, kann der Assistent mit einer Hand winken, während er in der anderen Hand ein Telegramm hält.
  • Da Alarme im Allgemeinen wichtiger sind als Zustands- oder Modusinformationen erhalten Alarme den Vorrang gegenüber Zustands- oder Modusinformationen. Wenn das Bild des Assistenten aktuell verwendet wird, um Zustands- oder Modusinformationen mitzuteilen, verändert sich daher beim Eintreten eines wichtigen Ereignisse das Bild des Assistenten, um die Aufmerksamkeit des Benutzers auf sich zulenken und den Benutzer über den Alarm zu informieren. Wenn der Assistent beispielsweise im Schreib-Modus einen Bleistift hält, wie in 17b dargestellt, wird der Assistent beim Eingang einer dringenden Nachricht sofort in die Wink-Animation wechseln, wie in 17c dargestellt, um den Benutzer über die Nachricht zu informieren.
  • Steuerung entfernter Einrichtungen
  • Die Handanzeigeeinrichtung der vorliegenden Erfindung ist für die Steuerung entfernter Einrichtungen konzipiert. Dementsprechend ist die Benutzerschnittstelle, die in dem vorhergehenden Abschnitt für die Handanzeigeeinrichtung definiert wurde, so konzipiert, daß sie eine ideale grafische Benutzerschnittstelle für die Steuerung entfernter Geräte ist. Um beispielsweise eine Einrichtung im Wohnzimmer des Benutzers zu steuern, bewegt sich ein Benutzer zuerst in den Wohnzimmer-Raum 60 der Benutzerschnittstelle, wie in 7 dargestellt. Dann Wählt der Benutzer ein Objekt aus, das einer Einrichtung entspricht, die der Benutzer steuern möchte. Wenn der Benutzer beispielsweise den Wunsch hat, ein Fernsehgerät zu steuern, Wählt der Benutzer das Fernseh-Portal 73 aus, das einem realen Fernsehgerät zugeordnet ist. Wenn der Benutzer das Fernseh-Portal 73 Auswählt, antizipiert das Fernseh-Portal 73 und zeigt dann eine grafische Benutzerschnittstelle für die Steuerung des physischen Fernsehgeräts im Wohnzimmer des Benutzers an. 8 stellt ein mögliches Ausführungsbeispiel für einen Satz von Fernsehsteuerungen für das Steuern eines Fernsehgeräts dar. Der Benutzer steuert dann das Fernsehgerät, indem er den Satz von Fernsehsteuerungen verwendet, der auf der Handanzeigeeinrichtung angezeigt wird.
  • Damit eine entfernte Einrichtung von der Handanzeigeeinrichtung gesteuert werden, muß die Handanzeigeeinrichtung bestimmte Informationen über die entfernte Einrichtung haben. Insbesondere muß die Handanzeigeeinrichtung mit einem Objekt-orientierten Programmierungstyp des Objekts versehen sein, dem die entfernte Einrichtung zugeordnet ist. Das Objekt weist eine Mehrzahl von Verfahren auf, einschließlich eines Verfahrens zum Anzeigen des Objekts auf dem Anzeigebildschirm der Handanzeigeeinrichtung und eines Verfahrens zum Anzeigen der grafischen Benutzerschnittstelle für die entfernte Einrichtung.
  • Um den Betrieb der vorliegenden Erfindung zu vereinfachen, sendet jede kompatible entfernte Einrichtung automatisch den benötigten Objekt-orientierten Programmierungstyp des Objekts an die Handanzeigeeinrichtung. Wenn eine entfernte Einrichtung das Objekt an die Handanzeigeeinrichtung sendet, ruft die Handanzeigeeinrichtung das Verfahren zum Anzeigen des Objekts auf dem Anzeigebildschirm auf. Der Benutzer kann dann das Objekt in einen entsprechenden Raum be wegen. Wenn der Benutzer das Objekt Auswählt, antizipiert das Ausgewählte Objekt, und dann wird das Verfahren zum Anzeigen der grafischen Benutzerschnittstelle aufgerufen. Das Verfahren zeigt die grafische Benutzerschnittstelle der entfernten Einrichtung auf der Berührungsbildschirmanzeige der Handanzeigeeinrichtung an. Der Benutzer kann dann die entfernte Einrichtung durch Interagieren mit der grafischen Benutzerschnittstelle der entfernten Einrichtung auf der Berührungsbildschirmanzeige steuern.
  • Die Handanzeigeeinrichtung der vorliegenden Erfindung erhält automatisch eine grafische Benutzerschnittstelle von zwei Typen kompatibler entfernter Einrichtungen. Der erste Typ einer kompatiblen entfernten Einrichtung ist die intelligente entfernte Einrichtung mit einem speziellen Computersteuerungssystem. Der zweite Typ einer kompatiblen entfernten Einrichtung ist eine einfache entfernte Einrichtung, die nur auf einfache codierte Befehle reagieren kann.
  • Die Handanzeigeeinrichtung interagiert unterschiedlich mit den zwei Typen von kompatiblen entfernten Einrichtungen. Die Handanzeigeeinrichtung kommuniziert mit intelligenten entfernten Einrichtungen unter Verwendung der Peer-to-Peer-Kommunikation mit entferntem Methoden- bzw. Verfahrensaufruf für die Steuerung der entfernten Einrichtung. Die Handanzeigeeinrichtung kommuniziert mit einfachen entfernten Einrichtungen durch Verwenden nur einfacher Steuercodes. Aus der Perspektive des Benutzers können die Unterschiede zwischen intelligenten entfernten Einrichtungen und einfachen entfernten Einrichtungen nicht gesehen werden, und die Interaktion des Benutzers mit der grafischen Benutzerschnittstelle ist für beide Typen von entfernten Einrichtungen identisch. Das Implementierungsdetail, ob die Aktion eines Benutzers einen entfernten Verfahrensaufruf oder die Übertragung von Steuercodes über einen Kommunikationsmechanismus veranlagt, bleibt dem Benutzer verborgen.
  • Dieser Abschnitt wird erläutern, wie die zwei Typen von entfernten Einrichtungen Informationen an die Handanzeigeeinrichtung senden. Ferner wird ein dritter Typ einer entfernten Einrichtung erläutert. Der dritte Typ der Einrichtung besteht aus irgendeiner elektrischen Einrichtung, die von codierten Infrarotsignalen gesteuert werden kann.
  • In diesem Abschnitt wird auf objekt-orientierte Programmierungstypobjekte Bezug genommen. Jeder objekt-orientierte Programmierungstyp des Objekts enthält Daten und Verfahren, die aufgerufen werden können, um Funktionen auszuführen. Um die verwendete Terminologie zu vereinfachen, wird der Begriff „Programmobjekt" verwendet, wenn auf einen objektorientierten Programmierungstyp des Objekts Bezug genommen wird. Um Verwirrung zu beseitigen, werden die Objekte, die auf der Berührungsbildschirmanzeige in der Benutzerschnittstelle, die in der vorherigen Benutzerschnittstelle offenbart wurde, in diesem Abschnitt als „Anzeigeobjekte" bezeichnet.
  • Peer-to-Peer-Kommunikation mit entferntem Verfahrensaufruf
  • In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „intelligente entfernte Einrichtung" bezeichnet, wenn diese entfernte Einrichtung einen Mikroprozessor, ein Kommunikationssystem und einen ausreichenden Speicherumfang enthält, so daß sie Verfahren in einem Programmobjekt aufrufen kann. 1c stellt in einer Blockdarstellung die Komponenten in einer intelligenten entfernten Einrichtung dar. Die Handanzeigeeinrichtung der vorliegenden Erfindung kommuniziert mit intelligenten entfernten Einrichtungen in einer Peer-to-Peer-Weise.
  • Die intelligente entfernte Einrichtung hat eine zugeordnete grafische Benutzerschnittstelle, die Berührungsbildschirm-Steuerelemente, wie beispielsweise Wähleinrichtungen, Schalter, Schieber etc., aufweist. Die grafische Be nutzerschnittstelle der intelligenten entfernten Einrichtung ist in einem Benutzerschnittstellen-Programmobjekt 303 definiert, das im Speicher 404 der intelligenten entfernten Einrichtung gespeichert ist. Wenn eine intelligente entfernte Einrichtung zum ersten Mal eingeschaltet wird, sendet die intelligente entfernte Einrichtung automatisch ihr Benutzerschnittstellen-Programmobjekt 303 an die Handanzeigeeinrichtung. Die Handanzeigeeinrichtung kann dann die Benutzerschnittstelle für die intelligente entfernte Einrichtung, wie sie durch das Benutzerschnittstellen-Programmobjekt definiert ist, anzeigen.
  • Wenn ein Benutzer mit der grafischen Benutzerschnittstelle der intelligenten entfernten Einrichtung interagiert, die auf der Handanzeigeeinrichtung angezeigt wird, ruft die Handanzeigeeinrichtung Verfahren in einem Einrichtungstreiber-Programmobjekt 301 in der intelligenten entfernten Einrichtung auf, um die entfernte Einrichtung zu steuern. Somit ist die Software, die tatsächlich eine intelligente entfernte Einrichtung „steuert", in der intelligenten entfernten Einrichtung selbst angeordnet.
  • Das Verfahren, das Benutzerschnittstellen-Programmobjekt 303 von einer intelligenten entfernten Einrichtung an die Handanzeigeeinrichtung zu senden, wird unter Bezugnahme auf die 18a–18d, 19a–19d und das Flußdiagramm in 20 offenbart. 18a–18d stellen auf hoher Ebene dar, wie die intelligente entfernte Einrichtung 150 und die Handanzeigeeinrichtung 170 der vorliegenden Erfindung miteinander kommunizieren. 19a–19d stellen in konzeptioneller Form dar, wie das Benutzerschnittstellen-Programmobjekt 303 in der intelligenten entfernten Einrichtung 150 an die Handanzeigeeinrichtung 170 gesendet wird.
  • Es wird auf Schritt 101 von 20 Bezug genommen; wenn eine neue intelligente entfernte Einrichtung 150, wie beispielsweise die intelligente Thermostat-Steuereinrichtung in 18a, zum ersten Mal eingeschaltet wird, sendet die neue intelligente entfernte Einrichtung 150 über das Kommunikationsnetzwerk 160, daß sie ein Benutzerschnittstellen-Programmobjekt zu exportieren hat. Wie im Abschnitt über die Hardware dargelegt, kann die Kommunikation auf dem Kommunikationsnetzwerk 160 unter Verwendung von Funkwellen, leistungsarmen, mobilen, infraroten Signalen oder elektrischen Signalen auf den vorhandenen Stromleitungen im Fall eines Echelon®baseLON®-Systems stattfinden. In Schritt 102 empfängt eine Handanzeigeeinrichtung 170 die Schnittstellen-Export-Nachricht. Die Handanzeigeeinrichtung 170 signalisiert über das Kommunikationsnetzwerk 160 an die neue intelligente entfernte Einrichtung 150 zurück und fordert die neue intelligente entfernte Einrichtung 150 auf, mit dem Senden des Benutzerschnittstellenobjekts 303 zu beginnen.
  • Die intelligente entfernte Einrichtung 150 sendet dann das Benutzerschnittstellenobjekt 303 an die Anzeigeeinrichtung 170, wie in Schritt 103 von 20 spezifiziert und in 18a dargestellt wird. Es wird auf 19a Bezug genommen; die intelligente entfernte Einrichtung 150 sendet auch einen Zeiger (wie durch gepunktete Linien angezeigt) an ein Einrichtungstreiber-Programmobjekt 301 in der intelligenten entfernten Einrichtung 150. Das Benutzerschnittstellen-Programmobjekt 303 definiert, wie die Benutzerschnittstelle für die intelligente entfernte Einrichtung 150 auf einem Anzeigebildschirm erscheinen sollte. Das Benutzerschnittstellen-Programmobjekt 303 ruft Verfahren in einem Einrichtungstreiber-Programmobjekt 301 auf, um die Benutzerschnittstellen-Interaktionen zu behandeln. Das Einrichtungstreiber-Programmobjekt 301 enthält Verfahren, die die aktuelle intelligente entfernte Einrichtung 150 steuern. Es wird auf 19b Bezug genommen; die Anzeigeeinrichtung 170 hat nun eine Kopie des Benutzerschnittstellen-Programmobjekts der intelligenten Einrichtung 313 und einen Einrichtungstreiber-Programmobjektzeiger 311.
  • Nach dem Empfang des Benutzerschnittstellen-Programmobjekts 313 ruft die Handanzeigeeinrichtung 170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt 313 auf, das ein Anzeigeobjekt in dem aktuellen Raum wiedergibt, wie in Schritt 104 dargelegt. Die neue intelligente Einrichtung 150 registriert sich auch bei einem entfernten Namen-Server, der mit dem Kommunikationsnetzwerk 160 verbunden ist.
  • Wenn ein Benutzer das Anzeigeobjekt Auswählt, das der neuen intelligenten entfernten Einrichtung 150 zugeordnet ist, ruft die Handanzeigeeinrichtung 170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt 313 auf, wie in Schritt 105 dargelegt (das Objekt mit einem aufgerufenen Verfahren ist im Fettdruck dargestellt). Das Verfahren, das in dem Benutzerschnittstellen-Programmobjekt 313 aufgerufen wird, zeigt die grafische Benutzerschnittstelle der entfernten intelligenten Einrichtung auf dem Anzeigeschirm 171 der Anzeigeeinrichtung 170 an, wie in Figur 18b dargestellt. Ein Benutzer kann mit der grafischen Benutzerschnittstelle der entfernten intelligenten Einrichtung, die auf der Anzeigeeinrichtung 170 angezeigt wird, interagieren, wie in Schritt 106 dargelegt.
  • Der Benutzer steuert die intelligente entfernte Einrichtung 150, indem er mit der grafischen Benutzerschnittstelle, die auf der Handanzeigeeinrichtung 170 angezeigt wird, interagiert. Um die Interaktionen des Benutzers aufzulösen, benötigt das Benutzerschnittstellen-Programmobjekt 313 Steuerungsverfahren in dem Einrichtungstreiber-Programmobjekt 301 der intelligenten entfernten Einrichtung. Um auf die Steuerungsverfahren des Einrichtungstreiber-Programmobjekts 301 der intelligenten entfernten Einrichtung zuzugreifen, verwendet die Handanzeigeeinrichtung 170 den Einrichtungstreiber-Programmobjektzeiger 311. Der Einrichtungstreiber-Programmobjektzeiger 311 ruft die Verfahren in dem realen Einrichtungstreiber-Programmobjekt 301 auf. Das Einrichtungstreiber-Programmobjekt 301 der intelligenten entfernten Einrichtung wird aufgerufen, indem eine Nachricht über das Kommunikationsnetzwerk 160 gesendet wird, wie in 18c und 19c dargestellt (wieder ist das Objekt mit einem aufgerufenen Verfahren im Fettdruck dargestellt). Die aufgerufenen Verfahren in dem Einrichtungstreiber-Programmobjekt 301 der intelligenten entfernten Einrichtung steuern die intelligente Einrichtung 150, wie in Schritt 108 dargelegt.
  • Schließlich werden in Schritt 109 alle Rückgabewerte oder Rückmeldungen, die von dem Einrichtungstreiber-Programmobjekt 301 in der intelligenten entfernten Einrichtung 150 erzeugt werden, an die Handanzeigeeinrichtung 170 über das Kommunikationsnetzwerk 160 zurückgesendet, wie in 18d und 19d dargestellt. Das Benutzerschnittstellen-Programmobjekt 313 verändert die grafische Benutzerschnittstelle auf dem Anzeigebildschirm 171 als Reaktion auf die Rückgabewerte oder Rückmeldungen, die von Einrichtungstreiber-Programmobjekt 301 in der intelligenten entfernten Einrichtung 150 empfangen wurden.
  • Ein stabiles Kommunikationsprotokoll über das Kommunikationsnetzwerk 160 ist erforderlich, um entfernte Verfahrensaufrufe zwischen der Handanzeigeeinrichtung 170 und der intelligenten entfernten Einrichtung 150 zu übermitteln. Sowohl die Handanzeigeeinrichtung 170, die den Verfahrensaufruf anfordert, als auch die intelligente entfernte Einrichtung 150, die das Verfahren ausführt, müssen in der Lage sein, einen unterbrochenen Kommunikationspfad zu behandeln. Daher verfügt sowohl die Handanzeigeeinrichtung 170 als auch die intelligente entfernte Einrichtung 150 über einen speziellen Aufruf-einer-entfernten-Prozedur(RPC)-Manager, der den Aufruf entfernter Verfahren behandelt. Es wird auf 19a–19d Bezug genommen; der Aufruf-Manager 309 für eine entfernte Prozedur sendet die Anforderung für den Aufruf eines entfernten Verfahrens für die Handanzeigeeinrichtung 170. Auf der anderen Seite verarbeitet ein Server- Aufruf-Manager 307 für eine entfernte Prozedur den empfangenen Aufruf für das entfernte Verfahren in einer intelligenten entfernten Einrichtung 150.
  • 21a und 21b stellen Zustandsdiagramme dar, die zur Steuerung der Aufruf-einer-entfernten-Prozedur(RPC)-Manager verwendet werden, die den Aufruf entfernter Verfahren sowohl auf der Seite der Handanzeigeeinrichtung 170 als auch auf der Seite der entfernten Einrichtung behandeln. Zusammen genommen offenbaren die Zustandsdiagramme in den 21a und 21b einen Handshake, der zwischen der Handanzeigeeinrichtung 170 und der intelligenten entfernten Einrichtung 150 verwendet wird, um eine zuverlässige Kommunikationen zu sichern.
  • 21a stellt einen Automaten für den Aufruf-einer-entfernten-Prozedur-Manager 309 in der Handanzeigeeinrichtung 170 dar, der die Seite der Anzeigeeinrichtung eines Aufrufs für ein entferntes Verfahren behandelt. Bei der vorliegenden Erfindung verlangt das Benutzerschnittstellen-Programmobjekt 313 in der Handanzeigeeinrichtung 170 Aufrufe für entfernte Verfahren für die Einrichtungstreiber-Programmobjekte 301, die in den intelligenten entfernten Einrichtung angeordnet sind. Es wird auf 21a Bezug genommen; wenn ein Benutzerschnittstellenobjekt den Aufruf eines entfernten Verfahrens verlangt, tritt der RPC-Manager der Handanzeigeeinrichtung in den „Bereit-zum-Senden"-Zustand 403 ein. Der RPC-Manager der Anzeigeeinrichtung setzt dann einen Fehler-Zeitkontroll-Zeitgeber und sendet ein Paket, das eine Nachricht mit einem Verfahrensselektor und zugehörigen Daten enthält. Nach dem Senden des Pakets tritt der RPC-Manager der Anzeigeeinrichtung in einen „Warten-auf-Rückantwort"-Zustand 405 ein. Wenn die richtige Rückantwortnachricht zurückgesendet wird, ist der Verfahrensaufruf abgeschlossen und die Rückantwortnachricht wird bei Zustand 407 analysiert.
  • Aufrufe für entfernte Verfahren sind nicht immer so problemlos abzuschließen. Wenn das Einrichtungstreiber-Programmobjekt 301 in der intelligenten entfernten Einrichtung 150 mehr Zeit benötigt, um das Verfahren abzuschließen, sendet es eine Nachricht zurück, um mehr Zeit anzufordern. Der RPC-Manager der Anzeigeeinrichtung antwortet, indem er sich in den Zustand 409 bewegt, wo er den Zeitüberschreitungswert erhöht. Wenn der RPC-Manager der Anzeigeeinrichtung bis zu dem Zeitpunkt, wenn der Fehler-Zeitkontroll-Zeitgeber abläuft, keine Rückantwort erhält, bewegt sich der RPC-Manager der Anzeigeeinrichtung in einen „Fehlerbehebung"-Zustand 411. Wenn der Fehler-Zeitkontroll-Zeitgeber weniger oft als eine vorherbestimmte Zahl abläuft, kehrt der RPC-Manager in den „Bereit-zum-Senden"-Zustand 403 zurück. Wenn der Fehler-Zeitkontroll-Zeitgeber einen vorherbestimmten Grenzwert erreicht, gibt der RPC-Manager der Anzeigeeinrichtung den Aufruf für das entfernte Verfahren auf und tritt in einen Fehlgeschlagen-Zustand 413 ein. Der Benutzer wird dann normalerweise über das Kommunikationsproblem informiert.
  • 21b stellt eine Zustandsmaschine bzw. einen Automaten für einen Aufruf-einer-entfernten-Prozedur-Manager 307 in einer intelligenten entfernten Einrichtung dar, der die Seite der entfernten Einrichtung eines Aufrufs für ein entferntes Verfahren behandelt. Der RPC-Manager 307 der entfernten Einrichtung beginnt in einem „Warten-auf-Empfangen"-Zustand 451. Wenn ein Paket empfangen wird, analysiert der RPC-Manager der entfernten Einrichtung das Paket bei Zustand 453. Wenn das empfangene Paket eine neue Nachricht enthält, die einen Verfahrensaufruf anfordert, übergibt der RPC-Manager der entfernten Einrichtung das Paket an ein Objekt, das das Verfahren der Anforderung bei Zustand 455 ausführt. Der RPC-Manager der entfernten Einrichtung sendet dann ein Ergebnis und kehrt in den Wartezustand 451 zurück.
  • Wenn das empfangene Paket eine Nachricht enthält, die die entfernte Einrichtung bereits gesehen hat, bewegt sich der RPC-Manager der intelligenten entfernten Einrichtung in Zustand 457, wo die intelligente entfernte Einrichtung bestimmt, ob die Methodenaufrufanforderung bereits abgeschlossen war oder ob sie noch an der Anforderung arbeitet. Wenn die intelligente entfernte Einrichtung die Anforderung bereits abgeschlossen hat, sendet das Teilsystem die Ergebnisse bei Zustand 459 erneut und kehrt in den Wartezustand 451 zurück. Wenn andernfalls die intelligente entfernte Einrichtung noch an dem Methodenaufruf arbeitet, bewegt sich der RPC-Manager der entfernten Einrichtung in Zustand 461, wo der RPC-Manager der entfernten Einrichtung mehr Zeit anfordert, um das aufgerufene Verfahren abzuschließen und kehrt dann in den Wartezustand 451 zurück.
  • 21c stellt die Abfolge eines Aufrufs für ein entferntes Verfahren dar, wenn es keine Kommunikationsprobleme gibt. Bei Schritt 501 fordert ein Benutzerschnittstellenobjekt in der Handanzeigeeinrichtung den Aufruf für ein entferntes Verfahren an. Daher sendet das Benutzerschnittstellenobjekt eine Nachricht mit einem Verfahrensselektor und einem Argument an den RPC-Manager der Anzeigeeinrichtung. Der RPC-Manager der Anzeigeeinrichtung verpackt bei Schritt 502 die empfangene Nachricht in ein Paket und sendet das Paket bei Schritt 503 über das Kommunikationsnetzwerk.
  • Der RPC-Manager der intelligenten entfernten Einrichtung empfängt das gesendete Paket bei Schritt 504. Der RPC-Manager der entfernten Einrichtung entpackt bei Schritt 505 die Nachricht aus dem Paket und richtet das Paket an das Einrichtungstreiber-Programmobjekt in der intelligenten entfernten Einrichtung. Das Einrichtungstreiber-Programmobjekt ruft bei Schritt 506 das Verfahren auf, das von dem Verfahrensselektor in der Nachricht spezifiziert wird. Das Einrichtungstreiber-Programmobjekt erzeugt eine Erwiderungsnachricht, die an den RPC-Manager der entfernten Einrichtung zurückgeleitet wird. Bei Schritt 507 packt der RPC-Manager der entfernten Einrichtung die Erwiderungsnachricht in einen Rückantwortpuffer. Der RPC-Manager der entfernten Einrichtung sendet den Rückantwortpuffer bei Schritt 508.
  • Der RPC-Manager der Anzeigeeinrichtung empfängt den Rückantwortpuffer bei Schritt 509 und entpackt bei Schritt 510 den Rückantwortpuffer, um einen Rückgabewert zu extrahieren. Der RPC-Manager der Anzeigeeinrichtung liefert den Rückgabewert an das anfordernde Benutzerschnittstellen-Programmobjekt, welches das Verfahren in dem Einrichtungstreiber-Programmobjekt aufgerufen hat. Schließlich analysiert das Benutzerschnittstellen-Programmobjekt den Rückgabewert bei Schritt 511.
  • Wie dargestellt, kann die vorliegende Erfindung eine intelligente entfernte Einrichtung durch entferntes Aufrufen von Verfahren in einem Einrichtungstreiber-Programmobjekt, das in der intelligenten entfernten Einrichtung angeordnet ist, steuern. Außerdem wird dem Leser klar sein, daß die entfernte Einrichtung ebenfalls entfernt Verfahren in der Anzeigeeinrichtung aufrufen kann. Beispielsweise kann das Einrichtungstreiberobjekt in einer entfernten Einrichtung ein Verfahren in einem Benutzerschnittstellenobjekt in der Anzeigeinrichtung aufrufen, um eine Nachricht anzuzeigen.
  • Viele entfernte Einrichtungen sind technisch nicht genügend fortgeschritten, um über interne Steuerungsverfahren zu verfügen, die von der Anzeigeeinrichtung aufgerufen werden können. Daher stellt die vorliegende Erfindung andere Verfahren für das Steuern einfacher Einrichtungen bereit.
  • Steuerung einfacher Einrichtungen
  • In der vorliegenden Erfindung wird eine entfernte Einrichtung als eine „einfache Einrichtung" definiert, wenn die entfernte Einrichtung keinen Mikroprozessor aufweist, oder wenn die entfernte Einrichtung einen derart primitiven Prozessor aufweist, daß die Anzeigeeinrichtung in der entfernten Einrichtung keine Steuerungsverfahren aufrufen kann. 1d zeigt in Form einer Blockdarstellung die Komponenten einer einfachen entfernten Einrichtung. Um eine einfache Einrichtung zu steuern, sendet die Handanzeigeeinrichtung der vorliegenden Erfindung einfache vordefinierte Steuercodes, anstatt Steuerungsverfahren in der einfachen entfernten Einrichtung aufzurufen. Daher muß die Handanzeigeeinrichtung zur Steuerung einer einfachen entfernten Einrichtung sowohl ein Benutzerschnittstellen-Programmobjekt als auch ein Einrichtungstreiber-Programmobjekt von der einfachen entfernten Einrichtung erhalten.
  • Ein Beispiel für den Erhalt eines Benutzerschnittstellen-Programmobjekts und eines Einrichtungstreiber-Programmobjekts von einer einfachen entfernten Einrichtung wird unter Bezugnahme auf die 22a–22d, 23a–23d und das Flußdiagramm 24 gegeben. Die 22a–22d stellen auf hoher Ebene dar, wie die einfache entfernte Einrichtung 155 und die Handanzeigeeinrichtung 170 der vorliegenden Erfindung miteinander kommunizieren. Die 23a–23d stellen in konzeptioneller Form dar, wie das Benutzerschnittstellen-Programmobjekt 353 und das Einrichtungstreiber-Programmobjekt 351 der entfernten externen Einrichtung 150 zu der Handanzeigeeinrichtung 170 transportiert und verwendet werden.
  • Es wird auf 22a Bezug genommen; es wird ein Thermostat dargestellt, der als eine einfache entfernte Einrichtung 155 implementiert ist. Wie von Schritt 124 in 24 spezifiziert wird, sendet die einfache entfernte Einrichtung 155 von 22a sowohl ein Benutzerschnittstellen-Programmobjekt als auch ein Einrichtungstreiber-Programmobjekt an die Handanzeigeeinrichtung 170. Wie in 23a konzeptionell dargestellt, sendet die einfache Einrichtung 155 das Benutzerschnittstellen-Programmobjekt 353 und das Einrichtungstreiber-Programmobjekt 351. Die Übertragung der Programmobjekte erfolgt unter Verwendung von Kommunikationsmitteln 162, die ein Kommunikationsnetzwerk oder jedes an dere Mittel der Informationsübermittlung an die Handanzeigeeinrichtung 170 sein können.
  • Die Handanzeigeeinrichtung 170 empfängt die Kopie des Benutzerschnittstellen-Programmobjekts 363, das die grafische Benutzerschnittstelle der einfachen Einrichtung beschreibt. Die Handanzeigeeinrichtung 170 ruft dann ein Verfahren in dem Benutzerschnittstellen-Programmobjekt 363 auf, das ein Anzeigeobjekt in einem Raum wiedergibt, der auf der Handanzeigeeinrichtung 170 gezeigt wird. Wenn ein Benutzer das Anzeigeobjekt Auswählt, das der einfachen entfernten Einrichtung 155 zugeordnet ist, ruft die Anzeigeeinrichtung 170 ein Verfahren in dem Benutzerschnittstellen-Programmobjekt 363 auf, wie in Schritt 125 von 24 dargelegt und in 22b dargestellt. Das Verfahren, das in dem Benutzerschnittstellen-Programmobjekt 363 aufgerufen wird, zeigt eine grafische Benutzerschnittstelle an, die der einfachen entfernten Einrichtung auf dem Anzeigebildschirm 171 der Anzeigeeinrichtung 170 zugeordnet ist. Der Benutzer kann dann mit der grafischen Benutzerschnittstelle der einfachen entfernten Einrichtung auf der Anzeigeeinrichtung 170 interagieren, wie in Schritt 127 dargelegt.
  • Die Interaktionen des Benutzers mit der grafischen Benutzerschnittstelle der einfachen Einrichtung werden von dem Einrichtungstreiber-Programmobjekt 361 der einfachen Einrichtung in der Anzeigeeinrichtung 150 analysiert. Das Einrichtungstreiber-Programmobjekt 361 löst die Interaktionen des Benutzers in Steuercodes auf, auf die die einfache entfernte Einrichtung 155 antworten wird. Wie in 23c dargestellt, analysiert das Einrichtungstreiber-Programmobjekt 361, das in der Anzeigeeinrichtung 170 angeordnet ist, die Aktionen des Benutzers.
  • Es wird auf 22c und 23c Bezug genommen; die Handanzeigeeinrichtung 170 sendet die Steuercodes an die einfache entfernte Einrichtung 155. Die einfache entfernte Einrichtung 155 verändert sich als Antwort auf die empfangenen Steuercodes, wie in Schritt 130 dargelegt. Wenn schließlich die einfache entfernte Einrichtung 155 und die Anzeigeeinrichtung 170 von einem Kommunikationsnetzwerk miteinander gekoppelt werden, kann die einfache Einrichtung 155 jegliche Rückgabewerte oder Rückmeldungen senden, die von der einfachen entfernten Einrichtung 155 erzeugt werden, wie in 22d dargestellt.
  • Herkömmliche Einrichtungssteuerung
  • Existierende entfernte Einrichtungen, die nicht für die Handanzeigeeinrichtung der vorliegenden Erfindung ausgelegt sind, verfügen nicht über ein Benutzerschnittstellen-Programmobjekt, das sie an die Handanzeigeeinrichtung senden können. Beispielsweise stellt 1e eine typische existierende entfernte Einrichtung dar, die nur auf codierte Befehlssignale, wie beispielweise Infrarotsignale, reagieren kann. In derartigen Fällen muß die Handanzeigeeinrichtung manuell über die entfernte Einrichtung informiert werden. Die Handanzeigeeinrichtung verwendet dann ein allgemeines Benutzerschnittstellen-Programmobjekt für den Typ der entfernten Einrichtung.
  • Wenn beispielweise ein Benutzer über ein herkömmliches Fernsehgerät verfügt, das durch Infrarotsignale gesteuert wird, gibt der Benutzer eine Typennummer des Fernsehgeräts ein, um die Handanzeigeeinrichtung über das herkömmliche Fernsehgerät zu informieren. Die Handanzeigeeinrichtung greift dann auf eine Datenbank zu, um eine Liste der Steuercodes zu erhalten, die das herkömmliche Fernsehgerät versteht. Es wird dann ein Fernsehanzeigeobjekt erzeugt, um das herkömmliche Fernsehgerät zu steuern. Wenn der Benutzer das Fernsehanzeigeobjekt auswählt, ruft die Handanzeigeeinrichtung ein Verfahren auf, das eine allgemeine Fernsehbenutzerschnittstelle anzeigt. Wenn der Benutzer mit der allgemeinen Fernsehbenutzerschnittstelle interagiert, sendet die Anzei geeinrichtung die richtigen Infrarot-Steuercodes, um das Fernsehgerät zu steuern.
  • Zusammenfassung
  • Im gehenden wurde eine intuitive grafische Benutzerschnittstelle beschrieben, die auf einer geographischen Kartenstruktur und einem System zur Steuerung entfernter externer elektronischer Einrichtungen basiert. In der Benutzerschnittstelle der vorliegenden Erfindung wird jeder Raum einer geographischen Kartenstruktur auf einer Berührungsbildschirmanzeige als ein Raum wiedergegeben. In jedem Raum befinden sich farbige Icons, „Objekte" genannt, die von dem Benutzer Ausgewählt und gehandhabt werden können. Bestimmte Objekte, die als Portale bezeichnet werden, befördern den Benutzer von einem Raum in einen anderen Raum, wenn sie Ausgewählt werden. Andere Objekte, die als Schaltflächen bezeichnet werden, führen zugeordnete Aktionen oder Funktionen aus, wenn sie Ausgewählt werden. Die Benutzerschnittstelle wird auf einer Handanzeigeeinrichtung angezeigt, die entfernte elektronische Einrichtungen steuern kann. Jede entfernte elektronische Einrichtung sendet ein Benutzerschnittstellen-Programmobjekt an die Anzeigeeinrichtung, das eine grafische Benutzerschnittstelle definiert. Die Handanzeigeeinrichtung zeigt die grafische Benutzerschnittstelle an, die der entfernten Einrichtung zugeordnet ist, wenn ein Benutzer ein Icon auswählt, das der entfernten Einrichtung auf der Berührungsbildschirmanzeige der Anzeigeeinrichtung zugeordnet ist. Es ist in Betracht zu ziehen, daß von einem Durchschnittsfachmann Veränderungen und Modifikationen hinsichtlich der Materialien und Anordnungen der Elemente der vorliegenden Erfindung vorgenommen werden können, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (10)

  1. Ein Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170), wobei das Computersystem eine CPU (30), einen Speicher (33) und einen Graphikanzeigebildschirm (37) aufweist, wobei das Verfahren die Schritte umfaßt: Bereitstellen einer Mehrzahl von Räumen (32, 50, 60 ...), wobei jeder der Räume ein graphisches Hintergrundbild aufweist; Organisieren der Räume (32, 50, 60 ...) in einer gerichteten Graphenstruktur, wobei die Räume miteinander über eine Mehrzahl von Portalen (47, 48, 49, 52, 54, ...) verbunden sind; Lokalisieren der Mehrzahl von Portalen (47, 48, 49 ...) in den Räumen (32, 50, 60 ...), wobei jedes der Portale einen zugehörigen Zielraum derart aufweist, daß das Portal den Raum, in dem es sich befindet, mit dem zugehörigen Zielraum verbindet, wobei jedes der Portale ein graphisches Icon aufweist; Wiedergeben eines graphischen Hintergrundbilds, eines ersten Raums und der in dem ersten Raum angeordneten Portale auf dem Graphikanzeigebildschirm, wobei der erste Raum wenigstens ein erstes Portal aufweist; Empfangen einer Eingabe von einem Benutzer, wobei die Eingabe ein aus den in dem ersten Raum angeordneten Portalen ausgewähltes Portal umfaßt; und Wiedergeben eines graphischen Hintergrundbildes eines dem ausgewählten Portal zugeordneten Zielraums auf dem Graphikanzeigebildschirm (37); so daß sich der Benutzer zwischen den Räumen in der gerichteten Graphenstruktur bewegen kann, indem er die Portale in den Räumen auswählt; und Übertragen ausgewählter Objekte in dem ersten Raum in den Zielraum unter Verwendung eines zweiten Portals, wobei die Schnittstelle Zustandsinformationen an den Benutzer übermittelt, indem sie ein visuelles Erscheinungsbild des zweiten Portals animiert, um die Aufmerksamkeit des Benutzers darauf zu lenken.
  2. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 1, wobei ferner die Schritte des Wiedergebens eines Hintergrundbildes die Schritte umfassen: Wiedergeben einer ersten Teilmenge des Hintergrundbildes auf dem Graphikanzeigebildschirm (37), wobei die erste Teilmenge aus einem ersten Ort in dem Hintergrundbild herrührt; Empfangen einer Richtungseingabe von dem Benutzer, wobei die Richtungseingabe eine Bewegungsrichtung umfaßt; und Wiedergeben einer zweiten Teilmenge des Hintergrundbildes auf dem Graphikanzeigebildschirm (37), wobei die zweite Teilmenge aus einem zweiten Ort in dem Hintergrundbild herrührt, wobei der zweite Ort dem ersten Ort plus einem der Bewegungsrichtung entsprechenden Versatz entspricht; so daß dieser Benutzer sich in einem Hintergrundbild, das einem Raum zugeordnet ist, bewegen kann.
  3. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 2, wobei ferner der Schritt des Empfangens einer Richtungseingabe von dem Benutzer das Erfassen des Gleitens eines Fingers des Benutzers über den Anzeigebildschirm (37) umfaßt.
  4. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 1, ferner umfassend die Schritte: Bereitstellen eines Rückwegportals (45), wobei das Rückwegportal in jedem der Räume (32, 50, 60 ...) angezeigt wird, wobei das Rückwegportal (45) einen Stapel von Daten strukturen aufweist, wobei jede der Datenstrukturen einen Zeiger aufweist, wobei jeder der Zeiger auf einen der Räume verweist; Schieben einer ersten Datenstruktur auf den Rückwegportalstapel, wenn sich der Benutzer in den ersten Raum bewegt, wobei die erste Datenstruktur einen Zeiger auf den ersten Raum enthält; Wegnehmen einer zweiten Datenstruktur von dem Rückwegportalstapel, wenn der Benutzer das Rückwegportal auswählt, wobei die zweite Datenstruktur einen Zeiger auf einen zweiten Raum enthält; und Bewegen des Benutzers in den zweiten Raum, auf den durch den Zeiger in der zweiten Datenstruktur, die von dem Rückwegportalstapel weggenommen worden ist, verwiesen wird; so daß der Benutzer entlang eines Pfades von Räumen zurückgeführt werden kann, durch die sich der Benutzer bewegt.
  5. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 4, wobei die Datenstrukturen in dem Rückwegportal (45) ferner eine Koordinate aufweisen, wobei die Koordinate einen Ort in dem ersten Raum identifiziert, an dem der Benutzer war, als der Benutzer den ersten Raum verließ.
  6. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 4, wobei das Rückwegportal (45) als Momentaufnahme eines Raumes, auf den durch einen Zeiger in einer Datenstruktur an der Oberseite des Rückwegportalstapels verwiesen wird, wiedergegeben wird.
  7. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 1, ferner umfassend die Schritte: Bereitstellen einer Mehrzahl von Schaltflächenobjekten (61, 62, 66, 67, 68, 69), wobei jedem der Schaltflächenobjekte eine Funktion zugeordnet ist; Wiedergeben der Schaltflächenobjekte in den Räumen, wobei die Schaltflächenobjekte graphische Icons umfassen; und Ausführen der Funktion, die einem Schaltflächenobjekt zugeordnet ist, wenn das Schaltflächenobjekt von einem Benutzer ausgewählt wird.
  8. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 1, wobei der Anzeigebildschirm (37) ein berührungsempfindlicher Anzeigebildschirm ist.
  9. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 8, wobei die Eingabe von dem Benutzer eine Fingerberührung des berührungsempfindlichen Anzeigebildschirms (37) umfaßt.
  10. Das Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle auf einem Computersystem (170) nach Anspruch 1, wobei das Verfahren ferner die Schritte umfaßt: Wiedergeben eines anthropomorphischen graphischen Zeichens auf der Anzeige; Wecken der Aufmerksamkeit des Benutzers, indem das anthropomorphische graphische Zeichen animiert wird; und Übermitteln von Zustandsinformationen an den Benutzer, indem das visuelle Erscheinungsbild des anthropomorphischen Zeichens geändert wird.
DE69432199T 1993-05-24 1994-04-13 Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen Expired - Fee Related DE69432199T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US67574 1979-08-17
US6757493A 1993-05-24 1993-05-24

Publications (2)

Publication Number Publication Date
DE69432199D1 DE69432199D1 (de) 2003-04-10
DE69432199T2 true DE69432199T2 (de) 2004-01-08

Family

ID=22076936

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69432199T Expired - Fee Related DE69432199T2 (de) 1993-05-24 1994-04-13 Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen

Country Status (4)

Country Link
US (7) US6160551A (de)
EP (1) EP0626635B1 (de)
JP (2) JP3898235B2 (de)
DE (1) DE69432199T2 (de)

Families Citing this family (1066)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0626635B1 (de) * 1993-05-24 2003-03-05 Sun Microsystems, Inc. Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
CN100545828C (zh) * 1993-07-30 2009-09-30 佳能株式会社 控制连接到网络的网络设备的控制设备及其控制方法
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US8280682B2 (en) 2000-12-15 2012-10-02 Tvipr, Llc Device for monitoring movement of shipped goods
DE19539172C2 (de) * 1995-03-13 1998-06-18 Nsm Ag Multimedia-Box
US5671378A (en) * 1995-03-31 1997-09-23 International Business Machines Corporation Method and system for sizing of graphical user interface objects for localization
JP3671259B2 (ja) * 1995-05-31 2005-07-13 カシオ計算機株式会社 表示装置
US6072521A (en) * 1995-06-15 2000-06-06 Intel Corporation Hand held apparatus for simulating two way connectivity for one way data streams
JP3755164B2 (ja) * 1995-06-16 2006-03-15 ソニー株式会社 画像表示装置及び方法、並びに情報提供装置及び方法
JPH096575A (ja) * 1995-06-16 1997-01-10 Sony Corp 情報通信方法及び装置
JP3735890B2 (ja) * 1995-06-16 2006-01-18 ソニー株式会社 オンライン端末装置及び画像表示方法
US6359636B1 (en) * 1995-07-17 2002-03-19 Gateway, Inc. Graphical user interface for control of a home entertainment system
WO1997004370A1 (de) * 1995-07-22 1997-02-06 Kuka Roboter Gmbh Steuer- und programmiereinrichtung
DE19530955A1 (de) * 1995-08-23 1997-02-27 Miro Computer Prod Ag Bedienungsanordnung für eine Mehrzahl von Multimediageräten
JP3786294B2 (ja) * 1995-10-02 2006-06-14 ソニー株式会社 画像制御装置および方法
JPH0997162A (ja) * 1995-10-02 1997-04-08 Sony Corp 画像制御装置および方法
JP3834849B2 (ja) * 1995-10-02 2006-10-18 ソニー株式会社 画像制御装置および方法
JPH09116791A (ja) * 1995-10-23 1997-05-02 Nikon Corp 情報処理機器
US6267673B1 (en) * 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
DE19548776A1 (de) * 1995-12-23 1997-06-26 Thomson Brandt Gmbh Verfahren zur Fernbedienung von elektronischen Geräten und Vorrichtung zur Fernbedienung von elektronischen Geräten sowie elektronisches Gerät
US7035914B1 (en) 1996-01-26 2006-04-25 Simpleair Holdings, Inc. System and method for transmission of data
US5905442A (en) * 1996-02-07 1999-05-18 Lutron Electronics Co., Inc. Method and apparatus for controlling and determining the status of electrical devices from remote locations
JP2000512039A (ja) * 1996-03-15 2000-09-12 ザパ デジタル アーツ リミテッド プログラム可能なコンピュータグラフィックオブジェクト
JP3911047B2 (ja) * 1996-04-30 2007-05-09 ソニー株式会社 録画予約制御システム及び録画予約制御方法
US5859982A (en) * 1996-06-05 1999-01-12 Sun Microsystems, Inc. Computer system and method for executing methods of downloaded programs with reduced run-time memory space requirements
US5922050A (en) * 1996-07-02 1999-07-13 Sun Microsystems, Inc. Method and apparatus for controlling a device on a network
US6229533B1 (en) * 1996-08-02 2001-05-08 Fujitsu Limited Ghost object for a virtual world
US6411308B1 (en) * 1996-08-14 2002-06-25 Samsung Electronics Co., Ltd. Television graphical user interface having variable channel control bars
US7221853B1 (en) 1996-09-05 2007-05-22 Sony Corporation Digital recording apparatus and copyright protection method thereof
MY121267A (en) 1996-09-05 2006-01-28 Sony Corp Digital recording apparatus and copyright protection method thereof
JP3941178B2 (ja) 1996-09-05 2007-07-04 ソニー株式会社 記録媒体、デジタル記録機器、及び制御用ic
US6757729B1 (en) * 1996-10-07 2004-06-29 International Business Machines Corporation Virtual environment manager for network computers
US5956487A (en) * 1996-10-25 1999-09-21 Hewlett-Packard Company Embedding web access mechanism in an appliance for user interface functions including a web server and web browser
US6211921B1 (en) 1996-12-20 2001-04-03 Philips Electronics North America Corporation User interface for television
TW401548B (en) * 1996-12-20 2000-08-11 Sony Corp Method and apparatus for sending E-mail, method and apparatus for receiving E-mail, sending program supplying medium, receiving program supplying medium
US6760751B1 (en) 1996-12-20 2004-07-06 Sony Corporation Method and apparatus for automatic sending of E-mail and automatic sending control program supplying medium
JP4038700B2 (ja) * 1997-02-17 2008-01-30 ソニー株式会社 電子機器制御装置および方法、並びに、情報処理システムおよび方法
JP3870983B2 (ja) * 1997-02-17 2007-01-24 ソニー株式会社 電子機器制御装置および方法、並びに電子機器
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
JPH1186038A (ja) * 1997-03-03 1999-03-30 Sega Enterp Ltd 画像処理装置、画像処理方法及び媒体並びにゲーム機
US6504580B1 (en) 1997-03-24 2003-01-07 Evolve Products, Inc. Non-Telephonic, non-remote controller, wireless information presentation device with advertising display
US6205485B1 (en) 1997-03-27 2001-03-20 Lextron Systems, Inc Simulcast WEB page delivery using a 3D user interface system
DE69835314T2 (de) * 1997-04-15 2007-05-10 Hewlett-Packard Development Co., L.P., Houston Verfahren und Vorrichtung zur formatgesteuerten Interaktion zwischen Geräten
JP3491665B2 (ja) * 1997-04-16 2004-01-26 ソニー株式会社 遠隔制御装置および遠隔制御方法
US7155677B2 (en) * 1997-04-25 2006-12-26 Diane Kessenich Portal for supplying supplementary information for printed books
DE19719038C2 (de) * 1997-04-30 2002-10-24 Art & Com Medientechnologie Un Vorrichtung und Verfahren und ihre Verwendung zur veränderbaren Darstellung
US5990884A (en) * 1997-05-02 1999-11-23 Sony Corporation Control of multimedia information with interface specification stored on multimedia component
US6281898B1 (en) * 1997-05-16 2001-08-28 Philips Electronics North America Corporation Spatial browsing approach to multimedia information retrieval
US6204850B1 (en) * 1997-05-30 2001-03-20 Daniel R. Green Scaleable camera model for the navigation and display of information structures using nested, bounded 3D coordinate spaces
US6260192B1 (en) 1997-06-02 2001-07-10 Sony Corporation Filtering system based on pattern of usage
US6397387B1 (en) 1997-06-02 2002-05-28 Sony Corporation Client and server system
US6072483A (en) 1997-06-02 2000-06-06 Sony Corporation Active frame scroll interface
US7503057B2 (en) * 1997-06-02 2009-03-10 Sony Corporation Client and server system
US6195692B1 (en) 1997-06-02 2001-02-27 Sony Corporation Television/internet system having multiple data stream connections
US6028600A (en) * 1997-06-02 2000-02-22 Sony Corporation Rotary menu wheel interface
JP4367971B2 (ja) 1997-06-05 2009-11-18 ソニー株式会社 電子機器制御装置、電子機器制御方法、および電子機器
US5956025A (en) * 1997-06-09 1999-09-21 Philips Electronics North America Corporation Remote with 3D organized GUI for a home entertainment system
US6988248B1 (en) * 1997-06-30 2006-01-17 Sun Microsystems, Inc. Animated indicators that reflect function activity or state of objects data or processes
US6320592B1 (en) * 1997-06-30 2001-11-20 Sun Microsystems, Inc. Method and apparatus for separating image data from a color system in image processing
US6211870B1 (en) * 1997-07-07 2001-04-03 Combi/Mote Corp. Computer programmable remote control
US5819294A (en) * 1997-08-06 1998-10-06 Philips Electronics North America Corporation Automatic configuration mechanism for universal remote
JPH1165968A (ja) * 1997-08-13 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> ネットワーク管理方法及びそのシステム
US6802053B1 (en) * 1997-08-18 2004-10-05 National Instruments Corporation Graphical programming system with distributed block diagram execution and front panel display
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
DE69806610T2 (de) * 1997-08-28 2003-03-27 Thomson Consumer Electronics System und verfahren zur navigation in einer anzeige mit verschiedenen anzeigebereichen
JPH11110106A (ja) * 1997-10-02 1999-04-23 Sharp Corp メニュー操作装置
US7039876B2 (en) * 1997-10-06 2006-05-02 Canon Kabushiki Kaisha User interface for image acquisition devices
FR2770017B1 (fr) 1997-10-17 1999-12-03 Thomson Multimedia Sa Systeme de controle d'equipement domestique par affichage graphique sur ecran
US7434172B1 (en) 1997-10-21 2008-10-07 International Business Machines Corporation Color and symbol coded visual cues for relating screen items to each other
EP1029418A2 (de) * 1997-11-07 2000-08-23 Hill-Rom, Inc. Übertragung und datenerfassungs-einheit
US7159009B2 (en) 1997-12-17 2007-01-02 Sony Corporation Method and apparatus for automatic sending of e-mail and automatic sending control program supplying medium
AU9717798A (en) * 1998-01-13 1999-08-05 Sony Electronics Inc. System and method for enabling manipulation of graphic images to form a graphic image
JPH11212934A (ja) * 1998-01-23 1999-08-06 Sony Corp 情報処理装置および方法、並びに提供媒体
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100595920B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
JP3634614B2 (ja) * 1998-02-17 2005-03-30 富士通株式会社 通信システムおよび通信装置
FR2776415A1 (fr) * 1998-03-20 1999-09-24 Philips Consumer Communication Appareil electronique comportant un ecran et procede pour afficher des graphismes
US6298409B1 (en) * 1998-03-26 2001-10-02 Micron Technology, Inc. System for data and interrupt posting for computer devices
US6735767B1 (en) 1998-04-10 2004-05-11 International Business Machines Corporation Installation planning window
US6211856B1 (en) * 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
JP2002514798A (ja) * 1998-05-07 2002-05-21 サムスン エレクトロニクス カンパニー リミテッド ネットワーク内のデバイス−デバイス間命令及び制御のための方法及びシステム
EP0996307A4 (de) * 1998-05-13 2006-08-16 Matsushita Electric Ind Co Ltd Netzsteuersystem, steuereinheit sowie vorrichtung
US7603684B1 (en) 1998-05-19 2009-10-13 United Video Properties, Inc. Program guide system with video-on-demand browsing
US6456892B1 (en) * 1998-07-01 2002-09-24 Sony Electronics, Inc. Data driven interaction for networked control of a DDI target device over a home entertainment network
US7865832B2 (en) * 1999-07-26 2011-01-04 Sony Corporation Extended elements and mechanisms for displaying a rich graphical user interface in panel subunit
AR020608A1 (es) 1998-07-17 2002-05-22 United Video Properties Inc Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto
ID27981A (id) 1998-07-20 2001-05-03 Canal Plus Sa Sistem kemudi untuk sistem televisi digital multikanal
US7831930B2 (en) 2001-11-20 2010-11-09 Universal Electronics Inc. System and method for displaying a user interface for a remote control application
US6754905B2 (en) 1998-07-23 2004-06-22 Diva Systems Corporation Data structure and methods for providing an interactive program guide
US9924234B2 (en) * 1998-07-23 2018-03-20 Comcast Ip Holdings I, Llc Data structure and methods for providing an interactive program
US20010015719A1 (en) * 1998-08-04 2001-08-23 U.S. Philips Corporation Remote control has animated gui
US6208341B1 (en) * 1998-08-05 2001-03-27 U. S. Philips Corporation GUI of remote control facilitates user-friendly editing of macros
US6738809B1 (en) 1998-08-21 2004-05-18 Nortel Networks Limited Network presence indicator for communications management
EP0989700B1 (de) * 1998-08-21 2006-03-29 Nortel Networks Limited Netzanwesenheitsindikator für Kommunikationsverwaltung
US7149985B1 (en) 1998-08-25 2006-12-12 Thomson Licensing System and method for navigating within a display having different display sections
US7358956B2 (en) * 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US7256770B2 (en) 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
JP2002525942A (ja) * 1998-09-17 2002-08-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 位置依存インタフェースを具えるリモートコントロール装置
US6563430B1 (en) 1998-12-11 2003-05-13 Koninklijke Philips Electronics N.V. Remote control device with location dependent interface
US7574693B1 (en) 1998-09-17 2009-08-11 Koninklijke Philips Electronics N.V. Internet-based service for updating a programmable control device
BR9906952A (pt) * 1998-09-17 2000-10-03 Koninkl Philips Electronics Nv Processo para facilitar uma programação de um dispositivo de controle, programa de software que está contido em um meio legìvel por computador para execução em um computador, respectivo dispositivo de controle, software objeto que está contido em um meio legìvel por computador em um site de internet, e, processo de habilitação de um usuário para personalizar o controle de um aparelho
US6437836B1 (en) * 1998-09-21 2002-08-20 Navispace, Inc. Extended functionally remote control system and method therefore
US6546297B1 (en) * 1998-11-03 2003-04-08 Robertshaw Controls Company Distributed life cycle development tool for controls
GB9824482D0 (en) * 1998-11-09 1999-01-06 Nokia Mobile Phones Ltd Portable controller
US6597374B1 (en) * 1998-11-12 2003-07-22 Microsoft Corporation Activity based remote control unit
US6712703B2 (en) * 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
JP3967502B2 (ja) * 1998-11-27 2007-08-29 株式会社スクウェア・エニックス ゲーム進行制御方法
US6317144B1 (en) * 1998-11-30 2001-11-13 Sun Microsystems, Inc. Method and apparatus for navigating displayed elements
US20080091663A1 (en) * 1998-12-08 2008-04-17 Inala Suman K Software Bundle for Providing Automated Functionality to a WEB-Browser
TW515146B (en) * 1998-12-09 2002-12-21 Intel Corp Remotely controlling electronic devices
US6848104B1 (en) * 1998-12-21 2005-01-25 Koninklijke Philips Electronics N.V. Clustering of task-associated objects for effecting tasks among a system and its environmental devices
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7111242B1 (en) * 1999-01-27 2006-09-19 Gateway Inc. Method and apparatus for automatically generating a device user interface
US6334107B1 (en) * 1999-02-04 2001-12-25 Rental Tracker Method of managing a real estate unit
US6664988B1 (en) 1999-02-10 2003-12-16 Micron Technology, Inc. Graphical representation of system information on a remote computer
JP2000244989A (ja) * 1999-02-19 2000-09-08 Sharp Corp 双方向リモコン制御システム
JP2000261482A (ja) 1999-03-08 2000-09-22 Sony Corp アドレス設定方法、クライアント装置、サーバ装置、並びにクライアントサーバシステム
US6421066B1 (en) * 1999-03-23 2002-07-16 Klab.Com - The Knowledge Infrastructure Laboratory Ltd. Method for creating a knowledge map
US6507762B1 (en) * 1999-03-31 2003-01-14 International Business Machines Corporation Method and system for remotely controlling an appliance using a personal digital assistant
FI111760B (fi) * 1999-04-16 2003-09-15 Metso Automation Oy Kenttälaitteen langaton ohjaus teollisuusprosessissa
US7213061B1 (en) 1999-04-29 2007-05-01 Amx Llc Internet control system and method
AU5145400A (en) 1999-05-19 2000-12-18 James J. Nicholas Cursor movable interactive message
US20020057285A1 (en) * 2000-08-04 2002-05-16 Nicholas James J. Non-intrusive interactive notification system and method
DE19923701A1 (de) * 1999-05-22 2000-11-23 Volkswagen Ag Verfahren zur Fernkommunikation und Fernbeeinflussung eines Kraftfahrzeuges
US6476834B1 (en) * 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6496927B1 (en) 1999-06-09 2002-12-17 Amx Corporation Method and configuring a user interface for controlling a controlled device based upon a device class
JP4147689B2 (ja) 1999-06-14 2008-09-10 ソニー株式会社 情報処理装置及び情報処理方法
EP1069730A1 (de) * 1999-07-16 2001-01-17 Alcatel Telekommunikationssystem mit einer flexiblen Fernsteuerungseinrichtung
EP1069694A1 (de) 1999-07-16 2001-01-17 Alcatel Telekommunikationssystem mit einer herunterladbaren Schnittstelle
US6396523B1 (en) * 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
WO2001011462A2 (en) * 1999-08-04 2001-02-15 724 Solutions Inc. Dynamic client system
DE19939065A1 (de) * 1999-08-18 2001-02-22 Volkswagen Ag Multifunktions-Bedieneinrichtung
US6850953B1 (en) * 1999-08-23 2005-02-01 Sun Microsystems, Inc. Creating multiple sets of data by spawning a secondary virtual machine
IL131569A0 (en) * 1999-08-24 2001-01-28 Itay Katz Method and apparatus for improving the virtual desktop
JP2001066986A (ja) 1999-08-26 2001-03-16 Sony Corp 送信装置および方法、受信装置および方法、通信システム、並びにプログラム格納媒体
SE9903112L (sv) 1999-09-03 2001-03-04 Delaval Holding Ab Grafiskt användargränssnitt och förfarande relaterat därtill
JP2001077831A (ja) 1999-09-08 2001-03-23 Sony Corp 通信制御装置および方法、通信システム、並びにプログラム格納媒体
US6636244B1 (en) 1999-09-13 2003-10-21 International Business Machines Corporation Pointing device selection method
DE19944299A1 (de) * 1999-09-15 2001-03-29 Siemens Ag Verfahren und Anordnung zum Laden einer Funktionalität
JP4168304B2 (ja) 1999-09-16 2008-10-22 ソニー株式会社 情報出力装置、情報報知方法および情報信号供給経路選択方法
EP1085432B1 (de) 1999-09-20 2008-12-03 NCR International, Inc. Informationsauffindung und -wiedergabe
GB9924177D0 (en) * 1999-10-12 1999-12-15 Srs Technology Limited Communication and control system
KR100866264B1 (ko) * 1999-10-20 2008-11-03 코닌클리케 필립스 일렉트로닉스 엔.브이. 정보 프로세싱 디바이스
US6621918B1 (en) 1999-11-05 2003-09-16 H Innovation, Inc. Teleradiology systems for rendering and visualizing remotely-located volume data sets
DE19961460A1 (de) * 1999-12-20 2001-06-21 Bsh Bosch Siemens Hausgeraete System zur Visualisierung von Betriebszustands- und/oder Steuerinformationen
WO2001052478A2 (en) * 2000-01-07 2001-07-19 Invensys Controls Plc Building control
WO2001059555A2 (en) * 2000-02-09 2001-08-16 David Elderfield Enterprise task management system and lcd touch screen display for use therewith
US6867789B1 (en) 2000-02-15 2005-03-15 Bank One, Delaware, National Association System and method for generating graphical user interfaces
GB0003306D0 (en) * 2000-02-15 2000-04-05 Koninkl Philips Electronics Nv Control of interconnected audio/video devices
US20010037386A1 (en) * 2000-03-06 2001-11-01 Susumu Takatsuka Communication system, entertainment apparatus, recording medium, and program
JP2003526120A (ja) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 民生電子機器システムとの対話処理方法
US8531276B2 (en) 2000-03-15 2013-09-10 Logitech Europe S.A. State-based remote control system
US6784805B2 (en) 2000-03-15 2004-08-31 Intrigue Technologies Inc. State-based remote control system
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US6636246B1 (en) * 2000-03-17 2003-10-21 Vizible.Com Inc. Three dimensional spatial user interface
US6791467B1 (en) * 2000-03-23 2004-09-14 Flextronics Semiconductor, Inc. Adaptive remote controller
US7187947B1 (en) 2000-03-28 2007-03-06 Affinity Labs, Llc System and method for communicating selected information to an electronic device
US6505194B1 (en) * 2000-03-29 2003-01-07 Koninklijke Philips Electronics N.V. Search user interface with enhanced accessibility and ease-of-use features based on visual metaphors
US20030048310A1 (en) * 2000-04-07 2003-03-13 Hart Matthew William Graphical environment
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
JP4434424B2 (ja) * 2000-04-18 2010-03-17 株式会社ルネサステクノロジ ホームエレクトロニクスシステム、ホームサーバ装置およびコンピュータをホームサーバ装置として機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体
US7249325B1 (en) * 2000-05-11 2007-07-24 Palmsource, Inc. Automatically centered scrolling in a tab-based user interface
AU2001263075A1 (en) * 2000-05-12 2001-11-26 Thomson Licensing S.A. Apparatus and method for improved device interoperability
AUPQ786500A0 (en) * 2000-05-31 2000-06-22 Canon Kabushiki Kaisha A method for active user feedback
US6750887B1 (en) * 2000-06-02 2004-06-15 Sun Microsystems, Inc. Graphical user interface layout manager
US6714222B1 (en) * 2000-06-21 2004-03-30 E2 Home Ab Graphical user interface for communications
JP2002078957A (ja) * 2000-06-28 2002-03-19 Sony Corp ビデオゲームシステム、ビデオゲーム装置及びその制御方法並びにビデオゲームプログラム記録媒体
US8756635B2 (en) * 2000-06-30 2014-06-17 JLB Ventures, LLC. Remote control of program scheduling
US8789114B2 (en) * 2000-06-30 2014-07-22 Jlb Ventures Llc Remote control of program scheduling
WO2002007407A1 (en) * 2000-07-17 2002-01-24 Tresor Tv Produktions Gmbh User interface for networked applications
JP2002041276A (ja) 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
DE10036468A1 (de) * 2000-07-25 2002-02-14 Thomson Brandt Gmbh Verfahren zur Erläuterung der Bedienung eines Gerätes
JP2002049451A (ja) * 2000-08-03 2002-02-15 Fujitsu Ltd 情報処理装置、メニュー表示方法及びメニュー処理プログラムを格納したコンピュータ可読の記憶媒体
EP1184982B1 (de) * 2000-08-24 2009-05-06 Sony Deutschland GmbH Fernbedienungsgeber
US6351218B1 (en) * 2000-08-29 2002-02-26 Weatherdata, Inc. Method and apparatus for activating weather warning devices
US6646559B2 (en) 2000-08-29 2003-11-11 User-Centric Enterprises, Inc. Method and apparatus for activating warning devices
EP1185090A1 (de) * 2000-09-04 2002-03-06 Sony Service Centre (Europe) N.V. Fernsehgerät mit einer Heim-Multimediaplattform mit einer graphischen Benutzerschnittstellenanwendung
US7555528B2 (en) * 2000-09-06 2009-06-30 Xanboo Inc. Systems and methods for virtually representing devices at remote sites
US6686838B1 (en) 2000-09-06 2004-02-03 Xanboo Inc. Systems and methods for the automatic registration of devices
US7734724B2 (en) * 2000-09-06 2010-06-08 Xanboo Inc. Automated upload of content based on captured event
JP2002078958A (ja) * 2000-09-08 2002-03-19 Sony Corp ビデオゲームシステム、ビデオゲーム装置及びその制御方法
DE10045558A1 (de) * 2000-09-14 2002-04-04 Siemens Ag Verfahren und Anordnung zum Verifizieren einer Verbindung zwischen einer einen Zugriff auf eine Kommunikationseinrichtung durchführenden Applikation und einer den Zugriff steuernden Einrichtung
US10261303B1 (en) * 2000-09-28 2019-04-16 Intel Corporation Method and apparatus for transmission and manipulation of program data by means of spherical display
US7277765B1 (en) 2000-10-12 2007-10-02 Bose Corporation Interactive sound reproducing
US7206853B2 (en) 2000-10-23 2007-04-17 Sony Corporation content abstraction layer for use in home network applications
US6595430B1 (en) * 2000-10-26 2003-07-22 Honeywell International Inc. Graphical user interface system for a thermal comfort controller
US7673241B2 (en) * 2002-06-26 2010-03-02 Siebel Systems, Inc. User interface for multi-media communication for the visually disabled
US6621507B1 (en) 2000-11-03 2003-09-16 Honeywell International Inc. Multiple language user interface for thermal comfort controller
JP2002149516A (ja) * 2000-11-10 2002-05-24 Sharp Corp 情報処理システムおよび方法、サービス情報収集機器ならびに情報処理方法のプログラムを記録したコンピュータ読取可能な記録媒体
KR100359827B1 (ko) * 2000-11-27 2002-11-07 엘지전자 주식회사 홈 어플라이언스 네트워크 장치 및 방법
US6910186B2 (en) 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
US20080060020A1 (en) 2000-12-22 2008-03-06 Hillcrest Laboratories, Inc. Methods and systems for semantic zooming
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7093003B2 (en) * 2001-01-29 2006-08-15 Universal Electronics Inc. System and method for upgrading the remote control functionality of a device
US8909739B2 (en) * 2001-01-29 2014-12-09 Universal Electronics Inc. System and method for upgrading the remote control functionality of a device
US6977753B2 (en) * 2001-02-02 2005-12-20 Eastman Kodak Company Printing assembly and an operator control panel user interface for the printing assembly
US7581230B2 (en) * 2001-02-06 2009-08-25 Siebel Systems, Inc. Adaptive communication application programming interface
US7505577B2 (en) * 2001-03-31 2009-03-17 Siebel Systems, Inc. System and method for multi-channel communication queuing
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
FR2820932B1 (fr) * 2001-02-15 2003-05-16 Cit Alcatel Procede et structure de donnees pour la gestion d'une animation d'icones definies dans un message et terminal mobile permettant d'executer ce procede
US6883145B2 (en) * 2001-02-15 2005-04-19 Denny Jaeger Arrow logic system for creating and operating control systems
US7240300B2 (en) * 2001-02-15 2007-07-03 Nbor Corporation Method for creating user-defined computer operations using arrows
WO2002071743A1 (en) 2001-03-05 2002-09-12 Matsushita Electric Industrial Co., Ltd. Epg display apparatus, epg display method, medium, and program
US20020175945A1 (en) * 2001-03-15 2002-11-28 Hissenhoven Jean Paul Van Method and apparatus for accessing information through a user friendly interface
US6989801B2 (en) * 2001-03-22 2006-01-24 Koninklijke Philips Electronics N.V. Two-way presentation display system
US7224365B1 (en) * 2001-03-23 2007-05-29 Totally Global, Inc. System and method for transferring thematic information over the internet
US6987512B2 (en) * 2001-03-29 2006-01-17 Microsoft Corporation 3D navigation techniques
US8601492B2 (en) * 2001-03-31 2013-12-03 Siebel Systems, Inc. User interface for multi-channel communication
US7315616B2 (en) 2001-03-31 2008-01-01 Siebel Systems, Inc. System and method for maintaining real-time agent information for multi-channel communication queuing
US20030018705A1 (en) * 2001-03-31 2003-01-23 Mingte Chen Media-independent communication server
US20030206192A1 (en) * 2001-03-31 2003-11-06 Mingte Chen Asynchronous message push to web browser
US7730204B2 (en) * 2001-03-31 2010-06-01 Siebel Systems, Inc. Extensible interface for inter-module communication
US7500197B2 (en) * 2001-04-10 2009-03-03 Hewlett-Packard Development Company, L.P. Extensible user interface
EP1386394A1 (de) * 2001-04-26 2004-02-04 Koninklijke Philips Electronics N.V. Tragbare berührungsfeldeinrichtung
FR2825216B1 (fr) * 2001-05-23 2003-11-07 France Telecom Procede et systeme de notification visuelle de l'etat de la messagerie d'un utilisateur
US20030058243A1 (en) * 2001-09-21 2003-03-27 Faust Paul G. Delivery and display of measurement instrument data via a network
CA2463922C (en) 2001-06-27 2013-07-16 4 Media, Inc. Improved media delivery platform
US7103171B1 (en) 2001-06-29 2006-09-05 Siebel Systems, Inc. System and method for multi-channel communication queuing using routing and escalation rules
US7200819B2 (en) * 2001-07-03 2007-04-03 Research In Motion Limited Graphics stack system and method
US6885362B2 (en) 2001-07-12 2005-04-26 Nokia Corporation System and method for accessing ubiquitous resources in an intelligent environment
EP3462613A3 (de) 2001-07-12 2019-05-08 Sony Corporation Fernbedienung und system damit
US8863184B2 (en) * 2001-07-13 2014-10-14 Universal Electronics Inc. System and method for presenting program guide information in an electronic portable device
US20030117427A1 (en) * 2001-07-13 2003-06-26 Universal Electronics Inc. System and method for interacting with a program guide displayed on a portable electronic device
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US8063923B2 (en) * 2001-07-13 2011-11-22 Universal Electronics Inc. System and method for updating information in an electronic portable device
US9264755B2 (en) * 2001-07-13 2016-02-16 Universal Electronics Inc. System and method for presenting program guide information in an electronic portable device
US6961912B2 (en) * 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
US7206808B2 (en) * 2001-07-31 2007-04-17 Tandberg Telecom As System and method for managing diverse video network devices via application and interface objects
US20030037341A1 (en) * 2001-08-17 2003-02-20 Van Der Meulen Pieter Sierd System for remotely controlling consumer electronics using a web-cam image
US7371041B2 (en) 2001-08-30 2008-05-13 Seagate Technology Llc Assembly station with rotatable turret which forms and unloads a completed stack of articles
US7039723B2 (en) * 2001-08-31 2006-05-02 Hinnovation, Inc. On-line image processing and communication system
US20030054846A1 (en) * 2001-09-14 2003-03-20 Cvsht Apparatus and methods for selectively establishing wireless communications
US7134088B2 (en) * 2001-09-24 2006-11-07 Tactical Survey Group, Inc. Method and system for providing tactical information during crisis situations
GB0123321D0 (en) * 2001-09-27 2001-11-21 Hewlett Packard Co Computer apparatus for causing display and manipulation of pictorial image synchronously with remote computer apparatus
US7032188B2 (en) * 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
KR20030031202A (ko) * 2001-10-12 2003-04-21 주식회사 엘지이아이 컴퓨터를 통한 사용자 인터페이스 방법
US20030076353A1 (en) * 2001-10-23 2003-04-24 Blackstock Michael A. Graphical user interface for collaboration
JP2003143670A (ja) * 2001-10-31 2003-05-16 Sony Corp リモートコントロールシステム、電子機器、及びプログラム
US9164654B2 (en) * 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
US9052777B2 (en) 2001-11-02 2015-06-09 Neonode Inc. Optical elements with alternating reflective lens facets
US8674966B2 (en) 2001-11-02 2014-03-18 Neonode Inc. ASIC controller for light-based touch screen
US9778794B2 (en) 2001-11-02 2017-10-03 Neonode Inc. Light-based touch screen
US20030087602A1 (en) * 2001-11-05 2003-05-08 Palm, Inc. Data prioritization and distribution limitation system and method
US20030086595A1 (en) * 2001-11-07 2003-05-08 Hui Hu Display parameter-dependent pre-transmission processing of image data
US8091042B2 (en) 2001-11-15 2012-01-03 Siebel Systems, Inc. Apparatus and method for displaying selectable icons in a toolbar for a user interface
US7047500B2 (en) * 2001-11-16 2006-05-16 Koninklijke Philips Electronics N.V. Dynamically configurable virtual window manager
US6747591B1 (en) 2001-11-20 2004-06-08 Universal Electronics Inc. System and method for retrieving information while commanding operation of an appliance
US8176432B2 (en) * 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
US6996777B2 (en) * 2001-11-29 2006-02-07 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
US20030112467A1 (en) * 2001-12-17 2003-06-19 Mccollum Tim Apparatus and method for multimedia navigation
US7254777B2 (en) 2001-12-20 2007-08-07 Universal Electronics Inc. System and method for controlling the recording functionality of an appliance using a program guide
ATE515732T1 (de) 2001-12-20 2011-07-15 Universal Electronics Inc System und verfahren zum dialog mit einer auf einem tragbaren elektronischen gerät angezeigten programmanleitung
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US6934911B2 (en) * 2002-01-25 2005-08-23 Nokia Corporation Grouping and displaying of contextual objects
US6824069B2 (en) 2002-01-30 2004-11-30 Howard B. Rosen Programmable thermostat system employing a touch screen unit for intuitive interactive interface with a user
CA2388101A1 (en) * 2002-02-01 2003-08-01 Concepts Egeria Inc. Conceptual user interface
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
AU2003200159B2 (en) * 2002-02-15 2005-04-28 Canon Kabushiki Kaisha Representing a Plurality of Independent Data Items
AUPS058602A0 (en) * 2002-02-15 2002-03-14 Canon Kabushiki Kaisha Representing a plurality of independent data items
US20030158927A1 (en) * 2002-02-21 2003-08-21 Gateway, Inc. Connected home network console
US20030156131A1 (en) * 2002-02-21 2003-08-21 Samir Khazaka Method and apparatus for emulating a mobile device
US7027053B2 (en) * 2002-02-28 2006-04-11 Sun Microsystems, Inc. Graphical user interface for indicating device failover
US7296243B2 (en) 2002-03-19 2007-11-13 Aol Llc Animating display motion
US20030179186A1 (en) * 2002-03-22 2003-09-25 Wen-Tsung Sun Electronic note pad
US6914551B2 (en) * 2002-04-12 2005-07-05 Apple Computer, Inc. Apparatus and method to facilitate universal remote control
US8255968B2 (en) 2002-04-15 2012-08-28 Universal Electronics, Inc. System and method for adaptively controlling the recording of program material using a program guide
US20030197595A1 (en) 2002-04-22 2003-10-23 Johnson Controls Technology Company System and method for wireless control of multiple remote electronic systems
US7120652B2 (en) 2002-04-25 2006-10-10 Sun Microsystems, Inc. Method, system and program for determining version of storage devices and programs indicated in the resource information installed in the computer system
US20040136062A1 (en) * 2002-05-13 2004-07-15 Avner Farkash Portable periscope
KR20040111658A (ko) 2002-05-20 2004-12-31 소니 가부시끼 가이샤 정보 처리 시스템, 정보 처리 장치 및 정보 처리 방법
US20030221009A1 (en) * 2002-05-21 2003-11-27 Logitech Europe S.A. Dual mode peer-to-peer link establishment for instant message video
US7159186B2 (en) * 2002-05-31 2007-01-02 Nokia Corporation User interface for transferring data with a communications terminal
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US7607107B2 (en) * 2002-06-18 2009-10-20 The Directv Group, Inc. On-screen user interface device
US20030234809A1 (en) * 2002-06-19 2003-12-25 Parker Kathryn L. Method and system for remotely operating a computer
US6920557B2 (en) * 2002-06-28 2005-07-19 Pitney Bowes Inc. System and method for wireless user interface for business machines
US7225262B2 (en) * 2002-06-28 2007-05-29 Pitney Bowes Inc. System and method for selecting an external user interface using spatial information
DE10229068B3 (de) * 2002-06-28 2004-02-05 Fujitsu Siemens Computers Gmbh PDA (Personal Digital Assistant) mit Touch-Screen Display
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US7433915B2 (en) * 2002-08-01 2008-10-07 Xerox Corporation System and method for controlling communication
US20040021698A1 (en) * 2002-08-05 2004-02-05 Baldwin Amanda K. Intuitive touchscreen interface for a multifunction device and method therefor
US20040027487A1 (en) * 2002-08-09 2004-02-12 Rzadzki Robert J. System to provide custom text and graphic information to a television system infrastructure
US7003598B2 (en) * 2002-09-18 2006-02-21 Bright Entertainment Limited Remote control for providing interactive DVD navigation based on user response
US7959946B2 (en) 2002-09-20 2011-06-14 Watson Pharmaceuticals, Inc. Pharmaceutical formulation containing a biguanide and a thiazolidinedione derivative
DE10243771A1 (de) * 2002-09-20 2004-04-22 Siemens Ag Vorrichtung zur Automatisierung und/oder Steuerung von Werkzeug- oder Produktionsmaschinen
US7337409B2 (en) * 2002-09-25 2008-02-26 Siemens Aktiengesellschaft Customizable drag and drop for industrial software applications
US6788241B2 (en) 2002-09-25 2004-09-07 Universal Electronics Inc. System and method for using keystroke data to configure a remote control device
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
KR100932813B1 (ko) * 2002-10-01 2009-12-21 엘지전자 주식회사 동일 유형의 홈 네트웍 기기를 위치별로 구분 및 표시하는장치
US20060107195A1 (en) * 2002-10-02 2006-05-18 Arun Ramaswamy Methods and apparatus to present survey information
US20040090464A1 (en) * 2002-11-01 2004-05-13 Shake Francis David Method for automatically determining equipment control code sets from a database and presenting information to a user interface
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
JP4078398B2 (ja) * 2002-12-11 2008-04-23 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 情報処理装置
US7302279B2 (en) * 2002-12-18 2007-11-27 Nokia Corporation Mobile terminal, a method of operating the terminal, and information items for use therein
US20050009469A1 (en) * 2002-12-20 2005-01-13 Sakari Kotola Client software download in bluetooth device bonding
JP2004206550A (ja) * 2002-12-26 2004-07-22 Fanuc Ltd 数値制御装置
CN1745374A (zh) 2002-12-27 2006-03-08 尼尔逊媒介研究股份有限公司 用于对元数据进行译码的方法和装置
US20040130566A1 (en) * 2003-01-07 2004-07-08 Prashant Banerjee Method for producing computerized multi-media presentation
US20040210933A1 (en) * 2003-01-07 2004-10-21 Universal Electronics Inc. User interface for a remote control application
US7043316B2 (en) 2003-02-14 2006-05-09 Rockwell Automation Technologies Inc. Location based programming and data management in an automated environment
US7417536B2 (en) * 2003-03-13 2008-08-26 Sridhar Lakshmanan Living being presence detection system
US8042049B2 (en) * 2003-11-03 2011-10-18 Openpeak Inc. User interface for multi-device control
EP1465047A1 (de) * 2003-04-03 2004-10-06 Deutsche Thomson-Brandt Gmbh Verfahren zum Darstellen von Menütasten
US7610553B1 (en) * 2003-04-05 2009-10-27 Apple Inc. Method and apparatus for reducing data events that represent a user's interaction with a control interface
KR101157308B1 (ko) 2003-04-30 2012-06-15 디즈니엔터프라이지즈,인크. 휴대 전화 멀티미디어 제어기
US20040217987A1 (en) * 2003-05-01 2004-11-04 Solomo Aran Method and system for intercepting and processing data during GUI session
WO2004109425A2 (en) * 2003-05-14 2004-12-16 Dharamdas Gautam Goradia Interactive system for building, organising, and sharing one's own databank of questions and answers in a variety of questioning formats, on any subject in one or more languages
JP4800953B2 (ja) * 2003-05-15 2011-10-26 コムキャスト ケーブル ホールディングス,エルエルシー 映像再生方法およびシステム
DE10323466A1 (de) * 2003-05-23 2004-12-30 Robert Bosch Gmbh Bedienvorrichtung
US7302642B2 (en) * 2003-06-03 2007-11-27 Tim Simon, Inc. Thermostat with touch-screen display
US7862428B2 (en) * 2003-07-02 2011-01-04 Ganz Interactive action figures for gaming systems
JP4229322B2 (ja) * 2003-07-15 2009-02-25 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 端末装置及び表示制御プログラム
EP1501062B1 (de) * 2003-07-22 2012-01-04 Siemens Aktiengesellschaft Verfahren und HMI System zur Bedienung und Beobachtung einer technischen Anlage
EP1510911A3 (de) 2003-08-28 2006-03-22 Sony Corporation Gerät, Verfahren und Programm zum Verarbeiten von Informationen und Speichermedium mit Programm zum Verarbeiten von Informationen
US7156318B1 (en) 2003-09-03 2007-01-02 Howard Rosen Programmable thermostat incorporating a liquid crystal display selectively presenting adaptable system menus including changeable interactive virtual buttons
US7755506B1 (en) 2003-09-03 2010-07-13 Legrand Home Systems, Inc. Automation and theater control system
US20050053503A1 (en) * 2003-09-05 2005-03-10 Gallant Raymond Denis Anti gas-lock pumping system
EP1515223A1 (de) * 2003-09-10 2005-03-16 Siemens Aktiengesellschaft Generierung einer Objekt-Bearbeitungsplattform zwischen zwei Computern über eine Bildschirmzusammenfügung
US7440767B2 (en) 2003-10-15 2008-10-21 Eaton Corporation Home system including a portable fob having a rotary menu and a display
DE10349542B4 (de) * 2003-10-22 2019-09-05 Volkswagen Ag Anzeigevorrichtung und Anzeigeverfahren für ein Kraftfahrzeug
WO2005041029A2 (en) * 2003-10-24 2005-05-06 Matsushita Electric Industrial Co., Ltd. Remote operation system, communication apparatus remote control system and document inspection apparatus
US7155305B2 (en) * 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
US7136709B2 (en) * 2003-11-04 2006-11-14 Universal Electronics Inc. Home appliance control system and methods in a networked environment
KR20060111502A (ko) * 2003-11-13 2006-10-27 코닌클리케 필립스 일렉트로닉스 엔.브이. 원격 사용자 인터페이스를 위한 일관된 사용자 인터페이스전단부
US7590713B2 (en) * 2003-11-24 2009-09-15 Microsoft Corporation Presenting a merged view of remote application shortcuts from multiple providers
US7720906B2 (en) * 2003-11-24 2010-05-18 Microsoft Corporation Web service for remote application discovery
US7114554B2 (en) 2003-12-01 2006-10-03 Honeywell International Inc. Controller interface with multiple day programming
US10705549B2 (en) * 2003-12-02 2020-07-07 Ademco Inc. Controller interface with menu schedule override
US7706923B2 (en) 2003-12-02 2010-04-27 Honeywell International Inc. Controller interface with separate schedule review mode
US7181317B2 (en) 2003-12-02 2007-02-20 Honeywell International Inc. Controller interface with interview programming
US7225054B2 (en) * 2003-12-02 2007-05-29 Honeywell International Inc. Controller with programmable service event display mode
US8554374B2 (en) * 2003-12-02 2013-10-08 Honeywell International Inc. Thermostat with electronic image display
US7774721B2 (en) * 2003-12-15 2010-08-10 Microsoft Corporation Intelligent backward resource navigation
US7614004B2 (en) * 2003-12-15 2009-11-03 Microsoft Corporation Intelligent forward resource navigation
US7962843B2 (en) * 2003-12-15 2011-06-14 Microsoft Corporation Browser session overview
US7534157B2 (en) 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
AU2004309432B2 (en) 2003-12-31 2010-12-09 2121200 Ontario Inc. System and method for toy adoption and marketing
US8196044B2 (en) * 2004-01-05 2012-06-05 Microsoft Corporation Configuration of user interfaces
US7142948B2 (en) * 2004-01-07 2006-11-28 Honeywell International Inc. Controller interface with dynamic schedule display
CN1914595A (zh) * 2004-02-02 2007-02-14 皇家飞利浦电子股份有限公司 用于因特网的ce设备gui的委托外皮制作服务
DE102004005712A1 (de) * 2004-02-05 2006-01-12 Siemens Ag Universelle Vorrichtung zum Zugriff und zum Steuern von Geräten und entsprechende Geräte
US7587215B2 (en) * 2004-02-09 2009-09-08 Siemens Aktiengesellschaft User interface for cellular telephone group calls
JP4325439B2 (ja) * 2004-03-02 2009-09-02 株式会社日立製作所 画面表示方法
US7667700B1 (en) 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
US8645569B2 (en) 2004-03-12 2014-02-04 Rockwell Automation Technologies, Inc. Juxtaposition based machine addressing
US20220057917A1 (en) * 2004-03-16 2022-02-24 Icontrol Networks, Inc. User interface in a premises network
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
JP2007529826A (ja) 2004-03-16 2007-10-25 アイコントロール ネットワークス, インコーポレイテッド 対象事項管理ネットワーク
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US7840984B1 (en) 2004-03-17 2010-11-23 Embarq Holdings Company, Llc Media administering system and method
US8078298B2 (en) * 2004-03-26 2011-12-13 Harman International Industries, Incorporated System for node structure discovery in an audio-related system
JP4646538B2 (ja) 2004-03-26 2011-03-09 アルパイン株式会社 ナビゲーション機能を有する電子装置および夜景マップ表示方法
US7116229B1 (en) * 2004-03-31 2006-10-03 Zilog, Inc. Programming a remote control device using RFID technology
US8448083B1 (en) * 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
WO2005103867A1 (en) * 2004-04-22 2005-11-03 Denis Fompeyrine Multi-terminal control interface to manage information within user groups connected to each other in peer-to-peer networks
JP4436186B2 (ja) * 2004-05-12 2010-03-24 アルパイン株式会社 ナビゲーション装置及び地図表示方法
US20080182570A1 (en) * 2004-05-21 2008-07-31 Carmen Kuhl Device and Method For Automated Functionality-Based Selective Establishing of Wireless Data Communication Connections
CN100426208C (zh) * 2004-06-07 2008-10-15 皇家飞利浦电子股份有限公司 空间交互系统
US9552141B2 (en) 2004-06-21 2017-01-24 Apple Inc. Methods and apparatuses for operating a data processing system
US7185825B1 (en) 2004-06-24 2007-03-06 Howard Rosen Programmable thermostat employing a fail safe real time clock
US20060004834A1 (en) * 2004-06-30 2006-01-05 Nokia Corporation Dynamic shortcuts
US7084775B1 (en) 2004-07-12 2006-08-01 User-Centric Ip, L.P. Method and system for generating and sending user-centric weather alerts
KR100631763B1 (ko) * 2004-07-26 2006-10-09 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20100081375A1 (en) * 2008-09-30 2010-04-01 Apple Inc. System and method for simplified control of electronic devices
US20060036970A1 (en) * 2004-08-16 2006-02-16 Charles Rich System for configuring and controlling home appliances
CN100555200C (zh) 2004-08-16 2009-10-28 苹果公司 触敏器件和提高触敏器件的空间分辨率的方法
US7786891B2 (en) * 2004-08-27 2010-08-31 Embarq Holdings Company, Llc System and method for an interactive security system for a home
US9632665B2 (en) 2004-09-08 2017-04-25 Universal Electronics Inc. System and method for flexible configuration of a controlling device
US20110093799A1 (en) * 2004-09-08 2011-04-21 Universal Electronics Inc. System and method for configuration of controlling device functionality
US11687217B2 (en) 2004-09-08 2023-06-27 Universal Electronics Inc. System and method for flexible configuration of a controlling device
US8099313B2 (en) 2004-09-22 2012-01-17 Samsung Electronics Co., Ltd. Method and system for the orchestration of tasks on consumer electronics
US8185427B2 (en) 2004-09-22 2012-05-22 Samsung Electronics Co., Ltd. Method and system for presenting user tasks for the control of electronic devices
KR100582888B1 (ko) * 2004-09-22 2006-05-25 삼성전자주식회사 정보 공유가 가능한 호스트 기기 및 주변기기, 그의문자정보 공유 방법 및 문자정보 공유 시스템
DE102004046582B4 (de) * 2004-09-23 2007-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Steuerung einer steuerbaren Einrichtung
US8412554B2 (en) 2004-09-24 2013-04-02 Samsung Electronics Co., Ltd. Method and system for describing consumer electronics using separate task and device descriptions
US7721311B2 (en) * 2004-09-24 2010-05-18 Canon Kabushiki Kaisha Displaying EPG information on a digital television
US7840982B1 (en) 2004-09-28 2010-11-23 Embarq Holding Company, Llc Video-all call system and method for a facility
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
JP2006134288A (ja) * 2004-10-06 2006-05-25 Sharp Corp インターフェース及びコンピュータにより実行されるインターフェースプログラム
US8033479B2 (en) 2004-10-06 2011-10-11 Lawrence Kates Electronically-controlled register vent for zone heating and cooling
US8169410B2 (en) 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
JP2008511895A (ja) * 2004-10-28 2008-04-17 ノキア コーポレイション デバイスメニュー
US8382567B2 (en) 2004-11-03 2013-02-26 Mattel, Inc. Interactive DVD gaming systems
US20060112073A1 (en) * 2004-11-22 2006-05-25 Jensen David L Interface building/design tool for generating nested interface systems and displays
US20060123081A1 (en) * 2004-12-03 2006-06-08 Motorola, Inc. Method and system for seamless portability by profile sharing
US20060120518A1 (en) * 2004-12-03 2006-06-08 Motorola, Inc. Method and system for information relay between multiple user environments
US20060123080A1 (en) * 2004-12-03 2006-06-08 Motorola, Inc. Method and system of collectively setting preferences among a plurality of electronic devices and users
US8726168B2 (en) * 2004-12-04 2014-05-13 Adobe Systems Incorporated System and method for hiding latency in computer software
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7683889B2 (en) * 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US8510737B2 (en) 2005-01-07 2013-08-13 Samsung Electronics Co., Ltd. Method and system for prioritizing tasks made available by devices in a network
US7802618B2 (en) * 2005-01-19 2010-09-28 Tim Simon, Inc. Thermostat operation method and apparatus
US20060196953A1 (en) * 2005-01-19 2006-09-07 Tim Simon, Inc. Multiple thermostat installation
DE102005010914A1 (de) * 2005-01-21 2006-08-10 Siemens Ag Verfahren zur Gebäudesteuerung und Gebäudeüberwachung
DE102005003680A1 (de) * 2005-01-21 2006-07-27 Siemens Ag Verfahren zur Steuerung eines Geräts
US7697927B1 (en) 2005-01-25 2010-04-13 Embarq Holdings Company, Llc Multi-campus mobile management system for wirelessly controlling systems of a facility
US20060168528A1 (en) * 2005-01-27 2006-07-27 Microsoft Corporation Method for arranging user interface glyphs on displays
WO2006084256A2 (en) * 2005-02-02 2006-08-10 Peacock James C Total vascular occlusion treatment system and method
US8819569B2 (en) 2005-02-18 2014-08-26 Zumobi, Inc Single-handed approach for navigation of application tiles using panning and zooming
US7861941B2 (en) * 2005-02-28 2011-01-04 Honeywell International Inc. Automatic thermostat schedule/program selector system
KR20190061099A (ko) * 2005-03-04 2019-06-04 애플 인크. 다기능 휴대용 장치
US7765573B1 (en) 2005-03-08 2010-07-27 Embarq Holdings Company, LLP IP-based scheduling and control of digital video content delivery
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US7584897B2 (en) 2005-03-31 2009-09-08 Honeywell International Inc. Controller system user interface
DE102006018238A1 (de) 2005-04-20 2007-03-29 Logitech Europe S.A. System und Verfahren zur adaptiven Programmierung einer Fernbedienung
KR100716288B1 (ko) * 2005-06-17 2007-05-09 삼성전자주식회사 디스플레이장치 및 그 제어방법
FI20055369A0 (fi) * 2005-06-30 2005-06-30 Nokia Corp Menetelmä ja laite digitaalisten mediatiedostojen käsittelemiseksi
US20070050468A1 (en) * 2005-08-09 2007-03-01 Comverse, Ltd. Reality context menu (RCM)
US7294089B2 (en) * 2005-08-15 2007-11-13 Ford Global Technologies, Llc Multiple-speed automatic transmission
JP4773159B2 (ja) * 2005-08-19 2011-09-14 任天堂株式会社 ゲームプログラム、ゲーム装置およびゲーム制御方法
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US20070149281A1 (en) * 2005-09-02 2007-06-28 Igt Virtual movable mechanical display device
US8092304B2 (en) * 2006-11-08 2012-01-10 Igt Simulation of mechanical reels of gaming machines
US9552686B2 (en) * 2005-09-02 2017-01-24 Igt Video and mechanical spinning bonus wheel
US7778262B2 (en) 2005-09-07 2010-08-17 Vantage Controls, Inc. Radio frequency multiple protocol bridge
AU2006287639C1 (en) 2005-09-07 2012-06-28 Open Invention Network, Llc Method and computer program for device configuration
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9015587B2 (en) 2005-09-26 2015-04-21 Samsung Electronics Co., Ltd. Home network device and method of receiving and transmitting sound information using the same
EP1780952B1 (de) * 2005-09-26 2013-07-03 Samsung Electronics Co., Ltd. Gerät für ein Hausnetzwerk und Verfahren zum Übertragen von Toninformation unter Nutzung des Gerätes
DE102005048230A1 (de) * 2005-10-07 2007-04-12 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug
WO2007042799A1 (en) * 2005-10-10 2007-04-19 Cipla Limited Novel crystalline forms
US8417700B2 (en) * 2005-12-01 2013-04-09 Northrop Grumman Systems Corporation Interactive tool for constructing and editing process diagrams
US11812111B2 (en) 2005-12-20 2023-11-07 Universal Electronics Inc. System and method for presenting program guide information in an electronic portable device
US20070150820A1 (en) * 2005-12-22 2007-06-28 Salvo Anthony C Data-driven user interface
US8806347B2 (en) * 2005-12-27 2014-08-12 Panasonic Corporation Systems and methods for providing distributed user interfaces to configure client devices
US7673240B2 (en) * 2005-12-30 2010-03-02 Polaroid Labs, Llc Ubiquitous navbar user interface across multiple heterogeneous digital media devices
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8514244B2 (en) * 2006-01-23 2013-08-20 Nokia Corporation Mobile communication terminal and method therefore
FR2896892B1 (fr) * 2006-01-30 2008-06-06 Isen Toulon Systeme et procede de controle a distance d'appareils electriques dans un reseau domotique
US7836437B2 (en) * 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
US7966083B2 (en) * 2006-03-16 2011-06-21 Exceptional Innovation Llc Automation control system having device scripting
US7587464B2 (en) * 2006-03-16 2009-09-08 Exceptional Innovation, Llc Device automation using networked device control having a web services for devices stack
US8155142B2 (en) 2006-03-16 2012-04-10 Exceptional Innovation Llc Network based digital access point device
US8001219B2 (en) 2006-03-16 2011-08-16 Exceptional Innovation, Llc User control interface for convergence and automation system
US8209398B2 (en) 2006-03-16 2012-06-26 Exceptional Innovation Llc Internet protocol based media streaming solution
US7509402B2 (en) 2006-03-16 2009-03-24 Exceptional Innovation, Llc Automation control system having a configuration tool and two-way ethernet communication for web service messaging, discovery, description, and eventing that is controllable with a touch-screen display
US8725845B2 (en) 2006-03-16 2014-05-13 Exceptional Innovation Llc Automation control system having a configuration tool
US7496627B2 (en) 2006-03-16 2009-02-24 Exceptional Innovation, Llc Automation control system having digital logging
US7590703B2 (en) 2006-03-27 2009-09-15 Exceptional Innovation, Llc Set top box for convergence and automation system
US7538760B2 (en) * 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US7511702B2 (en) * 2006-03-30 2009-03-31 Apple Inc. Force and location sensitive display
US8271881B2 (en) * 2006-04-20 2012-09-18 Exceptional Innovation, Llc Touch screen for convergence and automation system
US7978181B2 (en) * 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
US7682250B2 (en) * 2006-04-28 2010-03-23 Nintendo Co., Ltd. Method and apparatus for simulating interactive spinning bar gymnastics on a 3D display
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US8700772B2 (en) 2006-05-03 2014-04-15 Cloud Systems, Inc. System and method for automating the management, routing, and control of multiple devices and inter-device connections
US7667968B2 (en) * 2006-05-19 2010-02-23 Exceptional Innovation, Llc Air-cooling system configuration for touch screen
CN101449471A (zh) * 2006-05-22 2009-06-03 耐克国际有限公司 用于远程控制数字音乐播放器的用户接口
US7643895B2 (en) 2006-05-22 2010-01-05 Apple Inc. Portable media device with workout support
US8073984B2 (en) 2006-05-22 2011-12-06 Apple Inc. Communication protocol for use with portable electronic devices
US20070271116A1 (en) 2006-05-22 2007-11-22 Apple Computer, Inc. Integrated media jukebox and physiologic data handling application
US8237736B2 (en) 2006-06-01 2012-08-07 Microsoft Corporation User interface color based on background image
KR102125605B1 (ko) 2006-06-09 2020-06-22 애플 인크. 터치 스크린 액정 디스플레이
US8259078B2 (en) * 2006-06-09 2012-09-04 Apple Inc. Touch screen liquid crystal display
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
WO2007149949A1 (en) * 2006-06-20 2007-12-27 Rain Bird Corporation Sensor device for interrupting irrigation
US9144204B2 (en) 2006-06-20 2015-09-29 Rain Bird Corporation User interface for a sensor-based interface device for interrupting an irrigation controller
US9940626B2 (en) * 2006-06-23 2018-04-10 At&T Intellectual Property I, L.P. Methods and apparatus to provide an electronic agent
US8316325B2 (en) * 2006-06-29 2012-11-20 Lg Electronics Inc. Mobile terminal and method for controlling screen thereof
US20080059896A1 (en) * 2006-08-30 2008-03-06 Microsoft Corporation Mobile Device User Interface
WO2008027447A2 (en) * 2006-08-31 2008-03-06 Wms Gaming Inc. Remote input device for a wagering game
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US9565387B2 (en) * 2006-09-11 2017-02-07 Apple Inc. Perspective scale video with navigation menu
US20080062137A1 (en) * 2006-09-11 2008-03-13 Apple Computer, Inc. Touch actuation controller for multi-state media presentation
US20080066135A1 (en) * 2006-09-11 2008-03-13 Apple Computer, Inc. Search user interface for media device
US20080065722A1 (en) * 2006-09-11 2008-03-13 Apple Computer, Inc. Media device playlists
US9630104B2 (en) * 2006-10-23 2017-04-25 Konrad V. Sherinian Systems, methods, and apparatus for transmitting virtual world content from a server system to a client
US7856605B2 (en) * 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8570278B2 (en) * 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
KR20080042354A (ko) * 2006-11-09 2008-05-15 삼성전자주식회사 이동 통신 단말기에서 대기 화면 전환 방법 및 대기 화면회전 방법과 그 이동 통신 단말기
WO2008073658A2 (en) * 2006-11-09 2008-06-19 Exceptional Innovation, Llc. Portable device for convergence and automation solution
US20080120448A1 (en) * 2006-11-21 2008-05-22 Microsoft Corporation Remote mouse and keyboard using bluetooth
KR100851302B1 (ko) * 2006-11-27 2008-08-08 삼성전자주식회사 휴대 단말기의 대기화면에서의 기능 실행 방법
AU2007237363B2 (en) * 2006-12-06 2010-04-29 2121200 Ontario Inc. Feature codes and bonuses in virtual worlds
KR101532369B1 (ko) * 2006-12-11 2015-06-29 삼성전자주식회사 휴대용 단말기의 원격제어 장치 및 방법
US20080155478A1 (en) * 2006-12-21 2008-06-26 Mark Stross Virtual interface and system for controlling a device
US8493330B2 (en) * 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
US8015581B2 (en) * 2007-01-05 2011-09-06 Verizon Patent And Licensing Inc. Resource data configuration for media content access systems and methods
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US8788954B2 (en) 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080281718A1 (en) * 2007-01-08 2008-11-13 Barrett Morgan Household network incorporating secure set-top devices
KR20090000248A (ko) * 2007-02-07 2009-01-07 엘지전자 주식회사 에어컨의 통합관리 표시 장치 및 방법
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
KR101376894B1 (ko) * 2007-02-28 2014-03-20 엘지전자 주식회사 이동통신단말기의 다이얼링 방법 및 터치스크린을 구비한이동통신단말기
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
JP4887184B2 (ja) * 2007-03-02 2012-02-29 株式会社リコー 表示処理装置、表示処理方法、および表示処理プログラム
US7849096B2 (en) * 2007-03-13 2010-12-07 Fein Gene S Multiple parameter data media search in a distributed network
US8914786B2 (en) 2007-03-23 2014-12-16 Zumobi, Inc. Systems and methods for controlling application updates across a wireless interface
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US7693842B2 (en) * 2007-04-09 2010-04-06 Microsoft Corporation In situ search for active note taking
KR101379995B1 (ko) * 2007-04-17 2014-04-02 엘지전자 주식회사 단말기 및 그 표시방법
EP2141578B1 (de) * 2007-04-24 2019-01-23 Sony Interactive Entertainment Inc. Bildanzeigevorrichtung, bildanzeigeverfahren und informationsaufzeichnungsmedium
KR20080097059A (ko) * 2007-04-30 2008-11-04 삼성전자주식회사 통신 단말기의 사용자 컨텐츠 관리 방법
US9423996B2 (en) * 2007-05-03 2016-08-23 Ian Cummings Vehicle navigation user interface customization methods
US9633028B2 (en) 2007-05-09 2017-04-25 Illinois Institute Of Technology Collaborative and personalized storage and search in hierarchical abstract data organization systems
US9128954B2 (en) 2007-05-09 2015-09-08 Illinois Institute Of Technology Hierarchical structured data organization system
US8209358B2 (en) * 2007-05-09 2012-06-26 Illinois Institute Of Technology Hierarchical structured abstract data organization system
US10042898B2 (en) 2007-05-09 2018-08-07 Illinois Institutre Of Technology Weighted metalabels for enhanced search in hierarchical abstract data organization systems
US20080307109A1 (en) * 2007-06-08 2008-12-11 Galloway Curtis C File protocol for transaction based communication
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US8711102B2 (en) * 2007-06-15 2014-04-29 Microsoft Corporation Graphical communication user interface with graphical position user input mechanism for selecting a display image
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
KR20090005680A (ko) * 2007-07-09 2009-01-14 삼성전자주식회사 원통형 입체 형상의 메뉴를 제공하기 위한 gui 제공방법및 이를 적용한 멀티미디어 기기
ITMI20071607A1 (it) * 2007-08-03 2009-02-04 Incard Sa Metodo per accedere a contenuti multimediali associati a un' area geografica.
FR2920055B1 (fr) * 2007-08-14 2013-05-03 Airbus France Systeme et procede de transmission de donnees entre au moins un ecran d'affichage et un systeme client
US20090051671A1 (en) * 2007-08-22 2009-02-26 Jason Antony Konstas Recognizing the motion of two or more touches on a touch-sensing surface
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8122356B2 (en) * 2007-10-03 2012-02-21 Eastman Kodak Company Method for image animation using image value rules
US7904818B2 (en) * 2007-10-15 2011-03-08 International Business Machines Corporation Summarizing portlet usage captured responsive to trigger events in a portal page
US8191002B2 (en) * 2007-10-15 2012-05-29 International Business Machines Corporation Summarizing portlet usage in a portal page
US8375397B1 (en) 2007-11-06 2013-02-12 Google Inc. Snapshot view of multi-dimensional virtual environment
US8595299B1 (en) 2007-11-07 2013-11-26 Google Inc. Portals between multi-dimensional virtual environments
US8732591B1 (en) 2007-11-08 2014-05-20 Google Inc. Annotations of objects in multi-dimensional virtual environments
EP2063350A1 (de) * 2007-11-20 2009-05-27 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung für die Verkopplung von Vorrichtungen in einem Heimnetzwerk
WO2009070319A1 (en) * 2007-11-27 2009-06-04 Ortiz David J Computer graphic user interface and display system
US8224491B2 (en) 2007-11-30 2012-07-17 Honeywell International Inc. Portable wireless remote control unit for use with zoned HVAC system
US20090143880A1 (en) 2007-11-30 2009-06-04 Honeywell International, Inc. Hvac controller with context sensitive help screens
US20090156251A1 (en) * 2007-12-12 2009-06-18 Alan Cannistraro Remote control protocol for media systems controlled by portable devices
US8542323B2 (en) * 2007-12-21 2013-09-24 Sony Corporation Touch sensitive wireless navigation device for remote control
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8990720B2 (en) * 2008-01-09 2015-03-24 International Business Machines Corporation Setting alert thresholds in the context of a real-time dashboard chart
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US8146004B2 (en) * 2008-02-01 2012-03-27 At&T Intellectual Property I, L.P. Graphical user interface to facilitate selection of contacts and file attachments for electronic messaging
US20090195513A1 (en) * 2008-02-05 2009-08-06 Delphi Technologies, Inc. Interactive multimedia control module
US8151215B2 (en) * 2008-02-07 2012-04-03 Sony Corporation Favorite GUI for TV
US20090207175A1 (en) * 2008-02-15 2009-08-20 Apple Inc. Animation Using Animation Effect and Trigger Element
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8271951B2 (en) * 2008-03-04 2012-09-18 International Business Machines Corporation System and methods for collecting software development feedback
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
TWI428814B (zh) * 2008-04-15 2014-03-01 Htc Corp 在螢幕鎖定狀態下切換背景圖的方法、其行動電子裝置與儲存媒體
US9870123B1 (en) 2008-04-18 2018-01-16 Universal Electronics Inc. Selecting a picture of a device to identify an associated codeset
TW200945165A (en) * 2008-04-22 2009-11-01 Htc Corp Method and apparatus for operating graphic menu bar and recording medium using the same
US8947460B2 (en) 2008-04-22 2015-02-03 Htc Corporation Method and apparatus for operating graphic menu bar and recording medium using the same
TWI361377B (en) * 2008-04-24 2012-04-01 Htc Corp Method for switching user interface, electronic device and recording medium using the same
US8237551B2 (en) * 2008-04-30 2012-08-07 Centurylink Intellectual Property Llc System and method for in-patient telephony
US9870130B2 (en) 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
US8970647B2 (en) * 2008-05-13 2015-03-03 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
US9311115B2 (en) 2008-05-13 2016-04-12 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20090284476A1 (en) * 2008-05-13 2009-11-19 Apple Inc. Pushing a user interface to a remote device
US20100293462A1 (en) * 2008-05-13 2010-11-18 Apple Inc. Pushing a user interface to a remote device
FR2931329B1 (fr) * 2008-05-16 2010-06-18 Airbus France Procede de transmission de donnees entre au moins un ecran d'affichage d'un poste de pilotage et au moins un ensemble client distant
US8311806B2 (en) 2008-06-06 2012-11-13 Apple Inc. Data detection in a sequence of tokens using decision tree reductions
US8738360B2 (en) 2008-06-06 2014-05-27 Apple Inc. Data detection of a character sequence having multiple possible data types
CN101609396B (zh) * 2008-06-16 2012-12-26 成都吉锐触摸技术股份有限公司 一种触摸屏通讯协议的实现方法
US9513705B2 (en) 2008-06-19 2016-12-06 Tactile Displays, Llc Interactive display with tactile feedback
US8115745B2 (en) 2008-06-19 2012-02-14 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US8665228B2 (en) 2008-06-19 2014-03-04 Tactile Displays, Llc Energy efficient interactive display with energy regenerative keyboard
US8217908B2 (en) 2008-06-19 2012-07-10 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US9294705B2 (en) * 2008-06-27 2016-03-22 Universal Electronics Inc. System and method for ubiquitous appliance control
WO2009158726A1 (en) * 2008-06-27 2009-12-30 Walters Clifford A Compact camera-mountable video encoder, studio rack-mountable video encoder, configuration device, and broadcasting network utilizing the same
USD626561S1 (en) * 2008-06-30 2010-11-02 Nellcor Puritan Bennett Llc Circular satseconds indicator and triangular saturation pattern detection indicator for a patient monitor display panel
USD626562S1 (en) * 2008-06-30 2010-11-02 Nellcor Puritan Bennett Llc Triangular saturation pattern detection indicator for a patient monitor display panel
JP4636131B2 (ja) * 2008-07-04 2011-02-23 ソニー株式会社 情報提供装置、情報提供方法、およびプログラム
US9716774B2 (en) 2008-07-10 2017-07-25 Apple Inc. System and method for syncing a user interface on a server device to a user interface on a client device
US20100017385A1 (en) 2008-07-16 2010-01-21 International Business Machines Creating and managing reference elements of deployable web archive files
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
CN101644970A (zh) * 2008-08-07 2010-02-10 鸿富锦精密工业(深圳)有限公司 通信装置的输入方法
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
GB2463516A (en) * 2008-08-12 2010-03-24 Hathaway Technologies Ltd Remote control of appliances using a graphical user interface
US20100044449A1 (en) * 2008-08-19 2010-02-25 Honeywell International Inc. Service reminders for building control systems
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
CA2740401C (en) * 2008-09-23 2014-11-18 Aerovironment, Inc. Predictive pulse width modulation for an open delta h-bridge driven high efficiency ironless permanent magnet machine
US20100075695A1 (en) * 2008-09-24 2010-03-25 Apple Inc. Systems, methods, and devices for retrieving local broadcast source presets
US8886112B2 (en) * 2008-09-24 2014-11-11 Apple Inc. Media device with enhanced data retrieval feature
US20100076576A1 (en) * 2008-09-24 2010-03-25 Apple Inc. Systems, methods, and devices for providing broadcast media from a selected source
US8452228B2 (en) * 2008-09-24 2013-05-28 Apple Inc. Systems, methods, and devices for associating a contact identifier with a broadcast source
US20100082662A1 (en) * 2008-09-25 2010-04-01 Microsoft Corporation Information Retrieval System User Interface
US20100083189A1 (en) * 2008-09-30 2010-04-01 Robert Michael Arlein Method and apparatus for spatial context based coordination of information among multiple devices
DE102008050912A1 (de) * 2008-10-10 2010-04-22 EOS-Werke Günther GmbH Benutzerschnittstelle sowie Verfahren zu deren Betrieb
US8429540B1 (en) * 2008-10-10 2013-04-23 Adobe Systems Incorporated End user created collaborative and non-collaborative workspace application container system and method
US8385952B2 (en) 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US8411046B2 (en) 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US9954976B2 (en) * 2008-11-03 2018-04-24 Viavi Solutions Inc. System and method for remotely displaying data
US8489388B2 (en) 2008-11-10 2013-07-16 Apple Inc. Data detection
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US8508357B2 (en) 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
CN101751286B (zh) * 2008-11-28 2015-05-13 汉达精密电子(昆山)有限公司 直觉化档案传输方法
KR101588666B1 (ko) * 2008-12-08 2016-01-27 삼성전자주식회사 디스플레이 장치 및 그의 표시방법
US10228820B2 (en) 2008-12-08 2019-03-12 Samsung Electronics Co., Ltd. Display apparatus and displaying method thereof
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9075901B2 (en) * 2008-12-15 2015-07-07 International Business Machines Corporation System and method to visualize activities through the use of avatars
US8453057B2 (en) * 2008-12-22 2013-05-28 Verizon Patent And Licensing Inc. Stage interaction for mobile device
US8255807B2 (en) * 2008-12-23 2012-08-28 Ganz Item customization and website customization
US20100178938A1 (en) * 2009-01-13 2010-07-15 Apple Inc. Systems and methods for customizing radio presets
KR20100085328A (ko) * 2009-01-20 2010-07-29 삼성전자주식회사 디스플레이장치 및 영상표시방법
US10175848B2 (en) * 2009-02-09 2019-01-08 Nokia Technologies Oy Displaying a display portion including an icon enabling an item to be added to a list
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US8307299B2 (en) * 2009-03-04 2012-11-06 Bayerische Motoren Werke Aktiengesellschaft Virtual office management system
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9846533B2 (en) 2009-03-16 2017-12-19 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
KR101542744B1 (ko) * 2009-03-18 2015-08-10 삼성전자주식회사 네트워크에서 피제어장치를 제어하는 방법 및 그 장치
US20100241955A1 (en) * 2009-03-23 2010-09-23 Microsoft Corporation Organization and manipulation of content items on a touch-sensitive display
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
KR20100110079A (ko) * 2009-04-02 2010-10-12 삼성전자주식회사 원격 사용자 인터페이스를 이용하여 다른 디바이스를 제어하는 방법 및 이를 위한 시스템
US9189124B2 (en) * 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US9444894B2 (en) * 2009-04-15 2016-09-13 Wyse Technology Llc System and method for communicating events at a server to a remote device
US9448815B2 (en) * 2009-04-15 2016-09-20 Wyse Technology L.L.C. Server-side computing from a remote client device
US9553953B2 (en) 2009-04-15 2017-01-24 Dell Products L.P. Method and apparatus for extending capabilities of a virtualization domain to support features available in a normal desktop application
US20100268762A1 (en) * 2009-04-15 2010-10-21 Wyse Technology Inc. System and method for scrolling a remote application
US9578113B2 (en) 2009-04-15 2017-02-21 Wyse Technology L.L.C. Method and apparatus for transferring remote session data
US8676926B2 (en) 2009-04-15 2014-03-18 Wyse Technology L.L.C. System and method for handling remote drawing commands
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
CN104683827A (zh) 2009-05-01 2015-06-03 尼尔森(美国)有限公司 提供与主要广播媒体内容关联的辅助内容的方法和装置
US8788943B2 (en) * 2009-05-15 2014-07-22 Ganz Unlocking emoticons using feature codes
US8269736B2 (en) * 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
JP5687826B2 (ja) * 2009-05-29 2015-03-25 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20100321319A1 (en) * 2009-06-17 2010-12-23 Hefti Thierry Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8894367B2 (en) * 2009-08-06 2014-11-25 Siemens Energy, Inc. Compound cooling flow turbulator for turbine component
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
US8933960B2 (en) * 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US20110046805A1 (en) * 2009-08-18 2011-02-24 Honeywell International Inc. Context-aware smart home energy manager
US8856670B1 (en) * 2009-08-25 2014-10-07 Intuit Inc. Technique for customizing a user interface
US8495048B2 (en) 2009-08-26 2013-07-23 International Business Machines Applying user-generated deployment events to a grouping of deployable portlets
US8418079B2 (en) 2009-09-01 2013-04-09 James J. Nicholas, III System and method for cursor-based application management
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
EP2480957B1 (de) 2009-09-22 2017-08-09 Apple Inc. Einrichtung, verfahren und grafische benutzeroberfläche zum manipulieren von benutzeroberflächenobjekten
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
KR101612553B1 (ko) * 2009-10-09 2016-04-27 삼성전자주식회사 리모트 사용자 인터페이스 서버와 리모트 사용자 인터페이스 클라이언트간의 인터페이스를 위한 장치 및 방법
US8013545B2 (en) 2009-10-25 2011-09-06 Greenwave Reality, Pte, Ltd. Modular networked light bulb
US20110106835A1 (en) * 2009-10-29 2011-05-05 International Business Machines Corporation User-Defined Profile Tags, Rules, and Recommendations for Portal
US20110138333A1 (en) * 2009-12-03 2011-06-09 Ravishankar Gundlapalli Room User Interface
US8621391B2 (en) * 2009-12-16 2013-12-31 Apple Inc. Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations
US8438592B2 (en) * 2009-12-22 2013-05-07 Qualcomm Incorporated Dynamic live content promoter for digital broadcast TV
FI20096399A0 (fi) 2009-12-28 2009-12-28 Valtion Teknillinen Järjestelmä ja menetelmä sähkölaitteiden etäkäyttämiseksi
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
ES2687460T3 (es) * 2010-01-25 2018-10-25 Innogy Se Control de un sistema domótico
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8610722B2 (en) * 2010-01-26 2013-12-17 Apple Inc. User interface for an application
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) * 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US9001819B1 (en) 2010-02-18 2015-04-07 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8681951B1 (en) 2010-02-03 2014-03-25 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8687777B1 (en) 2010-02-03 2014-04-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8537989B1 (en) 2010-02-03 2013-09-17 Tal Lavian Device and method for providing enhanced telephony
US8548135B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8594280B1 (en) 2010-02-03 2013-11-26 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8548131B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for communicating with an interactive voice response system
US8625756B1 (en) 2010-02-03 2014-01-07 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8903073B2 (en) 2011-07-20 2014-12-02 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8572303B2 (en) 2010-02-03 2013-10-29 Tal Lavian Portable universal communication device
US8879698B1 (en) 2010-02-03 2014-11-04 Tal Lavian Device and method for providing enhanced telephony
US8553859B1 (en) 2010-02-03 2013-10-08 Tal Lavian Device and method for providing enhanced telephony
US8406388B2 (en) 2011-07-18 2013-03-26 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US20110209089A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US9075522B2 (en) * 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
FR2956757B1 (fr) * 2010-02-25 2012-09-21 Somfy Sas Affectation de scenarios a des boutons de commande.
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
EP2539759A1 (de) 2010-02-28 2013-01-02 Osterhout Group, Inc. Lokaler werbeinhalt auf einem interaktiven kopfmontierten okular
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US8140570B2 (en) 2010-03-11 2012-03-20 Apple Inc. Automatic discovery of metadata
US20110239146A1 (en) * 2010-03-23 2011-09-29 Lala Dutta Automatic event generation
US10719131B2 (en) 2010-04-05 2020-07-21 Tactile Displays, Llc Interactive display with tactile feedback
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8423911B2 (en) 2010-04-07 2013-04-16 Apple Inc. Device, method, and graphical user interface for managing folders
US20110248877A1 (en) * 2010-04-12 2011-10-13 Jeyhan Karaoguz System and method providing remote user selection of a device
US20200393907A1 (en) 2010-04-13 2020-12-17 Tactile Displays, Llc Interactive display with tactile feedback
US8323068B2 (en) 2010-04-23 2012-12-04 Ganz Villagers in a virtual world with upgrading via codes
US8719730B2 (en) 2010-04-23 2014-05-06 Ganz Radial user interface and system for a virtual world game
EP2383984B1 (de) 2010-04-27 2019-03-06 LG Electronics Inc. Bildanzeigevorrichtung und Betriebsverfahren dafür
WO2011136402A1 (ko) 2010-04-27 2011-11-03 엘지전자 주식회사 영상표시기기 및 그 동작방법
US8729826B2 (en) 2010-06-07 2014-05-20 Greenwave Reality, Pte, Ltd. Dual-mode dimming of a light
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US9002481B2 (en) 2010-07-14 2015-04-07 Honeywell International Inc. Building controllers with local and global parameters
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8799815B2 (en) * 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8826164B2 (en) 2010-08-03 2014-09-02 Apple Inc. Device, method, and graphical user interface for creating a new folder
US8508401B1 (en) 2010-08-31 2013-08-13 Logitech Europe S.A. Delay fixing for command codes in a remote control system
US8918219B2 (en) 2010-11-19 2014-12-23 Google Inc. User friendly interface for control unit
US9104211B2 (en) 2010-11-19 2015-08-11 Google Inc. Temperature controller with model-based time to target calculation and display
US8843239B2 (en) 2010-11-19 2014-09-23 Nest Labs, Inc. Methods, systems, and related architectures for managing network connected thermostats
US9489062B2 (en) 2010-09-14 2016-11-08 Google Inc. User interfaces for remote management and control of network-connected thermostats
US8727611B2 (en) 2010-11-19 2014-05-20 Nest Labs, Inc. System and method for integrating sensors in thermostats
US8910065B2 (en) * 2010-09-14 2014-12-09 Microsoft Corporation Secondary output generation from a presentation framework
US8422889B2 (en) 2010-09-16 2013-04-16 Greenwave Reality, Pte Ltd. Noise detector in a light bulb
US8950687B2 (en) 2010-09-21 2015-02-10 Honeywell International Inc. Remote control of an HVAC system that uses a common temperature setpoint for both heat and cool modes
JP5226051B2 (ja) * 2010-09-24 2013-07-03 シャープ株式会社 コンテンツ表示装置、コンテンツ表示方法、プログラム、および記録媒体
US9189070B2 (en) 2010-09-24 2015-11-17 Sharp Kabushiki Kaisha Content display device, content display method, portable terminal, program, and recording medium
JP5236708B2 (ja) * 2010-09-24 2013-07-17 シャープ株式会社 コンテンツ表示装置、制御方法、携帯端末、プログラム及び記録媒体
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US9107040B2 (en) 2010-09-29 2015-08-11 Apple Inc. Systems, methods, and computer readable media for sharing awareness information
US9466127B2 (en) * 2010-09-30 2016-10-11 Apple Inc. Image alteration techniques
KR101708821B1 (ko) * 2010-09-30 2017-02-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8850348B2 (en) 2010-12-31 2014-09-30 Google Inc. Dynamic device-associated feedback indicative of responsible device usage
US10346275B2 (en) 2010-11-19 2019-07-09 Google Llc Attributing causation for energy usage and setpoint changes with a network-connected thermostat
US8195313B1 (en) 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
US9453655B2 (en) 2011-10-07 2016-09-27 Google Inc. Methods and graphical user interfaces for reporting performance information for an HVAC system controlled by a self-programming network-connected thermostat
US9552002B2 (en) 2010-11-19 2017-01-24 Google Inc. Graphical user interface for setpoint creation and modification
US9075419B2 (en) 2010-11-19 2015-07-07 Google Inc. Systems and methods for a graphical user interface of a controller for an energy-consuming system having spatially related discrete display elements
US9092039B2 (en) 2010-11-19 2015-07-28 Google Inc. HVAC controller with user-friendly installation features with wire insertion detection
US11334034B2 (en) 2010-11-19 2022-05-17 Google Llc Energy efficiency promoting schedule learning algorithms for intelligent thermostat
US9256230B2 (en) 2010-11-19 2016-02-09 Google Inc. HVAC schedule establishment in an intelligent, network-connected thermostat
US9459018B2 (en) 2010-11-19 2016-10-04 Google Inc. Systems and methods for energy-efficient control of an energy-consuming system
US8995981B1 (en) 2010-12-13 2015-03-31 Csr Technology Inc. Systems and methods for remote control adaptive configuration
US20120159401A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Workspace Manipulation Using Mobile Device Gestures
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8804056B2 (en) 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
CA2767720C (en) 2011-02-10 2015-11-17 Ganz Method and system for creating a virtual world where user-controlled characters interact with non-player characters
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
JP2012226737A (ja) * 2011-04-06 2012-11-15 Panasonic Corp 表示装置、端末装置、及び表示装置接続支援システム
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9380356B2 (en) 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US8661339B2 (en) 2011-05-31 2014-02-25 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9366448B2 (en) 2011-06-20 2016-06-14 Honeywell International Inc. Method and apparatus for configuring a filter change notification of an HVAC controller
US9209978B2 (en) 2012-05-15 2015-12-08 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9210208B2 (en) 2011-06-21 2015-12-08 The Nielsen Company (Us), Llc Monitoring streaming media content
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US8751538B1 (en) 2011-07-07 2014-06-10 Google Inc. Method and apparatus for panel-based management of data
US8060533B1 (en) 2011-07-07 2011-11-15 Google Inc. Panel-based management of data objects from a plurality of data sources
US8903648B2 (en) * 2011-07-15 2014-12-02 Forestech Consulting, Inc. System and method for field sampling
US9115908B2 (en) 2011-07-27 2015-08-25 Honeywell International Inc. Systems and methods for managing a programmable thermostat
US9157764B2 (en) 2011-07-27 2015-10-13 Honeywell International Inc. Devices, methods, and systems for occupancy detection
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8892223B2 (en) 2011-09-07 2014-11-18 Honeywell International Inc. HVAC controller including user interaction log
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US20130067392A1 (en) * 2011-09-12 2013-03-14 Microsoft Corporation Multi-Input Rearrange
EP2758840B1 (de) * 2011-09-23 2021-06-02 Videojet Technologies, Inc. Netzverbindungsverfahren
US20130085849A1 (en) * 2011-09-30 2013-04-04 Matthew G. Dyor Presenting opportunities for commercialization in a gesture-based user interface
KR101958902B1 (ko) * 2011-09-30 2019-07-03 삼성전자주식회사 전자기기들의 그룹 제어 방법 및 그를 위한 전자기기 관리 시스템
US8893032B2 (en) 2012-03-29 2014-11-18 Google Inc. User interfaces for HVAC schedule display and modification on smartphone or other space-limited touchscreen device
US9222693B2 (en) 2013-04-26 2015-12-29 Google Inc. Touchscreen device user interface for remote control of a thermostat
CN103890667B (zh) 2011-10-21 2017-02-15 谷歌公司 用户友好、网络连接的学习型恒温器及相关系统和方法
EP2769279B1 (de) 2011-10-21 2018-12-26 Google LLC Lernalgorithmen zur energieeffizienzförderung für intelligenten thermostat
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
US9223761B2 (en) * 2011-11-04 2015-12-29 Microsoft Technology Licensing, Llc Real time visual feedback during move, resize and/or rotate actions in an electronic document
US20130141428A1 (en) * 2011-11-18 2013-06-06 Dale L. Gipson Computer-implemented apparatus, system, and method for three dimensional modeling software
KR101373612B1 (ko) 2011-11-24 2014-03-13 전자부품연구원 Nui 제공 방법 및 시스템
EP2787447A4 (de) * 2011-12-02 2015-12-16 Korea Electronics Technology Verfahren und system zur nui-bereitstellung
US10747243B2 (en) 2011-12-14 2020-08-18 Ademco Inc. HVAC controller with HVAC system failure detection
US10533761B2 (en) 2011-12-14 2020-01-14 Ademco Inc. HVAC controller with fault sensitivity
US9002523B2 (en) 2011-12-14 2015-04-07 Honeywell International Inc. HVAC controller with diagnostic alerts
US8902071B2 (en) 2011-12-14 2014-12-02 Honeywell International Inc. HVAC controller with HVAC system fault detection
US9206993B2 (en) 2011-12-14 2015-12-08 Honeywell International Inc. HVAC controller with utility saver switch diagnostic feature
US20130158720A1 (en) 2011-12-15 2013-06-20 Honeywell International Inc. Hvac controller with performance log
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US10139843B2 (en) 2012-02-22 2018-11-27 Honeywell International Inc. Wireless thermostatic controlled electric heating system
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US8867708B1 (en) 2012-03-02 2014-10-21 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8731148B1 (en) 2012-03-02 2014-05-20 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9442500B2 (en) 2012-03-08 2016-09-13 Honeywell International Inc. Systems and methods for associating wireless devices of an HVAC system
US10452084B2 (en) 2012-03-14 2019-10-22 Ademco Inc. Operation of building control via remote device
CA2868844C (en) 2012-03-29 2021-07-06 Nest Labs, Inc. Processing and reporting usage information for an hvac system controlled by a network-connected thermostat
US9488994B2 (en) 2012-03-29 2016-11-08 Honeywell International Inc. Method and system for configuring wireless sensors in an HVAC system
CN102665123B (zh) * 2012-03-30 2015-09-09 华为技术有限公司 一种电视操控方法、手持设备、电视及电视操控系统
US9098096B2 (en) 2012-04-05 2015-08-04 Google Inc. Continuous intelligent-control-system update using information requests directed to user devices
KR101868352B1 (ko) * 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
CN104303145B (zh) * 2012-05-29 2017-06-13 惠普发展公司,有限责任合伙企业 根据应用的转化配置文件将触摸输入转化成本地输入
DE102012209250A1 (de) * 2012-05-31 2013-12-05 Protected-Networks.Com Gmbh Sicherheitssystem
USD678084S1 (en) 2012-06-05 2013-03-19 Honeywell International Inc. Thermostat housing
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US20140019319A1 (en) * 2012-07-10 2014-01-16 Honeywell International Inc. Floorplan-based residential energy audit and asset tracking
US9594384B2 (en) 2012-07-26 2017-03-14 Honeywell International Inc. Method of associating an HVAC controller with an external web service
US9477239B2 (en) 2012-07-26 2016-10-25 Honeywell International Inc. HVAC controller with wireless network based occupancy detection and control
US10118241B2 (en) 2012-09-07 2018-11-06 Illinois Tool Works Inc. Welding system with multiple user interface modules
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9218118B2 (en) 2012-09-11 2015-12-22 Apple Inc. Media player playlist management
US9558278B2 (en) 2012-09-11 2017-01-31 Apple Inc. Integrated content recommendation
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
US9204291B2 (en) * 2012-10-12 2015-12-01 Crestron Electronics, Inc. User identification and location determination in control applications
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
US9383825B2 (en) * 2012-12-31 2016-07-05 Nicolas Jones Universal script input device and method
US10094585B2 (en) 2013-01-25 2018-10-09 Honeywell International Inc. Auto test for delta T diagnostics in an HVAC system
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9313544B2 (en) 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
JP2014170330A (ja) * 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
USD737842S1 (en) * 2013-03-14 2015-09-01 Microsoft Corporation Display screen with graphical user interface
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
JP2013175222A (ja) * 2013-04-23 2013-09-05 Sharp Corp コンテンツ表示装置、コンテンツ表示方法、プログラム、および記録媒体
US9584119B2 (en) 2013-04-23 2017-02-28 Honeywell International Inc. Triac or bypass circuit and MOSFET power steal combination
US9806705B2 (en) 2013-04-23 2017-10-31 Honeywell International Inc. Active triac triggering circuit
US9528720B2 (en) 2013-04-30 2016-12-27 Honeywell International Inc. Display sub-assembly for an HVAC controller
CN105247876A (zh) * 2013-05-20 2016-01-13 汤姆逊许可公司 使用图像编程的远程控制器
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3008641A1 (de) 2013-06-09 2016-04-20 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitaler assistenten
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
USD757740S1 (en) * 2013-06-20 2016-05-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9983244B2 (en) 2013-06-28 2018-05-29 Honeywell International Inc. Power transformation system with characterization
US11054448B2 (en) 2013-06-28 2021-07-06 Ademco Inc. Power transformation self characterization mode
US10811892B2 (en) 2013-06-28 2020-10-20 Ademco Inc. Source management for a power transformation system
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
KR102231105B1 (ko) * 2013-09-05 2021-03-24 삼성전자주식회사 제어 장치 및 그 제어 방법
USD750667S1 (en) * 2013-09-10 2016-03-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD730993S1 (en) 2013-09-20 2015-06-02 Wms Gaming Inc. Inclined input interface for a gaming terminal
US9349240B2 (en) 2013-09-20 2016-05-24 Bally Gaming, Inc. Gaming terminal with an inclined input interface
USD720633S1 (en) 2013-10-25 2015-01-06 Honeywell International Inc. Thermostat
EP3063608B1 (de) 2013-10-30 2020-02-12 Apple Inc. Anzeige von relevanten benutzerschnittstellenobjekten
US10563876B2 (en) 2013-11-22 2020-02-18 Ademco Inc. Setup routine to facilitate user setup of an HVAC controller
US9673811B2 (en) 2013-11-22 2017-06-06 Honeywell International Inc. Low power consumption AC load switches
US9857091B2 (en) 2013-11-22 2018-01-02 Honeywell International Inc. Thermostat circuitry to control power usage
US9587848B2 (en) 2013-12-11 2017-03-07 Honeywell International Inc. Building automation controller with rear projecting light
USD757793S1 (en) 2013-12-20 2016-05-31 Microsoft Corporation Display screen with icons
USD757794S1 (en) * 2013-12-20 2016-05-31 Microsoft Corporation Display screen with icon
USD753713S1 (en) 2013-12-20 2016-04-12 Microsoft Corporation Display screen with icons
USD758428S1 (en) * 2013-12-20 2016-06-07 Microsoft Corporation Display screen with icons
USD761305S1 (en) 2013-12-20 2016-07-12 Microsoft Corporation Display screen with icons
KR101548228B1 (ko) * 2013-12-27 2015-08-28 주식회사 케이티 사용자 상태에 기반하여 사용자 인터페이스를 동기화하는 동기화 기기 및 동기화 방법
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US9761035B1 (en) * 2014-03-03 2017-09-12 Mindstream Interface Dynamics, Inc. Dynamic user interfaces
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
EP3126969A4 (de) 2014-04-04 2017-04-12 Microsoft Technology Licensing, LLC Erweiterbare anwendungsdarstellung
TWI524620B (zh) * 2014-04-09 2016-03-01 Grand Mate Co Ltd Radiator control method
KR102107275B1 (ko) 2014-04-10 2020-05-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컴퓨팅 디바이스에 대한 접이식 쉘 커버
CN105359055A (zh) 2014-04-10 2016-02-24 微软技术许可有限责任公司 计算设备的滑盖
GB201408258D0 (en) 2014-05-09 2014-06-25 British Sky Broadcasting Ltd Television display and remote control
USD778314S1 (en) * 2014-05-13 2017-02-07 Xiaomi Inc. Display screen or portion thereof with a graphical user interface
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
EP3149728B1 (de) 2014-05-30 2019-01-16 Apple Inc. Eingabeverfahren durch einzelne äusserung mit mehreren befehlen
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US20150355611A1 (en) * 2014-06-06 2015-12-10 Honeywell International Inc. Apparatus and method for combining visualization and interaction in industrial operator consoles
US9628074B2 (en) 2014-06-19 2017-04-18 Honeywell International Inc. Bypass switch for in-line power steal
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
EP3164811B1 (de) * 2014-07-04 2019-04-24 Mapillary AB Verfahren zum hinzufügen von bildern zur navigation durch eine bilderreihe
US9683749B2 (en) 2014-07-11 2017-06-20 Honeywell International Inc. Multiple heatsink cooling system for a line voltage thermostat
KR101535032B1 (ko) * 2014-07-17 2015-07-07 현대자동차주식회사 차량 인터페이스 확장 방법
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10467320B2 (en) * 2014-08-05 2019-11-05 Polycom, Inc. Method for providing seamless graphical user interface control for a complex system consisting of distributed hardware modules
US11103948B2 (en) 2014-08-18 2021-08-31 Illinois Tool Works Inc. Systems and methods for a personally allocated interface for use in a welding system
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
JP6359935B2 (ja) * 2014-09-30 2018-07-18 株式会社Nttドコモ 対話装置および対話方法
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
USD788813S1 (en) * 2014-11-14 2017-06-06 Microsoft Corporation Display screen with icon
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
CN104537907B (zh) * 2015-01-23 2017-06-16 上海宜享智能科技有限公司 一种智能化协同讨论系统
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
CN104867311A (zh) * 2015-05-14 2015-08-26 连宁 通过第三方终端配置无线遥控终端的方法和装置
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9762965B2 (en) 2015-05-29 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
JP6497624B2 (ja) * 2015-06-15 2019-04-10 パナソニックIpマネジメント株式会社 スイッチ、機器制御システム、プログラム
KR102398488B1 (ko) * 2015-06-26 2022-05-13 엘지전자 주식회사 복수의 디바이스에 대한 원격제어를 수행할 수 있는 이동 단말기
CN105117004A (zh) * 2015-08-13 2015-12-02 小米科技有限责任公司 展现设备工作状态的方法和装置
US10582252B2 (en) * 2015-08-28 2020-03-03 Sharp Kabushiki Kaisha Display device, television receiver, program, and recording medium
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
FR3041857A1 (fr) * 2015-09-30 2017-03-31 Orange Procede de commande locale d'un dispositif electronique
US9702582B2 (en) 2015-10-12 2017-07-11 Ikorongo Technology, LLC Connected thermostat for controlling a climate system based on a desired usage profile in comparison to other connected thermostats controlling other climate systems
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
GB2551927B (en) * 2015-11-09 2020-07-01 Sky Cp Ltd Television user interface
DE102016220526A1 (de) * 2016-10-19 2018-04-19 HiAsset GmbH Automatische Menüauswahl in einer Gebäudesteuerung
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US11164474B2 (en) * 2016-02-05 2021-11-02 ThinkCERCA.com, Inc. Methods and systems for user-interface-assisted composition construction
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179925B1 (en) * 2016-06-12 2019-10-09 Apple Inc. USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10488062B2 (en) 2016-07-22 2019-11-26 Ademco Inc. Geofence plus schedule for a building controller
US10253994B2 (en) 2016-07-22 2019-04-09 Ademco Inc. HVAC controller with ventilation review mode
US10302322B2 (en) 2016-07-22 2019-05-28 Ademco Inc. Triage of initial schedule setup for an HVAC controller
US10317100B2 (en) 2016-07-22 2019-06-11 Ademco Inc. Simplified schedule programming of an HVAC controller
US11435888B1 (en) * 2016-09-21 2022-09-06 Apple Inc. System with position-sensitive electronic device interface
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10757873B2 (en) 2017-04-24 2020-09-01 Rain Bird Corporation Sensor-based interruption of an irrigation controller
US10444769B2 (en) 2017-04-24 2019-10-15 Rain Bird Corporation Sensor-based interruption of an irrigation controller
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
WO2019133273A1 (en) 2017-12-29 2019-07-04 Rain Bird Corporation Weather override irrigation control systems and methods
CN112088530A (zh) 2018-05-07 2020-12-15 苹果公司 用于查看实况视频馈送和录制视频的用户界面
CN108854069B (zh) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
WO2020018592A1 (en) 2018-07-17 2020-01-23 Methodical Mind, Llc. Graphical user interface system
US11429230B2 (en) 2018-11-28 2022-08-30 Neonode Inc Motorist user interface sensor
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11389735B2 (en) 2019-10-23 2022-07-19 Ganz Virtual pet system
DK202070612A1 (en) 2020-02-14 2021-10-26 Apple Inc User interfaces for workout content
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11358059B2 (en) 2020-05-27 2022-06-14 Ganz Live toy system
EP4222586A1 (de) 2020-09-30 2023-08-09 Neonode Inc. Optischer berührungssensor
US11886685B1 (en) 2022-10-20 2024-01-30 Stardock Corporation Desktop container peek interface

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US34340A (en) * 1862-02-04 Improved washing-machine
US32632A (en) * 1861-06-25 Water-elevator
US566552A (en) * 1896-08-25 Tubular-tower construction
DE2807986A1 (de) * 1978-02-22 1979-08-30 Hertz Inst Heinrich Anlage fuer interaktives kabelfernsehen
JPS57500537A (de) * 1980-03-31 1982-03-25
USRE32632E (en) 1982-07-19 1988-03-29 Apple Computer, Inc. Display system
GB2126054A (en) * 1982-08-11 1984-03-14 Philips Electronic Associated Display system with nested information display
US4622545A (en) * 1982-09-30 1986-11-11 Apple Computer, Inc. Method and apparatus for image compression and manipulation
US4555775B1 (en) * 1982-10-07 1995-12-05 Bell Telephone Labor Inc Dynamic generation and overlaying of graphic windows for multiple active program storage areas
US4533910A (en) * 1982-11-02 1985-08-06 Cadtrak Corporation Graphics display system with viewports of arbitrary location and content
US4641205A (en) * 1984-03-05 1987-02-03 Rca Corporation Television system scheduler with on-screen menu type programming prompting apparatus
US4573072A (en) * 1984-03-21 1986-02-25 Actv Inc. Method for expanding interactive CATV displayable choices for a given channel capacity
US4785408A (en) * 1985-03-11 1988-11-15 AT&T Information Systems Inc. American Telephone and Telegraph Company Method and apparatus for generating computer-controlled interactive voice services
US4873623A (en) * 1985-04-30 1989-10-10 Prometrix Corporation Process control interface with simultaneously displayed three level dynamic menu
US4884223A (en) * 1985-07-05 1989-11-28 Hybond, Inc. Dynamic force measurement system
US4706121B1 (en) * 1985-07-12 1993-12-14 Insight Telecast, Inc. Tv schedule system and process
US4812834A (en) * 1985-08-01 1989-03-14 Cadtrak Corporation Graphics display system with arbitrary overlapping viewports
US4914732A (en) * 1985-10-16 1990-04-03 Supra Products, Inc. Electronic key with interactive graphic user interface
US4653090A (en) * 1985-12-16 1987-03-24 American Telephone & Telegraph (At&T) Graphics based call management
US4893256A (en) * 1986-04-04 1990-01-09 International Business Machines Corporation Interactive video composition and presentation systems
US4899136A (en) * 1986-04-28 1990-02-06 Xerox Corporation Data processor having a user interface display with metaphoric objects
US4939507A (en) * 1986-04-28 1990-07-03 Xerox Corporation Virtual and emulated objects for use in the user interface of a display screen of a display processor
US4750036A (en) * 1986-05-14 1988-06-07 Radio Telcom & Technology, Inc. Interactive television and data transmission system
US5177604A (en) * 1986-05-14 1993-01-05 Radio Telcom & Technology, Inc. Interactive television and data transmission system
US4748618A (en) * 1986-05-21 1988-05-31 Bell Communications Research, Inc. Telecommunications interface
US4772882A (en) * 1986-07-18 1988-09-20 Commodore-Amiga, Inc. Cursor controller user interface system
US4788538A (en) * 1986-11-17 1988-11-29 Lotus Development Corporation Method and apparatus for determining boundaries of graphic regions
US5062060A (en) * 1987-01-05 1991-10-29 Motorola Inc. Computer human interface comprising user-adjustable window for displaying or printing information
US5233687A (en) * 1987-03-25 1993-08-03 Xerox Corporation User interface with multiple workspaces for sharing display system objects
US5394521A (en) * 1991-12-09 1995-02-28 Xerox Corporation User interface with multiple workspaces for sharing display system objects
US5072412A (en) * 1987-03-25 1991-12-10 Xerox Corporation User interface with multiple workspaces for sharing display system objects
US4847700A (en) * 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
US5195092A (en) * 1987-08-04 1993-03-16 Telaction Corporation Interactive multimedia presentation & communication system
US4847604A (en) * 1987-08-27 1989-07-11 Doyle Michael D Method and apparatus for identifying features of an image on a video display
USRE34340E (en) 1987-10-26 1993-08-10 Actv, Inc. Closed circuit television system having seamless interactive television programming and expandable user participation
US5008853A (en) * 1987-12-02 1991-04-16 Xerox Corporation Representation of collaborative multi-user activities relative to shared structured data objects in a networked workstation environment
US4935865A (en) * 1988-06-02 1990-06-19 The United States Of America As Represented By The Secretary Of The Air Force Computer controlled electropolishing system
US4995078A (en) * 1988-06-09 1991-02-19 Monslow H Vincent Television broadcast system for selective transmission of viewer-chosen programs at viewer-requested times
US4890320A (en) * 1988-06-09 1989-12-26 Monslow H Vincent Television broadcast system for selective transmission of viewer-chosen programs at viewer-requested times
US4977455B1 (en) * 1988-07-15 1993-04-13 System and process for vcr scheduling
US4931783A (en) * 1988-07-26 1990-06-05 Apple Computer, Inc. Method and apparatus for removable menu window
US5065347A (en) * 1988-08-11 1991-11-12 Xerox Corporation Hierarchical folders display
US5107443A (en) * 1988-09-07 1992-04-21 Xerox Corporation Private regions within a shared workspace
US5146556A (en) * 1988-10-11 1992-09-08 Next Computer, Inc. System and method for managing graphic images
US5021976A (en) * 1988-11-14 1991-06-04 Microelectronics And Computer Technology Corporation Method and system for generating dynamic, interactive visual representations of information structures within a computer
US4987486A (en) * 1988-12-23 1991-01-22 Scientific-Atlanta, Inc. Automatic interactive television terminal configuration
JPH02174360A (ja) * 1988-12-27 1990-07-05 Canon Inc 通信端末装置
US5086385A (en) * 1989-01-31 1992-02-04 Custom Command Systems Expandable home automation system
US5155806A (en) * 1989-03-15 1992-10-13 Sun Microsystems, Inc. Method and apparatus for displaying context sensitive help information on a display
US5157768A (en) * 1989-03-15 1992-10-20 Sun Microsystems, Inc. Method and apparatus for displaying context sensitive help information on a display
US4959720A (en) * 1989-04-06 1990-09-25 Rca Licensing Corporation Tuner control apparatus having tune-by-label capability
US4914517A (en) * 1989-04-06 1990-04-03 Thomson Consumer Electronics, Inc. Tuner control apparatus having tune-by-label capability and using alphabetical label storage
US5014125A (en) * 1989-05-05 1991-05-07 Cableshare, Inc. Television system for the interactive distribution of selectable video presentations
US5333256A (en) * 1989-05-15 1994-07-26 International Business Machines Corporation Methods of monitoring the status of an application program
US5151782A (en) * 1989-05-17 1992-09-29 Reiss Media Enterprises Control system for satellite delivered pay-per-view television system
US5047867A (en) * 1989-06-08 1991-09-10 North American Philips Corporation Interface for a TV-VCR system
US5235679A (en) * 1989-06-14 1993-08-10 Hitachi, Ltd. Guidance method and apparatus upon a computer system
US5471190A (en) * 1989-07-20 1995-11-28 Timothy D. Schoechle Method and apparatus for resource allocation in a communication network system
US5327161A (en) * 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US5241671C1 (en) * 1989-10-26 2002-07-02 Encyclopaedia Britannica Educa Multimedia search system using a plurality of entry path means which indicate interrelatedness of information
WO1991007050A1 (en) * 1989-10-30 1991-05-16 Insight Telecast, Inc. Cable television decoder to television accessory interfacing
US5295243A (en) * 1989-12-29 1994-03-15 Xerox Corporation Display of hierarchical three-dimensional structures with rotating substructures
US5347628A (en) * 1990-01-18 1994-09-13 International Business Machines Corporation Method of graphically accessing electronic data
JP2909491B2 (ja) * 1990-01-19 1999-06-23 株式会社山武 設備管理装置
EP0439873B1 (de) * 1990-01-29 1995-09-06 International Business Machines Corporation Datenverarbeitungssystem
US5140678A (en) * 1990-05-04 1992-08-18 International Business Machines Corporation Computer user interface with window title bar icons
US5140677A (en) * 1990-05-11 1992-08-18 International Business Machines Corporation Computer user interface with window title bar mini-icons
US5412377A (en) * 1990-06-08 1995-05-02 Evans; Benjamin F. Universal remote control program scheduling system
US5526034A (en) * 1990-09-28 1996-06-11 Ictv, Inc. Interactive home information system with signal assignment
US5361091A (en) * 1990-09-28 1994-11-01 Inteletext Systems, Inc. Interactive home information system for distributing video picture information to television viewers over a fiber optic telephone system
US5093718A (en) * 1990-09-28 1992-03-03 Inteletext Systems, Inc. Interactive home information system
US5220420A (en) * 1990-09-28 1993-06-15 Inteletext Systems, Inc. Interactive home information system for distributing compressed television programming
US5204947A (en) * 1990-10-31 1993-04-20 International Business Machines Corporation Application independent (open) hypermedia enablement services
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
JP2957316B2 (ja) * 1990-11-20 1999-10-04 インターナショナル・ビジネス・マシーンズ・コーポレイション 複数のソフトウェア・アプリケーションにアクセスするための方法およびシステム
US5239540A (en) * 1990-11-27 1993-08-24 Scientific-Atlanta, Inc. Method and apparatus for transmitting, receiving and communicating digital data signals with corresponding program data signals which describe the digital data signals
US5148154A (en) * 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5442742A (en) * 1990-12-21 1995-08-15 Apple Computer, Inc. Method and apparatus for the manipulation of text on a computer display screen
US5206722A (en) * 1990-12-28 1993-04-27 At&T Bell Laboratories Remote channel switching for video on demand service
AU1569392A (en) * 1991-02-07 1992-09-07 Data Card Corporation Network interface circuit apparatus and method
US5327160A (en) * 1991-05-09 1994-07-05 Asher David J Touch sensitive user interface for television control
US5236199A (en) * 1991-06-13 1993-08-17 Thompson Jr John W Interactive media system and telecomputing method using telephone keypad signalling
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
JPH07113881B2 (ja) * 1991-07-17 1995-12-06 財団法人パーソナル情報環境協会 メタファ環境制御方式
US5638505A (en) * 1991-08-16 1997-06-10 Sun Microsystems, Inc. Apparatus and methods for moving/copying objects using destination and/or source bins
CA2068486C (en) * 1991-08-30 1998-09-15 Stephen S. Fleming System and graphical method for creating an object
US5247347A (en) * 1991-09-27 1993-09-21 Bell Atlantic Network Services, Inc. Pstn architecture for video-on-demand services
US5333254A (en) * 1991-10-02 1994-07-26 Xerox Corporation Methods of centering nodes in a hierarchical display
US5396546A (en) * 1991-10-03 1995-03-07 Viscorp Apparatus and method for automatic and user configurable information appliance
US5349658A (en) * 1991-11-01 1994-09-20 Rourke Thomas C O Graphical user interface
US5253067A (en) * 1991-12-16 1993-10-12 Thomson Consumer Electronics, Inc. Channel labeling apparatus for a television receiver wherein graphics and text labels may be selected from a preprogrammed list
US5422993A (en) * 1991-12-17 1995-06-06 International Business Machines Corporation Method and system for performing direct manipulation operations in a computer system
US5297253A (en) * 1992-01-09 1994-03-22 Ehrlich Associates, Inc. Computer user interface navigational tool
WO1993015455A1 (en) * 1992-01-24 1993-08-05 Interactive Media Corporation System for performing function on second portal upon activation of related first portal
US5146901A (en) * 1992-02-03 1992-09-15 General Motors Corporation Vapor suppressing fuel handling system
JP3198486B2 (ja) * 1992-03-11 2001-08-13 ソニー株式会社 Avシステムのモニタ装置
US5461710A (en) * 1992-03-20 1995-10-24 International Business Machines Corporation Method for providing a readily distinguishable template and means of duplication thereof in a computer system graphical user interface
DE4243912A1 (de) * 1992-04-09 1993-10-14 Fuji Photo Film Co Ltd Lichtempfindliches Übertragungsmaterial und Bilderzeugungs-Verfahren unter Verwendung desselben
US5310349A (en) * 1992-04-30 1994-05-10 Jostens Learning Corporation Instructional management system
US5223924A (en) * 1992-05-27 1993-06-29 North American Philips Corporation System and method for automatically correlating user preferences with a T.V. program information database
US5689663A (en) * 1992-06-19 1997-11-18 Microsoft Corporation Remote controller user interface and methods relating thereto
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US5471564A (en) * 1992-07-10 1995-11-28 Microsoft Corporation System and method for dynamic printer timeout
US5388993A (en) * 1992-07-15 1995-02-14 International Business Machines Corporation Method of and system for demonstrating a computer program
USD348654S (en) 1992-09-14 1994-07-12 Par Technology Corporation Hand held terminal with input keyboard and LCD display touch screen
US5377997A (en) * 1992-09-22 1995-01-03 Sierra On-Line, Inc. Method and apparatus for relating messages and actions in interactive computer games
DE69329005T2 (de) * 1992-10-26 2001-03-22 Sun Microsystems Inc Fernbedienungs- und Zeigegerät
US5442376A (en) * 1992-10-26 1995-08-15 International Business Machines Corporation Handling multiple command recognition inputs in a multi-tasking graphical environment
US5357276A (en) * 1992-12-01 1994-10-18 Scientific-Atlanta, Inc. Method of providing video on demand with VCR like functions
US5410326A (en) * 1992-12-04 1995-04-25 Goldstein; Steven W. Programmable remote control device for interacting with a plurality of remotely controlled devices
US5416901A (en) * 1992-12-17 1995-05-16 International Business Machines Corporation Method and apparatus for facilitating direct icon manipulation operations in a data processing system
US5561444A (en) * 1992-12-21 1996-10-01 Apple Computer, Inc. Method and apparatus for providing visual feedback during manipulation of text on a computer screen
US5428734A (en) * 1992-12-22 1995-06-27 Ibm Corporation Method and apparatus for enhancing drag and drop manipulation of objects in a graphical user interface
US5434965A (en) * 1992-12-23 1995-07-18 Taligent, Inc. Balloon help system
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US5754178A (en) * 1993-03-03 1998-05-19 Apple Computer, Inc. Method and apparatus for improved feedback during manipulation of data on a computer controlled display system
US5530865A (en) * 1993-03-03 1996-06-25 Apple Computer, Inc. Method and apparatus for improved application program switching on a computer-controlled display system
US5517663A (en) * 1993-03-22 1996-05-14 Kahn; Kenneth M. Animated user interface for computer program creation, control and execution
US5555354A (en) * 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
US5812862A (en) * 1993-05-10 1998-09-22 Apple Computer, Inc. Computer-human interface system for compound documents
EP0626635B1 (de) * 1993-05-24 2003-03-05 Sun Microsystems, Inc. Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
US5524195A (en) * 1993-05-24 1996-06-04 Sun Microsystems, Inc. Graphical user interface for interactive television with an animated agent
US5491784A (en) * 1993-12-30 1996-02-13 International Business Machines Corporation Method and apparatus for facilitating integration of software objects between workspaces in a data processing system graphical user interface
US5515385A (en) * 1994-03-09 1996-05-07 Motorola, Inc. Device and method for limiting delay by substantial elimination of duplicate synchronous data frames in a communication system
US5500794A (en) * 1994-03-31 1996-03-19 Panasonic Technologies, Inc. Distribution system and method for menu-driven user interface
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor
US5600785A (en) * 1994-09-09 1997-02-04 Compaq Computer Corporation Computer system with error handling before reset
US5657221A (en) * 1994-09-16 1997-08-12 Medialink Technologies Corporation Method and apparatus for controlling non-computer system devices by manipulating a graphical representation
EP0712926B1 (de) * 1994-10-18 2003-10-08 Akzo Nobel N.V. Virus, welches die Pankreas-Krankheit bei Fischen verursacht
US5543857A (en) * 1994-10-25 1996-08-06 Thomson Consumer Electronics, Inc. Graphical menu for a television receiver
US6724732B1 (en) * 1999-01-05 2004-04-20 Lucent Technologies Inc. Dynamic adjustment of timers in a communication network
US6574770B1 (en) * 2000-06-29 2003-06-03 Lucent Technologies Inc. Error-correcting communication method for transmitting data packets in a network communication system

Also Published As

Publication number Publication date
EP0626635B1 (de) 2003-03-05
US5995106A (en) 1999-11-30
JP3898235B2 (ja) 2007-03-28
EP0626635A2 (de) 1994-11-30
US6160551A (en) 2000-12-12
US6344861B1 (en) 2002-02-05
US6020881A (en) 2000-02-01
JP2005293599A (ja) 2005-10-20
US20020060701A1 (en) 2002-05-23
DE69432199D1 (de) 2003-04-10
EP0626635A3 (de) 1997-02-12
US5886697A (en) 1999-03-23
US7240289B2 (en) 2007-07-03
JPH0798640A (ja) 1995-04-11
US6154209A (en) 2000-11-28
JP4471114B2 (ja) 2010-06-02

Similar Documents

Publication Publication Date Title
DE69432199T2 (de) Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
DE69535524T2 (de) Anwenderdefinierbare graphische schnittstelle für informationszugriff in einem elektronischen dateisystem
US7134092B2 (en) Graphical user interface method and apparatus
US5107443A (en) Private regions within a shared workspace
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
CN101404152B (zh) 信息显示装置
US5577188A (en) Method to provide for virtual screen overlay
US5896133A (en) Graphical user interface for navigating between street, hallway, room, and function metaphors
US6636246B1 (en) Three dimensional spatial user interface
KR100324878B1 (ko) 가상현실환경에서정보를표시하는방법
CA2402543A1 (en) A three dimensional spatial user interface
US20070204047A1 (en) Shared telepointer
CN102804161A (zh) 应用共享
EP0527828B1 (de) Objektbasiertes rechnersystem
KR20110110333A (ko) 공간적 가상 통신 환경과의 인터페이싱
CN1064557A (zh) 三维图形接口
DE69829110T2 (de) Verfahren zur beschreibung der benutzerschnittstellenmerkmale und funktionalität von av/c-geräten
JP4267186B2 (ja) クライアントとホスト間での情報内容の伝達
CN106954089A (zh) 能够与外部设备实现多媒体交互的手机
Egenhofer et al. The geographer's desktop: A direct-manipulation user interface for map overlay
CN100498683C (zh) 计算机网络界面的管理方法
JPH07134695A (ja) ネットワークサービスにおけるビジュアルアクセスシステム
Stein One year of Puma Painting: site experiences
Bederson et al. Jazz: AnExtensibleZoomableUserInterface GraphicsToolkitinJava
Hopgood A graphics standards view of screen management

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee