DE10066477B3 - Tragbarer Computer in einer Prozesssteuerungsumgebung - Google Patents

Tragbarer Computer in einer Prozesssteuerungsumgebung Download PDF

Info

Publication number
DE10066477B3
DE10066477B3 DE10066477.6A DE10066477A DE10066477B3 DE 10066477 B3 DE10066477 B3 DE 10066477B3 DE 10066477 A DE10066477 A DE 10066477A DE 10066477 B3 DE10066477 B3 DE 10066477B3
Authority
DE
Germany
Prior art keywords
process control
portable computer
user
routine
software routine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10066477.6A
Other languages
English (en)
Inventor
Kent A. Burr
Andrew P. Dove
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Application granted granted Critical
Publication of DE10066477B3 publication Critical patent/DE10066477B3/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Abstract

Tragbarer Computer (34) zur Verwendung in einem Prozesssteuerungssystem, der Folgendes aufweist: – einen Prozessor (50); – mindestens ein Eingabegerät (46); – eine Anzeigeeinrichtung (40); – einen computerlesbaren Speicher (52); – eine erste Software-Routine, die auf dem computerlesbaren Speicher (52) abgelegt und auf dem Prozessor (50) ausführbar ist, um ein Prozesssteuerungsgerät des Prozesssteuerungssystems (10) basierend auf einem Eingangssignal zu identifizieren, das unter Verwendung eines des mindestens einen Eingabegeräts (46) erzeugt wird; – eine zweite Software-Routine, die auf dem computerlesbaren Speicher (52) abgelegt und auf dem Prozessor (50) ausführbar ist, (i) um eine Anzeige über die Anzeigeeinrichtung (40) zu liefern, dass eine zugreifbare benutzererzeugte Nachricht zur Verfügung steht, wobei die Nachricht sich auf das identifizierte Prozesssteuerungsgerät bezieht, wobei die Nachricht vorher durch einen Benutzer erzeugt und gespeichert wurde, damit diese für eine zukünftige Kommunikation bereit steht, (ii) und die benutzererzeugte Nachricht als Reaktion auf eine Benutzereingabe bereitstellt, die die benutzererzeugte Nachricht auswählt.

Description

  • Die vorliegende Erfindung betrifft allgemein Prozesssteuerungssysteme und insbesondere die Verwendung eines tragbaren Computers, um eine verbesserte Unterstützung in einer Prozesssteuerungsumgebung bereitzustellen.
  • Prozesssteuerungssysteme wie sie bei chemischen, petrochemischen oder anderen Prozessen verwendet werden, beinhalten im allgemeinen eine zentrale Prozesssteuerung, die zum Datenaustausch mit mindestens einer Host- oder Operator-Workstation und einem oder mehreren Feldgeräten über analoge, digitale oder kombinierte analoge/digitale Datenbusse gekoppelt ist. Die Feldgeräte, bei denen es sich beispielsweise um Ventile, Ventilstelleinrichtungen, Schalter, Sensoren (z. B. Temperatur-, Druck- und Durchsatzsensoren) etc. handeln kann, führen Steuerfunktionen innerhalb des Prozesses aus wie Öffnen und Schließen von Ventilen und Messen von Prozessparametern. Allgemein ausgedrückt empfängt die Prozesssteuerung Signale, die Prozessmessungen der Feldgeräte repräsentieren und/oder andere Informationen in Zusammenhang mit den Feldgeräten, verwendet diese Informationen zur Implementierung einer Steuerungsroutine und erzeugt dann Steuersignale, die über die Busse an die Feldgeräte geschickt werden, um den Prozessbetrieb zu steuern. Informationen von den Feldgeräten und der Steuerung werden typischerweise einer oder mehreren Anwendungen zur Verfügung gestellt, die von der Operator-Workstation ausgeführt werden, um es einem Operator zu ermöglichen, jede gewünschte Funktion im Rahmen des Prozesses auszuführen, z. B. Betrachten des aktuellen Prozessstatus, Modifizieren der Prozessoperationen usw.
  • Obwohl ein Operator oder ein Techniker auf verschiedene Typen von Informationen in Zusammenhang mit dem Prozesssteuerungssystem und die individuellen Geräte desselben (z. B. Hilfe-, Diagnose-, Einstellungs- und Konfigurationsinformationen) über die Host-Workstation zugreifen kann, gibt es zahlreiche Prozesssteuerungsaktivitäten, zu deren Durchführung ein Techniker in die reale Umgebung der Betriebsanlage gehen muss, wo ihm keine Host-Workstation zur Verfügung steht. Solche Aktivitäten beinhalten beispielsweise die Sichtkontrolle eines Prozesssteuergeräts oder -bereichs, das Anschließen von Geräten oder Bussen in der Prozesssteuerungsumgebung, manuelle Messungen, Instandsetzung und Austausch von Feldgeräten usw. In diesen Fällen kann der Operator oder Techniker Handbücher über die durchzuführenden Aufgaben mit in die Betriebsanlage nehmen und vor Ort die eventuell benötigten Informationen nachschlagen. Diese Vorgehensweise ist aber sehr umständlich. Es ist eher wahrscheinlich, dass der Techniker ein- oder mehrmals zur Operator-Workstation zurückgeht, um sich die zur Durchführung der gewünschten Aktivität benötigten Informationen zu beschaffen, was sehr zeitaufwendig und fehleranfällig ist. Bei anderen Gelegenheiten führt der Techniker ein Funkgerät oder Walkie-Talkie in die Betriebsanlage mit sich und kommuniziert über Funk mit einem Operator an der Operator-Workstation, um sich die benötigten Informationen geben zu lassen. Der Umfang der über Funk zu vermittelnden Informationen ist jedoch begrenzt und ebenfalls fehleranfällig, da die Kommunikation von Mensch zu Mensch erfolgt. Da außerdem der Techniker normalerweise das Funkgerät in der Hand trägt oder mit den Händen bedient, wird die Durchführung bestimmter Aufgaben wie die Instandsetzung eines Geräts sehr umständlich und schwierig.
  • Mit der Einführung kleinerer elektronischer Geräte sind mobile Rechner in Form tragbarer Computer in größerem Maße verfügbar geworden. Ein tragbarer Computer enthält im allgemeinen eine Standard-Zentraleinheit (CPU) und einen Speicher, die in einem kleinen Behälter verpackt sind und in einem Beutel am Gürtel oder Gurtzeug eines Benutzers (hierin auch ”Träger” genannt) untergebracht werden. Batterien zur Spannungsversorgung des tragbaren Computers werden typischerweise in einem anderen Beutel des Gurtzeugs untergebracht, das so ausgeführt ist, dass der Transport des tragbaren Computers so bequem wie möglich ist. Peripheriegeräte wie Plattenlaufwerke, Festplattenlaufwerke, PCMCIA-Steckplätze, Mikrophone, Strichcodeleser und Tastaturgeräte können über geeignete Leiter oder Busse kommunikativ mit der CPU gekoppelt und, falls gewünscht, kann eines oder mehrere dieser Peripheriegeräte im Gurtzeug untergebracht oder mit diesem verbunden werden. Es ist auch schon vorgeschlagen worden, eine Anzeigeneinspiegelung (Head-up Display – HUD) für den Benutzer des tragbaren Computers bereitzustellen, die dem Träger eine visuelle Benutzeroberfläche bietet. Ein tragbarer Computer bietet dadurch einem Benutzer mobile Rechenleistung und Speicher, und da der tragbare Computer am Benutzer getragen und nicht von diesem gehalten wird, braucht der Benutzer die Hände nur zur Betätigung der Tastatur oder anderer Eingabegeräte.
  • Obwohl schon früher vorgeschlagen wurde, tragbare Computer in Umgebungen wie Büros zu verwenden, ist ein tragbarer Computer wahrscheinlich noch nicht in ein Prozesssteuerungssystem integriert und in diesem verwendet worden, um die Fähigkeiten eines Operators oder Technikers bei der Identifizierung von Geräten oder der Durchführung anderer Aufgaben in eine Prozesssteuerungsumgebung zu verbessern. Außerdem brauchen die meisten tragbaren Computer die Verwendung irgendeines handbetätigten Eingabegerätes, z. B. eine Tastatur oder einen Twiddler. Obwohl diese Geräte typischerweise ergonomisch ausgeführt sind, um so anwenderfreundlich wie möglich zu sein, braucht der Benutzer dennoch seine Hände zur Eingabe von Informationen oder Daten. In einer Prozesssteuerungsumgebung jedoch muss ein Techniker typischerweise beide Hände zur Durchführung komplizierter Arbeiten wie Kalibrierung und Instandsetzung von Geräten, Anschließen von Geräten innerhalb des Prozesssteuerungssystem usw. frei haben.
  • Die Druckschrift US 5 598 572 A beschreibt ein Informationssystem, das einen Prozesssteuerungscomputer und ein portables Eingabegerät umfasst. Das System erhält Informationen hinsichtlich der Standorte und Richtungen von und zu zahlreichen Komponenten einer Werksanlage.
  • Die Druckschrift EP 0 670 537 A1 bezieht sich auf ein freihändig bedienbares, portables Computergerät zum Empfangen und Anzeigen von Information. Das Gerät weist ein Stimmenerkennungsmodul, das Audiobefehle in elektrische Signale umwandelt, und eine Displayanzeige auf.
  • Die Druckschrift EP 0 862 159 A1 beschreibt ein Stimmenerkennungssystem für medizinische Röntgengeräte, das Mittel zum Eingeben von Befehlen und Daten mittels Stimmenerkennung aufweist.
  • Die Druckschrift DE 600 31 929 T2 bezieht sich auf ein Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern. Hierbei wird ein Bild in vermutete Zeichenbereiche des Nummernschildbilds vorwärts getrennt, wobei die Bereiche mit einem Vertrauenswert versehen und mit einem Grenzwert verglichen werden.
  • Die Erfindung betrifft einen tragbaren Computer zur Verwendung in einem Prozesssteuerungssystem gemäß Patentanspruch 1 sowie eine Datenspeicherungs-/Abrufeinheit gemäß Patentanspruch 11 zur Verwendung in einem erfindungsgemäßen tragbaren Computer. Vorteilhafte Ausführungsformen werden in den abhängigen Patentansprüchen beschrieben.
  • Ein tragbarer Computer zur Verwendung in einer Prozesssteuerungsumgebung enthält eine Zentraleinheit und einen Speicher, die mit einem oder mehreren Peripheriegeräten verbunden sind, u. a. beispielsweise einer Anzeigeneinspiegelung bzw. einem Head-up Display (HUD), einem Mikrophon, einem Bildgebungsgerät (z. B. eine Videokamera) und einem Fern-Kommunikationsgerät (z. B. einem drahtlosen Ethernet-Sender/Empfänger), der mit einem Host-Rechner eines Prozesssteuerungssystems kommuniziert. Der tragbare Computer kann über die Anzeigeneinspiegelung Informationen liefern, die mit einem oder mehreren Geräten innerhalb des Prozesssteuerungssystems in Zusammenhang stehen. Die Informationen, bei denen es sich z. B. um diagnostische Informationen, Hilfetexte, Operator-Übersichten, schematische Darstellungen oder Informationen bezüglich der Prozessparameter handeln kann, können im Speicher des tragbaren Computers gespeichert oder vom Host-Rechner über das entfernt angeordnete Kommunikationsgerät abgerufen werden.
  • Der tragbare Computer kann eine Software-Routine oder ein Software- bzw. ein Hardwaregerät enthalten, das ein vom Bildgebungsgerät entwickeltes Bild verarbeitet, um automatische Prozesssteuerungsgeräte innerhalb des Gesichtsfeldes des Trägers auf Basis von Gerätemerkmalen zu identifizieren. Diese Verarbeitung, die auf Basis von Geräteanhängern, die an den Geräten in den Prozesssteuerungsumgebungen anzubringen sind, erfolgen kann, identifiziert automatisch ein oder mehrere Prozesssteuerungsgeräte, ohne dass der Benutzer dazu irgendwelche Informationen über ein handbetätigbares Gerät eingeben muss, und kann dazu verwendet werden, dem Träger zu den identifizierten Geräte gehörige Informationen, einschließlich der von den identifizierten Geräten entwickelten Werte der Prozessparameter, zu liefern.
  • Des Weiteren kann der tragbare Computer zur Prüfung der korrekten Anschlüsse der Geräte und/oder Kommunikationskanäle innerhalb des Prozesssteuerungssystems verwendet werden. Bei dieser Ausführungsform zeigt eine auf dem tragbaren Computer laufende Software-Routine dem Träger über die HUD Informationen an, die beispielsweise eine Liste der Geräte oder Kommunikationskanäle enthalten, und ermöglicht es dem Träger, das jeweils zu prüfende Gerät und/oder den Kommunikationskanal zu wählen. Der Träger kann mittels verbaler Befehle, die von einer auf dem tragbaren Computer laufenden Spracherkennungsroutine aufgrund von Befehlen, die über ein beliebiges anderes Eingabegerät eingegeben werden, decodiert werden, ein Gerät oder einen Kanal wählen. Nach der Wahl des entsprechenden E/A-Kanals ermittelt die Routine den aktuellen Wert des Signals auf dem gewählten Kanal über Datenübertragung mit dem Host-Rechner und zeigt dem Träger diesen Wert auf der HUD an. Zu diesem Zeitpunkt kann der Träger den Wert auf dem aktuellen Kommunikationskanal z. B. mittels eines handgeführten Messgeräts manuell prüfen. Die Routine ermöglicht dem Träger dann, den Wert des Kanals zu ändern, indem er einen neuen Wert beispielsweise über Sprachbefehle eingibt. Als nächstes überträgt die Routine den neuen Wert an den Host-Rechner, der den Wert innerhalb des Prozesssteuerungssystems ändert und die Änderung an den tragbaren Computer zurückmeldet. Die Änderung kann dem Träger über die HUD angezeigt werden, worauf der Träger in diesem Zeitpunkt das Signal auf dem Kanal erneut manuell messen kann, um sicherzustellen, daß das gemessene Signal auf den neuen Wert geändert worden ist. Ist dies nicht der Fall, liegt in der Konfiguration des Prozesssteuerungssystems ein Problem vor. Unter Anwendung dieses Systems kann der Träger die Anschlüsse innerhalb einer Prozesssteuerungsumgebung auf eine Weise prüfen, bei der er die Hände frei hat, und ohne durchzuführende Änderungen an eine andere Person zu melden, die sich an einer anderen Stelle der Betriebsanlage (z. B. an einer Operator-Workstation) befindet.
  • Bei einer anderen Ausführungsform ermöglichen Routinen, die auf dem tragbaren Computer und einer Host-Workstation laufen, dass der Träger und ein Operator an der Host-Workstation ein gemeinsames Bild betrachten und manipulieren können, um dadurch die Kommunikation zwischen dem Operator und dem Träger zu verbessern. Das Host-System kann ein von der Videokamera des tragbaren Computers entwickeltes Signal empfangen und ein Basisbild für die gemeinsame Betrachtung wählen. Dieses Bild wird auf der Anzeige des Hosts angezeigt und an den tragbaren Computer zur Anzeige auf der HUD geschickt. Danach können entweder der Operator oder der Träger oder beide das Bild manipulieren, indem beispielsweise ein Cursor im Bild bewegt wird, Daten oder Informationen hervorgehoben oder im Bild angebracht werden usw. Diese Änderungen werden dann an das jeweils andere System geschickt, so dass sie sowohl auf der Anzeige des Hosts als auch auf der HUD angezeigt werden.
  • Bei einer weiteren Ausführungsform kann der tragbare Computer zum Erzeugen und Speichern von Informationen z. B. in Form von Sprachmeldungen, die ein Gerät oder ein anderes Objekt in der Prozesssteuerungsumgebung betreffen, verwendet werden. Solche Informationen können dann automatisch an einen Träger oder Operator geliefert werden, der später zu diesem Gerät kommt.
  • 1 ist ein schematisches Blockdiagramm eines Prozesssteuerungsnetzes mit einem damit entfernt gekoppelten tragbaren Computersystem;
  • 2 ist ein schematisches Blockdiagramm des tragbaren Computersystems von 1;
  • 3 ist ein Flussdiagramm einer Software-Routine, die Sprachdaten verarbeitet, um Befehle im tragbaren Computersystem von 2 zu erkennen;
  • 4 ist ein Flussdiagramm einer Software-Routine, die automatische Prozesssteuerungsgeräte auf Basis von vom tragbaren Computersystem nach 2 gesammelten Videoinformationen erkennt;
  • 5 ist ein Flussdiagramm eines Satzes Software-Routinen, die ein gemeinsam genutztes Bild für ein Host-System und das tragbare Computersystem nach 2 bereitstellen;
  • 6 ist ein Flussdiagramm einer Software-Routine, die den Benutzer eines tragbaren Computers unterstützt, der Kommunikationsanschlüsse innerhalb einer Prozesssteuerungsumgebung auf ihre Richtigkeit prüft;
  • 7 ist eine erste Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach 6;
  • 8 ist eine zweite Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach 6; und
  • 9 ist eine weitere Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach 6.
  • Nunmehr sei auf 1 verwiesen, wonach ein Prozesssteuerungssystem 10 eine Prozesssteuerung 12 enthält, die mit einer Host-Workstation oder einem Host-Rechner 14 (bei dem es sich um einen beliebigen Typ Personal Computer oder Workstation handeln kann) und Feldgeräten 15, 16, 17, 18 und 19 über Eingangs-/Ausgangs-(E/A)-Karten 20 und 22 verbunden ist. Die Steuerung 12, die beispielsweise eine von der Firma Fisher-Rosemount Systems, Inc., vertriebene DeltaVTM vertriebene Steuerung sein kann, kann mit dem Host-Rechner 14 über z. B. einen Ethernet-Anschluss und mit den Feldgeräten 15 bis 19 kommunikativ unter Verwendung von Hardware und Software in Zusammenhang mit jedem gewünschten Kommunikationsprotokoll (u. a. beispielsweise dem FOUNDATIONTM Fieldbus-, dem HART®-, PROFIBUS®-, WORLDFIP®-, Device-Net®- oder CAN-Protokoll) verbunden sein. Typischerweise implementiert die Steuerung 12 eine darin gespeicherte Prozesssteuerungsroutine und kommuniziert mit den Geräten 15 bis 22 und dem Host-Rechner 14, um einen Prozess auf jede gewünschte Weise zu steuern. Die Feldgeräte 15 bis 19 können beliebige Typen Geräte, z. B. Sensoren, Ventile, Sender, Stellglieder usw. sein, während die E/A-Karten 20 und 22 beliebige Typen E/A-Geräte sein können, die jedem gewünschten Kommunikations- oder Steuerungsprotokoll entsprechen.
  • Wie in 1 dargestellt ist der Host-Rechner 14 kommunikativ mit einem tragbaren Computersystem 30 über ein Fern- oder drahtloses Kommunikationsgerät wie z. B. einen Fern-Ethernet-Sender/Empfänger 32 gekoppelt. Alternativ kann der Host-Rechner 14 mit dem tragbaren Computersystem 30 über eine physikalische Leitung oder einen Bus verbunden werden, mit Anschlüssen in der gesamten Prozesssteuerungsumgebung, an die das tragbare Computersystem 30 vorübergehend angeschlossen und wieder davon getrennt werden kann.
  • Das tragbare Computersystem 30 enthält einen tragbaren Computer 34 mit einem Fern-Sender/Empfänger 36 und einer Anzahl am Computer angeschlossener Peripheriegeräte. Bei der bevorzugten Ausführungsform enthält der tragbare Computer 34 eine CPU-Grundplatine der Pentium-Klasse mit Video, Audio, RAM (z. B. 64 MB) und ROM mit einem Festplattenlaufwerk (z. B. 4,3 GB), die sämtlich in einem tragbaren Computer-Gurtzeug (nicht dargestellt) untergebracht werden. Der tragbare Computer 34 kann eine beliebige Anzahl Steckplätze aufweisen, z. B. PCMCIA-Steckplätze, von denen einer dazu verwendet werden kann, den Fern-Sender/Empfänger 36 und ein anderer, um eine Video-Verarbeitungsplatine wie eine Platine zur Videobilderfassung aufzunehmen. Die kommunikativ mit dem tragbaren Computer 34 gekoppelten Peripheriegeräte beinhalten ein Bildgebungsgerät 38, das eine Videokamera sein kann, eine HUD 40, einen Lautsprecher 42 (bei dem es sich um einen Kopfhörer/Lautsprecher oder um einen anderen Lautsprechertyp handeln kann), ein Mikrophon 44 und ein Eingabegerät 46 für den Benutzer, das beispielsweise eine typische Tastatur, eine Maus, eine Rollkugel oder ein Twiddler-Gerät mit einer begrenzten Anzahl leicht zu betätigender Tasten (z. B. Funktionstasten) sein kann, deren Funktion für verschiedene Anwendungen verschieden definiert wird. Selbstverständlich können auch andere Peripheriegeräte zusätzlich oder alternativ verwendet werden.
  • Während das Bildgebungsgerät 38 vorzugsweise eine Videokamera ist, kann es stattdessen ein anderer Typ Bildgebungsgerät z. B. eine digitale Kamera sein, die kompakt ist und sich vom Träger auf einfache Weise so transportieren lässt, dass er die Hände frei hat. Am meisten bevorzugt ist die Videokamera 38 oder ein anderes bildgebendes Gerät an dem HUD 40 oder einem anderen Gerät (z. B. einem tragbaren Kopfhörer) angebracht, das in Blickrichtung des Trägers weist. Eine kleine und leicht montierbare Videokamera, die für diesen Zweck verwendet werden kann, wird von der Firma Pulnix Corporation vertrieben. Diese Videokamera entspricht dem hochauflösenden Fernsehstandard (high definition television – HDTV) (d. h. erzeugt ein Farbbild mit 800 × 600 Bildpunkten), hat ein Objektiv mit einem Durchmesser von ca. einem viertel bis einem halben Zoll und erzeugt ein hochauflösendes Farbbild. Stattdessen können jedoch auch andere Videokameras verwendet werden, z. B. Videokameras, die hoch- oder niedrigauflösende Farb- oder Schwarzweiß-(d. h. Grauton)-Bilder erzeugen. In einigen Fällen kann eine niedrigauflösende Videokamera (entweder Schwarzweiß- oder Farbbilder) bevorzugt werden, um die zur Verarbeitung eines Bildes in der nachstehend beschriebenen Weise erforderlich Zeit zu verkürzen.
  • Die HUD 40 kann ein NTSC-Videoformat verwenden und ist vorzugsweise eine monokulare HUD wie beispielsweise die M1 HUD, die von der Firma Liquide Image Corp., Kanada, vertrieben wird. Diese HUD liefert ein Viertel- (d. h. 320 × 240 Bildpunkte) VGA-Grautonbild. Natürlich könnten stattdessen auch HUD's nach dem HDTV-Format (deren Kosten eine Verwendung derzeit noch verbieten) oder andere Farb- oder Grauton-HUD's, seien sie bereits verfügbar oder künftige Entwicklungen, verwendet werden. Als Lautsprecher 42, Mikrophon 44 und Eingabegerät 46 kann jedes geeignete und leicht transportierbare Gerät verwendet werden, wobei diese vorzugsweise so anzubringen sind, dass der Träger seine Hände frei hat. Bei einer Ausführungsform kann ein Knochenleitungsmikrophon sowohl als Mikrophon 44 als auch als Lautsprecher 42 arbeiten. Wie bekannt, nutzen Knochenleitungsmikrophone die Knochen im Kiefer des Trägers, um Sprachsignale zu erkennen und/oder um Tonsignale am Ohr des Trägers zu erzeugen.
  • Bei installiertem tragbarem Computersystem 30 hat der Träger immer noch beide Hände frei, um andere Aktivitäten auszuführen wie beispielsweise Instandsetzen von Geräten, Vornehmen von Messungen oder Halten anderer Instrumente. Natürlich kann zur Betätigung des Eingabegeräts 46 eine oder beide Hände erforderlich sein, es ist aber dennoch vorzugsweise so angebracht, dass der Träger die Hände frei hat.
  • Wie aus 2 ersichtlich ist, enthält der tragbare Computer 34 eine mit einem Speicher 52 gekoppelte CPU 50, bei dem es sich um jeden Speichertyp handeln kann, einschließlich z. B. eines Plattenlaufwerks (z. B. Festplatten-, Magnetplatten- oder Laserplattengerät), RAM, ROM, EEPROM, EPROM etc. Die CPU 50, die einen oder mehrere Prozessoreinheiten enthalten kann (oder andere fest verdrahtete oder Firmwareelemente), die unabhängig voneinander oder koordiniert arbeiten, führt eine oder mehrere Software-Anwendungen (im Speicher 52 gespeichert) aus, wobei sie die Eingaben in den tragbaren Computer 34, im Speicher 52 gespeicherte Informationen und/oder Informationen verwendet, die vom Host-System über den Sender/Empfänger 36 geliefert werden. Außerdem stellt die CPU 50 Ausgaben an die Peripheriegeräte sowie an das Host-System über das entfernte Kommunikationsgerät, d. h. den Sender/Empfänger 36, bereit. Bei der Ausführungsform von 2 ist die CPU 50 so dargestellt, dass sie eine Steuerung 54 enthält (die hardware- oder softwaremäßig implementiert sein kann) und die das zum tragbaren Computer 34 gehörige Betriebssystem ausführt, um verschiedene Eingaben von den Peripheriegeräten und anderen Komponenten des tragbaren Computers 34 zu erkennen und eine oder mehrere Anwendungen abzuarbeiten. Die in 2 dargestellte CPU 50 enthält eine Spracherkennungseinheit 56 oder führt diese aus, eine optische Zeichenerkennungs-(optical character recognition – OCR)-Einheit 60, einen Lautsprechertreiber 62 und einen HUD-Treiber 64. Außerdem ist die CPU 50 mit einem Video-Einzelbild-Grabber 68 gekoppelt, der auf einer getrennten Videoverarbeitungsplatine bereitgestellt werden kann.
  • Die Spracherkennungseinheit 56, bei der es sich z. B. um das Dragon Dictate System, das von der Firma Dragon Systems, Boston, Massachusetts, vertrieben wird, oder um eine andere gewünschte Spracherkennungseinheit handeln kann, ist typischerweise softwaremäßig implementiert, kann aber alternativ auch auf einer getrennten Prozessorplatine ausgeführt sein. In jedem Fall empfängt die Spracherkennungseinheit 56 Sprache, Stimme oder andere Tonsignale vom Mikrophon 44, führt damit eine Spracherkennungsverarbeitung durch und liefert auf Basis der erkannten Spracheingaben Befehle an die Steuerung 54. Die Spracherkennungseinheit 56 kann jede gewünschte oder bekannte Verarbeitung der empfangenen Sprachsignale ausführen, um bestimmte erkannte Sprachbefehle oder Worte zu identifizieren. Während dieses Prozesses kann die Spracherkennungseinheit 56 einen identifizierten Sprachbefehl mit einer Liste gespeicherter oder erkannter Sprachbefehle (die beispielsweise in Speicher 52 gespeichert sind) vergleichen, um zu bestimmen, ob ein gültiger Befehl vom Träger gegeben wird. Ist ein erkannter Befehl empfangen worden, schickt die Spracherkennungseinheit 56 den Befehl zur weiteren Verarbeitung an die Steuerung 54. Falls gewünscht, kann selbstverständlich die Steuerung 54 bestimmen, ob ein Sprachbefehl ein gültiger oder erkannter Befehl im Rahmen der von der Steuerung 54 abgewickelten Anwendung ist, und kann den Benutzer informieren, wenn ein nicht erkannter Befehl empfangen wird. Bekannterweise kann die Spracherkennungseinheit 56 auch Lernfähigkeiten haben.
  • 3 zeigt ein Blockdiagramm einer Software-Routine 80, die ein Sprachsignal verarbeitet, um Sprachbefehle zu identifizieren, und die vom tragbaren Computersystem 30 ausgeführt werden kann, um dem Träger zu ermöglichen, Daten oder Befehle verbal und damit ohne die Hände zu gebrauchen, einzugeben. In Block 82 der Routine 80 wird ein Sprachsignal vom Mikrophon 44 empfangen. Das Sprachsignal wird in Block 84 verarbeitet, um einen Sprachbefehl im Signal zu identifizieren, wobei jede gewünschte oder standardmäßige Spracherkennungsverarbeitungsroutine verwendet werden kann wie oben angegeben. In Block 86 werden dann der identifizierte Befehl oder die Eingabe mit einem Satz Befehlen verglichen, der beispielsweise im Speicher 52 gespeichert ist, um zu bestimmen, ob der Befehl gültig ist. Wird in Block 88 bestimmt, dass der Sprachbefehl erkannt worden ist, wird der Befehl in Block 90 zur Steuerung 54 geschickt, um von der Anwendung verwendet zu werden, die einen solchen Befehl erwartet. Danach oder wenn das Sprachbefehlssignal in Block 88 nicht als gültiger Befehl erkannt wird, geht die Steuerung zurück zu Block 82, in dem weitere Sprachsignale empfangen und verarbeitet werden. Ist ein ungültiger Befehl empfangen worden, kann die Routine 80 selbstverständlich dem Träger eine entsprechende Anzeige liefern.
  • Die im tragbaren Computer 34 nach 2 bereitgestellte Video-Verarbeitungseinheit enthält einen mit der OCR-Einheit 60 gekoppelten Einzelbild-Grabber (Frame-Grabber) 68, könnte jedoch ebenso andere Video- oder Bildverarbeitungs-Hardware/Software enthalten. Der Einzelbild-Grabber 68 kann z. B. eine Nogatek-Platine sein, die von der Firma Nogatek vertrieben wird, während die OCR-Einheit 60 z. B. das Carina Echtzeit-OCR-Paket sein kann, das von der Firma Adaptive Recognition Hungary, Budapest, Ungarn, vertrieben wird. Obwohl diese bestimmte OCR-Einheit bisher zur Identifizierung der amtlichen Kennzeichen von Fahrzeugen verwendet worden ist, ist anzunehmen, dass dieses Produkt oder ein diesem gegenüber geringfügig modifiziertes abgeleitetes Produkt einwandfrei zur Erkennung der nachstehend beschriebenen Merkmale arbeiten würde. Natürlich könnten auch andere geeignete Einzelbild-Grabber-Platinen und OCR-Pakete verwendet werden. Wie in 2 dargestellt, empfängt der Einzelbild-Grabber 68 ein Bildsignal (das mehrere Einzelbilder umfasst) von der Videokamera 38 und stellt der OCR-Einheit 60 ein Ausgangseinzelbild zur Verfügung. (Erzeugt jedoch das Bildgebungsgerät 38 ein Standbild, wie das von einer digitalen Kamera, kann der Einzelbild-Grabber 68 natürlich entfallen).
  • Bei einer Ausführungsform verarbeitet die OCR-Einheit 60 das empfangene Bild, um Gerätemerkmale im Bild zu identifizieren, und diese Gerätemerkmale dienen dann dazu, eines oder mehrere Geräte im Sichtfeld der Videokamera 38 zu identifizieren. Die OCR-Einheit 60 kann beispielsweise nach vorgegebenen Symbolen suchen und diese erkennen, wie alphanumerische Symbole auf den Feldgeräten, und die erkannten Symbole zur Identifizierung der Geräte der Steuerung 54 bereitstellen.
  • Falls gewünscht, kann der Ausgang der Videokamera 38 natürlich auch für andere Zwecke verwendet werden. So kann z. B. das Videobild der Steuerung 54 zur Anzeige auf der HUD 40 geliefert und/oder über den Sender/Empfänger 36 an den Host-Rechner 14 zur Betrachtung und/oder Verarbeitung durch den Host-Rechner 14 geschickt werden.
  • Wie aus 4 zu ersehen ist, kann eine in Form eines Flussdiagramms dargestellte Routine 100 vom tragbaren Computer 34 ausgeführt werden, um Geräte innerhalb des Sichtfeldes des Trägers auf Basis der vom Bildgebungsgerät 38 erfassten Videoeingangs automatisch zu erkennen. In Block 102 wird ein Video- oder ein anderes Bild vom Bildgebungsgerät 38 abgerufen. Ist das Bildgebungsgerät 38 eine Videokamera, kann im Block 102 der Einzelbild-Grabber 68 zum Herausgreifen eines bestimmten Video-Einzelbildes eingesetzt werden. Ist das Bildgebungsgerät jedoch beispielsweise eine digitale Kamera, kann im Block 102 ohne Hilfe des Einzelbild-Grabbers 68 direkt auf das Bild zugegriffen werden.
  • In Block 104 wird dann das Videobild oder das Einzelbild verarbeitet, um potentielle Gerätemerkmale im Videoeinzelbild zu identifizieren. Bei einer Ausführungsform ist das Gerätemerkmal ein Geräteanhänger, der gemäß OSHA für jedes der Feldgeräte innerhalb einer Prozesssteuerungsumgebung zwingend vorgeschrieben ist. Im allgemeinen weisen solche Geräteanhänger einen rechtwinkligen Halter oder Rahmen (typischerweise ein bis zwei Zoll hoch und drei bis vier Zoll breit) mit alphanumerischen Schriftzeichen auf, die darin eingeätzt oder auf andere Weise eingraviert oder eingeschnitten sind, so daß sie für Personen in der Prozesssteuerungsumgebung sichtbar sind. Die alphanumerischen Schriftzeichen haben normalerweise eine vom Rahmen verschiedene Farbe, um diese Schriftzeichen besser sichtbar zu machen. Bei Erkennen der Geräteanhänger wird das Bild in Block 104 gescannt, um Bereiche, die wahrscheinlich Geräteanhänger enthalten, z. B. rechtwinklige Flächen innerhalb des Bildes, Bereiche mit bestimmten Farbbereichen, Bereiche mit alphanumerischen Schriftzeichen usw. zu identifizieren. Selbstverständlich kann bei der Suche nach diesen Gerätemerkmalen jede gewünschte Verarbeitung angewendet werden. Danach werden in Block 106 die Gerätemerkmale innerhalb der identifizierten Bereiche erkannt oder decodiert. Vor allem bei der Identifizierung von Geräteanhängern kann die optische Zeichenerkennung (unter Verwendung der OCR-Einheit 60) in Block 106 für die identifizierten Merkmale angewendet werden, um eine vorläufige Gerätekennung zu erzeugen. Befindet sich mehr als ein Gerät innerhalb des in Verarbeitung befindlichen Bildes, können in Block 104 und 106 zahlreiche Merkmale (z. B. Geräteanhänger) erkannt und zahlreiche vorläufige Gerätekennungen identifiziert werden.
  • Danach wird in Block 108 jede der vorläufigen Gerätekennungen mit einer Liste Gerätekennungen, die beispielsweise im Speicher 52 abgelegt sind, verglichen, um die Existenz von Geräten entsprechend der vorläufigen Gerätekennungen zu überprüfen. Sind entsprechende Geräte vorhanden, werden die Gerätekennungen auf ihre Richtigkeit geprüft, und jede der verifizierten Gerätekennungen wird in Block 110 an die Steuerung 54 zur Verwendung in anderen Anwendungen, zur Anzeige für den Träger über die HUD 40 und/oder zur Weiterleitung an den Host-Rechner 14 über den Sender/Empfänger 36 geliefert.
  • Obwohl die Routine 100 Geräte auf Basis jeder Art beobachtbarer Merkmale identifizieren kann, wird bevorzugt, dass die Routine 100 Geräte auf Basis von Gerätemerkmalen identifiziert, d. h. auf Merkmalen, die Bestandteil des im Feld angeordneten Geräts sind, ungeachtet der automatischen Erkennung und Identifizierung durch das tragbare Computersystem 30. Mit anderen Worten, soll die Routine 100 vorzugsweise Geräte auf Basis von Merkmalen, die nicht einzig zum Zweck der Erkennung durch das tragbare Computersystem 30 auf dem Gerät angebracht wurden, identifizieren, obwohl es möglich wäre, Strichcode oder andere eindeutige Kennungen auf jedem der Geräte in der Prozesssteuerungsumgebung anzubringen. Werden Erkennung und Identifizierung anhand von Gerätemerkmalen vorgenommen, sind keine zusätzlichen Schritte zur Etikettierung oder sonstigen Markierung jedes Geräts in einer Prozesssteuerungsumgebung zum speziellen Zweck der Identifizierung durch einen tragbaren Computer erforderlich.
  • Andere Anwendungen, die z. B. dem Träger über die HUD 40 automatisch Informationen anzeigen, können dem Träger die identifizierten Geräte oder andere zu dem (den) identifizierten Gerat(en) gehörigen Informationen über die HUD anzeigen und/oder können die identifizierten Gerätekennungen an das Host-System 14 senden. Natürlich kann die Liste der erkannten Geräte im Speicher 52 des tragbaren Computers 34 oder in einem anderen Speicher abgelegt werden, z. B. einem Speicher im Host-System 14, auf den im Block 108 über entfernt angeordnete Kommunikationsgeräte zugegriffen werden kann, um vorläufige Gerätekennungen auf ihre Richtigkeit zu prüfen. Es versteht sich, dass nicht unbedingt jeder der Schritte der Routine 100 vom tragbaren Computersystem 30 ausgeführt werden muss. Einer oder mehrere dieser Schritte können stattdessen auch vom Host-Rechner 14 ausgeführt werden, der die Routine 100 im Datenaustausch mit dem tragbaren Computersystem 30 ausführen kann.
  • Nunmehr sei erneut auf 2 verwiesen, wonach der Lautsprechertreiber 62 Signale von der Steuerung 54 erhält und diese verarbeitet, indem er sie z. B. in analoge Standard-Audiosignale wandelt, sie verstärkt etc. Der Lautsprechertreiber 62 liefert dann das verarbeitete Signal an den Lautsprecher 42. Es liegt nahe, dass der Lautsprechertreiber 62 und die Steuerung 54 verwendet werden können, um zuvor aufgezeichnete Signale wiederzugeben, die beispielsweise im Speicher 52 oder im Speicher des Host-Rechners 14 gespeichert sind, und/oder um Echtzeit-Audioinformationen des Host-Systems wie die Stimme eine Operators am Host-System oder die Stimme eines anderen Benutzers eines tragbaren Computers aus einem anderen Bereich der Prozesssteuerungsumgebung weiterzuleiten. Die Sprach- oder Audiosignale, die vom Lautsprecher 42 wiederzugeben sind, können dem tragbaren Computer 34 über den Sender/Empfänger 36 vom Host-System oder über ein anderes mit dem tragbaren Computer 34 gekoppeltes Audiokommunikationssystem bereitgestellt werden.
  • Analog empfängt der HUD-Treiber 64 von der Steuerung 54 Signale einschließlich Graphiken, die auf der HUD 40 anzuzeigen sind und verarbeitet diese Signale zur Anzeige auf der HUD 40 in entsprechender Weise. Bei manchen Ausführungsformen können der HUD-Treiber 64 und die HUB 40 zusammen mit dem Twiddler 46 oder dem Mikrophon 44 verwendet werden, um eine Standard-Betriebsumgebung eines Computers bereitzustellen, beispielsweise ein Windows-Bild mit Dialogkästchen, Text, Graphik und dgl. Bei dieser Umgebung kann der Benutzer einen Cursor verfahren, Informationen eingeben oder das Bild auf der HUD 40 manipulieren, um z. B. eine Anwendung auszuführen oder Entscheidungen in Zusammenhang mit einer vom tragbaren Computer 34 ausgeführten Anwendung zu treffen.
  • Die Steuerung 54 verwendet den Sender/Empfänger 36 in jeder gewünschten oder auf standardmäßige Weise und liefert Signale an den Sender/Empfänger 36 zur Übertragung an das Host-System unter Verwendung jedes gewünschten Kommunikationsprotokolls. Die Steuerung 54 ihrerseits empfängt und decodiert Informationen vom Host-Rechner 14 über den Sender/Empfänger 36 unter Verwendung jedes gewünschten Kommunikationsprotokolls.
  • Das tragbare Computersystem 30 nach 2 kann verwendet werden, um dem Träger zahlreiche Arten von Informationen bereitzustellen und/oder um Funktionen in der Prozesssteuerungsumgebung auszuführen, die die Aufgaben des Trägers erleichtern und beschleunigen, wenn dieser z. B. die Anschlüsse verschiedener Geräte in der Prozesssteuerungsumgebung kontrolliert, einrichtet, instand setzt, kalibriert und prüft. Mit dem tragbaren Computersystem 30 kann ein Träger beispielsweise über die HUD 40 entweder automatisch oder nach entsprechenden Eingaben über eines der Peripheriegeräte Informationen abfragen und prüfen, die zu bestimmten Geräten oder Bereichen der Prozesssteuerungsumgebung gehören. Der tragbare Computer 34 kann jede gewünschte Information, die zu einem bestimmten Gerät oder allgemein zum Prozesssteuerungssystem gehört, speichern oder mit dem Host-Rechner 14 kommunizieren, um diese Informationen zu erhalten und diese Information dem Träger über die HUD 40 auf dessen Anforderung oder wenn das tragbare Computersystem 30 ein Gerät im Gesichtsfeld des Trägers erkennt wie oben beschrieben anzeigen. Die angezeigte Information kann Prozessinformationen wie schematische Darstellungen, Operator-Übersichten des Prozesssteuerungssystems, Geräteinformationen wie Gerätelisten, Hilfetexte, Diagnoseinformationen und sogar Informationen zu den Prozessparametern (Messungen, Parameterwerte etc.) enthalten, die zu einem oder mehreren der innerhalb des Prozesssteuerungssystems angeschlossenen Geräte gehören.
  • Um derartige Informationen betrachten zu können, kann der sich bei dem Gerät befindende Träger eine Gerätekennung, z. B. die Nummer eines Geräteanhängers oder eines Gerätes eingeben, wodurch die Steuerung 54 veranlasst werden kann, bestimmte Arten von Geräteinformationen wie Hilfetexte, Kalibrierwerte, Diagnosen, Parameterwerte etc. automatisch anzuzeigen. Der Träger kann natürlich auch die Gerätekennung mittels des Twiddlers 46, des Mikrophons 44 oder eines anderen Eingabegerätes eingeben. Bei Verwendung des Mikrophons 44 kann die Spracherkennungseinheit 56 z. B. eine gesprochene Geräteanhängernummer oder eine Gerätebezeichnung identifizieren und diese Geräteanhängernummer oder die Gerätebezeichnung an die Steuerung 54 liefern. Falls gewünscht, kann die Spracherkennungseinheit 56 so eingerichtet werden, dass sie eine Gerätenummer, eine Gerätebezeichnung oder eine andere Gerätekennung empfangen und die eingegebene Kennung mit einer Liste gültiger Gerätenummern oder Gerätebezeichnungen im Speicher 52 vergleichen kann.
  • Bei einer Ausführungsform werden wie oben beschrieben die Geräte im Sichtfeld des Trägers automatisch von der Videoverarbeitungsschaltung erkannt und können, wenn eine derartige Erkennung stattfindet, dem Träger über die HUD 40 automatisch in jedem gewünschten Format angezeigt werden. Ist die Information im Speicher 52 gespeichert, kann die Steuerung 54 automatisch auf die Information zugreifen und der HUD 40 mittels des HUD-Treibers 64 bereitstellen oder auf dieser anzeigen.
  • In jedem dieser Fälle kann die Steuerung 54 einem Benutzer eine Liste erkannter Geräte anzeigen, so dass dieser die Anzeige von Informationen zu einem dieser Geräte wählen kann, oder die Steuerung 54 kann wahlweise Informationen zu den erkannten Geräten automatisch über die HUD 40 anzeigen. Es ist von Bedeutung, dass es die Verwendung des Mikrophons 44, der Videokamera 38 und der zugehörigen Hardware/Software des tragbaren Computersystems 30 dem Träger ermöglicht, zu den Geräten (oder Bereichen oder anderen Einheiten des Prozesssteuerungssystems) gehörige Informationen automatisch so anzuzeigen, dass er seine Hände frei hat, d. h. ohne Daten oder sonstige Informationen über ein handgeführtes oder handbetätigtes Gerät einzugeben. Damit hat der Träger seine Hände frei zur Durchführung anderer Aufgaben wie Instandsetzen, Austauschen oder Kalibrieren von Geräten, Handhaben anderer Werkzeuge etc., was sehr vorteilhaft ist. Außerdem kann das tragbare Computersystem 30 Informationen empfangen und anzeigen, die von den Geräten gemessen oder in diesen gespeichert wurden, die der Träger tatsächlich inspiziert, ohne dass getrennte Skalen oder Anzeigen gebraucht werden, die physikalisch an der Außenseite jedes Gerätes angeordnet sind.
  • Bei einer anderen Ausführungsform kann das tragbare Computersystem 30 verwendet werden, um einem z. B. am Host-Rechner 14 befindlichen Operator und einem Träger über die HUD 40 die gemeinsame Betrachtung (z. B. Anzeige) bereitzustellen, um dadurch die Verständigung zwischen beiden zu verbessern. Eine solche gemeinsame Betrachtungsanwendung gestattet es einer oder beiden dieser Personen, das Bild zu manipulieren, um beispielsweise bestimmte Teile des Bildes zu zeigen oder hervorzuheben oder um Daten auf dem Bild anzubringen. Diese Maßnahmen können gemeinsam mit Sprachkommunikation erfolgen, um dadurch den Sprechverkehr zwischen dem Träger und einem Operator am Host-Rechner 14 zu verbessern.
  • 5 zeigt ein Blockdiagramm einer Software-Routine 116, die auf dem Host-Rechner 14 laufen kann, und ein Blockdiagramm einer Software-Routine 118, die auf dem tragbaren Computersystem 30 laufen kann, um eine gemeinsame Betrachtung oder Anzeige zu implementieren. In Block 120 der Routine 118 wird ein Videobild erfasst und über den Sender/Empfänger 36 an den Host-Rechner 14 gesendet. (Der Datenaustausch zwischen dem tragbaren Computersystem 30 und dem Host-Rechner 14 ist in 5 mit gestrichelten Linien dargestellt). Dieses Bild kann das gesamte aus mehreren Einzelbildern bestehende von der Videokamera 38 erzeugte Bild oder eines oder mehrere Einzelbilder desselben sein. In Block 122 der Routine 116 wird das Videobild empfangen, und in Block 124 wird das Videobild dem Operator über eine zum Host-Rechner 14 gehörige Anzeige angezeigt. In Block 126 kann der Operator am Host-Rechner 14 ein Einzelbild des Videobildes als Basis für die gemeinsame Betrachtung (ein Basisbild) wählen. In Block 126 kann beispielsweise einfach das zuletzt empfangene Einzelbild des empfangenen Videosignals angezeigt werden, bis der Operator angibt, dass ein Festbild erforderlich ist. Wahlweise kann der Operator in Block 126 die empfangenen Einzelbilder abspielen, um ein gewünschtes Bild zu wählen, oder er kann auf andere Weise ein Basisbild wählen. Wählt der Operator kein Basisbild zur gemeinsamen Anzeige, geht die Steuerung in Block 126 zurück zu Block 122. Wählt der Operator in Block 126 ein Basisbild, wird das gewählte Basisbild in Block 128 an das tragbare Computersystem 30 zur Anzeige für den Träger auf der HUD 40 geschickt. Falls gewünscht, kann das gewählte Basisbild im Block 128 auch dem Operator über die Anzeige des Host-Rechners 14 angezeigt werden.
  • Als nächstes wird in Block 130 der Routine 116 bestimmt, ob vom Operator des Host-Rechners Änderungen des Basisbildes vorgenommen oder gefordert werden. Solche Änderungen können beispielsweise das Verfahren eines Cursors oder Zeigers, das Zeichnen im Bild, das Hervorheben von Bildbereichen, das Anbringen von Informationen oder anderen Daten auf dem Bild oder sonstige andere gewünschte Änderungen enthalten, die es dem Operator ermöglichen, mit dem das Bild verwendenden Träger zu kommunizieren. Diese Änderungen können vom Operator mittels beliebiger gewünschter Systemprotokolle und Peripheriegeräte, beispielsweise einer Maus und einer Tastatur, vorgenommen werden. Nimmt der Operator Änderungen des Bildes vor, werden diese in Block 132 über das Sender/Empfängernetz 32/36 an das tragbare Computersystem 30 geschickt. Die Änderungen können mit jedem gewünschten Protokoll übertragen werden, und es können wie gewünscht entweder die betreffenden Änderungen oder ein komplettes die Änderungen enthaltendes neues Einzelbild an das tragbare Computersystem 30 geschickt werden. Bei einer Ausführungsform können Änderungen in Form von Zeigerbewegungen als neue Zeigerkoordinaten übertragen werden. Nach Ausführen und Senden der Bildänderungen an das tragbare Computersystem 30 oder wenn der Host-Operator keine neuen Änderungen mehr vornimmt, wird das Bild des Host-Systems in Block 134 aufgefrischt (unter Einbeziehung der vom Operator und der vom tragbaren Computersystem ausgeführten und an das Host-System geschickten Änderungen). Die Steuerung der Routine 118 geht dann zurück zu Block 130, um andere vom Host-Operator ausgeführte Änderungen zu erkennen.
  • Die Routine 118 enthält einen Block 136, der das vom Host-System empfangene Basisbild auf der HUD 40 anzeigt. In Block 138 werden dann vom Träger am Bild vorgenommene Änderungen erkannt, wobei diese Änderungen mit jedem verfügbaren Eingabegerät einschließlich des Mikrophons 44 und des Twiddlers 46 erfolgt sein können. Nimmt der Träger Änderungen am dargestellten Bild vor, werden diese in Block 140 an den Host-Rechner 14 geschickt. Anschließend oder wenn keine vom Träger veranlassten Änderungen erkannt werden, wird das Bild auf der HUD 40 in Block 142 aufgefrischt, wobei Änderungen durch den Träger sowie Änderungen, die am Host-Rechner 14 erfolgten und von diesem empfangen wurden, berücksichtigt werden. Die Steuerung der Routine 118 geht dann zu Block 138 zurück, um weitere vom Träger veranlasste Änderungen zu erkennen.
  • Auf diese Weise laufen die Routinen 116 und 118 auf dem Host-Rechner 14 und dem tragbaren Computersystem 30 ab, um eine gemeinsame Betrachtung oder Szene bereitzustellen, die vom Host-Operator oder vom Träger oder von beiden manipuliert werden kann, um die Verständigung zwischen beiden zu verbessern. Obwohl das Basisbild hier als von einem vom tragbaren Computersystem 30 erfassten Bild abgeleitet beschrieben worden ist, braucht dies nicht der Fall zu sein. Das Basisbild könnte stattdessen eine gespeicherte Ansicht des Operators, eine schematische Darstellung usw. in Zusammenhang mit dem interessierenden Prozess oder Gerät sein. In jedem Fall macht es die gemeinsame Ansicht dem Host-Operator möglich, verschiedene Elemente innerhalb des angezeigten Bildes auf eine solche Weise herauszugreifen und zu besprechen, die der Träger durch Betrachten einfach nachvollziehen kann. Falls gewünscht, kann außerdem der Träger Änderungen des Bildes vornehmen und dazu z. B. denselben oder einen anderen Cursor verwende, um die Verständigung mit dem Host-Operator zu unterstützen. Falls gewünscht, braucht es dem Träger nicht möglich zu sein, Änderungen des Bildes vorzunehmen, wodurch die Routinen 116 und 118 nach 5 vereinfacht werden. Falls gewünscht, kann der Träger außerdem das zu verwendende Basisbild wählen, bevor es an den Host-Rechner 14 geschickt wird.
  • Eine weitere Anwendung des tragbaren Computersystems 30 innerhalb einer Prozesssteuerungsumgebung wird in Zusammenhang mit der in Form eines Flussdiagramms in 6 dargestellten Routine 150 beschrieben, die vorzugsweise vom tragbaren Computersystem 30 ausgeführt wird. Grundsätzlich ermöglicht es die Routine 150 dem Träger, die richtigen Anschlüsse verschiedener Geräte oder Kommunikationskanäle (z. B. E/A-Anschlüsse) innerhalb einer Prozesssteuerungsumgebung auf ihre Richtigkeit zu überprüfen, wobei er seine Hände frei hat und nicht der Hilfe durch einen Operator an einem Host-Gerät bedarf. Früher musste ein Techniker mit einem handgeführten Messgerät, z. B. einem Spannungsmesser, sowie einem handgeführten Funkgerät, über das der Techniker mit einem Operator an der Host-Workstation kommunizierte zur Überprüfung der richtigen Anschlüsse der Geräte oder der Kommunikationskanäle innerhalb einer Prozesssteuerungsumgebung in die Betriebsanlage gehen. Dazu musste der Techniker erst bis zu dem Gerät gehen, dem Host-Operator über das handgeführte Funkgerät melden, dass er vor Ort sei und dann angeben, welchen Kommunikationskanal er prüfen werde. Zu diesem Zeitpunkt musste der Techniker ein handgeführtes Messgerät bedienen und das Signal auf der Leitung tatsächlich messen. Danach teilte der Techniker dem Host-Operator über das handgeführte Funkgerät mit, was seine Messung des Signals ergeben hat, so dass der Host-Operator sicherstellen konnte, dass das gemessene Signal das tatsächliche Signal auf dem gewählten Kommunikationskanal war. Anschließend forderte der Techniker den Host-Operator auf, das Signal des fraglichen Kanals zu ändern, und der Host-Operator veranlasste die Änderung des Signals oder des Wertes des Kommunikationskanals. Der Techniker maß dann das Signal auf dem Kanal erneut, um sicherzustellen, dass die Änderung tatsächlich erfolgt ist. Dies zeigt, dass dieser Prozess viele schwierige Dialoge zwischen dem Host-Operator und dem Techniker erforderte und innerhalb einer ausgedehnten und komplexen Prozesssteuerungsumgebung schwer durchzuführen war, in der der Techniker versuchte, gleichzeitig ein handgeführtes Funkgerät, ein handgeführtes Messgerät zu bedienen und sich Zugang zu den entsprechenden Geräten oder Kommunikationsleitungen zu verschaffen. Außerdem stützte sich dieser Prozess auf die Verständigung zwischen dem Host-Operator und dem Techniker, was zu Verwechslungen und Fehlern aufgrund von Verständnisschwierigkeiten führen konnte.
  • Mit der Routine 150 von 6 kann ein Träger Geräteanschlüsse von Kommunikationskanälen, z. B. E/A-Anschlüsse, innerhalb eines Prozesssteuerungssystems mit relativ freien Händen (d. h. er hält nur ein Messgerät) überprüfen, ohne dabei mit einem Operator an einer Host-Workstation kommunizieren zu müssen. Statt dessen kann das tragbare Computersystem 30 mit dem Host-Rechner direkt kommunizieren, um dem Träger alle benötigten Informationen zur Verfügung zu stellen und alle vom Träger geforderten Änderungen vorzunehmen, um die Anschlüsse eines Gerätes oder eines Kommunikationskanals im Prozesssteuerungssystem prüfen zu können. Bei Anwendung der Routine 150 kann der Träger in die Prozesssteuerungsumgebung gehen, eine Liste der Geräte und/oder zu einem Gerät gehörigen Kommunikationskanäle abzurufen, ein bestimmtes Gerät und/oder einen bestimmten Kommunikationskanal zur Prüfung wählen, ermitteln, wie das Signal des Geräts oder auf der zu prüfenden Leitung beschaffen sein sollte, Änderungen des Signals vornehmen und sowohl das ursprüngliche als auch das geänderte Signal messen, um den korrekten Anschluss des Gerätes oder des Kanals zu prüfen – und dies alles, ohne einen Host-Operator.
  • Die Routine 150 enthält einen Block 152, in dem eine Liste der Geräte auf der HUD 40 angezeigt wird, die geprüft werden können. Der Träger kann ein bestimmtes zu prüfendes Gerät wählen, indem er eines der aufgelisteten Geräte in beliebiger Weise anwählt. Vorzugsweise spricht der Träger Befehle in das Mikrophon wie UP (nach oben), DOWN (nach unten), LEFT (nach links), RIGHT (nach rechts), ENTER (Eingabe) etc. die erkannt und an die Steuerung 54 übergeben werden, um einen Cursor zu verfahren (bei dem es sich um einen hervorgehobenen Bereich handeln kann) oder um Elemente auf einem Windows-Bildschirm der HUD 40 zu wählen. Selbstverständlich kann der Träger auch ein Gerät mittels des Twiddlers 46 oder eines anderen Tastengeräts wählen, indem er das Mikrophon zur Eingabe der Bezeichnung oder des Anhängers eines Geräts oder die Videokamera 38 zur automatischen Identifizierung eines Geräts wie bezüglich der Routine 100 nach 4 beschrieben verwendet.
  • Der Block 154 wartet, bis der Träger ein Gerät wählt, und nach der Wahl eines Geräts durch den Träger wird in Block 156 über die HUD 40 eine Liste der zu dem gewählten Gerät gehörigen Kommunikationskanäle angezeigt. Ein Beispiel einer solchen Anzeige auf Basis eines Windows-Bildschirm ist in 7 dargestellt und zeigt einen Satz von 11 Kommunikationskanälen für das Gerät CTLR1 (Controller 1), wobei der erste Kanal CTLR1C02CH1 hervorgehoben ist. Natürlich kann die Liste der E/A- oder sonstiger Kommunikationskanäle auch auf jede andere Weise angezeigt werden und ist nicht auf die Darstellung in 7 beschränkt.
  • Nunmehr sei erneut auf 6 verwiesen, wonach in Block 158 darauf gewartet wird, dass der Träger einen zu prüfenden Kommunikationskanal wählt. Der Träger kann einen bestimmten Kanal wählen, der beispielsweise im Bildschirm von 7 angezeigt wird, indem er einen einfachen Sprachbefehl wie BACK (Zurück) NEXT (Nächster) verwendet, um den Cursor zu einem anderen Kanal zu verfahren, und ENTER (Eingabe), um diesen Kanal zu wählen. Um also den dritten Kommunikationskanal (CTLR1C02CH03) bei Betrachtung des Bildschirms von 7 zu wählen, kann der Träger einfach zwei mal NEXT (Nächster) sagen, um den Kanal CTLR1C02CH03 hervorzuheben, und dann ENTER (Eingabe), um diesen Kanal zu wählen. Obwohl auch andere Sprachbefehle verwendet werden können, ist der Satz Sprachbefehle vorzugsweise auf einfache Wörter zu beschränken, die von der Spracherkennungseinheit 56 leichter erkannt werden können. Während der Bildschirm von 7 auch mit anderen Eingabegeräten wie z. B. einem Twiddler 46 manipuliert werden kann, sollte der Träger vorzugsweise in der Lage sein, den Bildschirm unter Verwendung von Sprachsignalen zu manipulieren, Daten einzugeben oder dazu andere nicht manuelle Eingabegeräte zu verwenden, so dass er beide Hände für andere Aufgaben frei hat.
  • Nachdem der Benutzer einen bestimmten zu prüfenden Kommunikationskanal gewählt hat, wird in Block 160 ein weiterer Bildschirm auf der HUD 40 angezeigt, der Prozessinformationen zum gewählten Kanal enthält. Ein Beispiel eines solchen Bildschirms ist in 8 für den gewählten Kanal CTLR1C02CH01 dargestellt. Um den Bildschirm von 8 zu erzeugen, wird in Block 160 der aktuelle Prozesswert des gewählten Kommunikationskanals vom Host-System über den Sender/Empfänger 36 abgefragt (in diesem Fall ”0”) und zusammen mit einer Qualitätsangabe für das Signal (in diesem Fall ”gut”) angezeigt. Der Block 160 stellt dem Benutzer außerdem einen Bereich zur Eingabe eines neuen Prozesswertes für den Kanal bereit und zeigt den Signaltyp des Kanals, d. h. ob der Kanal ein analoger oder ein digitaler Kanal ist, und die gültigen Bereiche des Signals an. Die auf dem Bildschirm dargestellte Information wird entweder im Speicher 52 des tragbaren Computersystems 30 gespeichert oder vom Host-Rechner 14 abgerufen, der entweder die Information in einem Speicher speichert oder von einem Gerät abruft. Im dargestellten Beispiel von 8 ist der Kanal CTLR1C02CH01 ein digitaler Kanal, der momentan auf dem Wert null liegt. 9 zeigt einen ähnlichen Bildschirm, der auf der HUD 40 für den Kanal CTLR1C06CH01 angezeigt wird, bei dem es sich um einen analogen Kanal mit einem gültigen Bereich von 0 bis 100 und einen momentanen Wert von 90 handelt.
  • Bei Betrachtung der Bildschirme von 8 und 9 kann der Benutzer den Wert auf dem gewählten Kanal von Hand messen, indem er beispielsweise einen handgeführten Spannungsmesser oder ein anderes Gerät benutzt. Stimmt der gemessene Wert mit dem im Feld 'aktueller Wert' des Bildschirms überein, kann der Träger fortfahren, indem er einen neuen Wert in ein neues Feld 'aktueller Wert' eingibt. Nunmehr sei erneut auf 6 verwiesen, wonach in Block 162 darauf gewartet wird, dass der Träger einen neuen Prozesswert eingibt, vorzugsweise mittels Sprachbefehlen in Form von Zahlen und anderen einfachen Befehlen wie ENTER, BACK und NEXT, so dass der Träger das Messgerät nicht aus der Hand legen muss. In das neue Feld 'aktueller Wert' des Bildschirms von 9 wird ein neuer Wert von 98.5 eingegeben. Bei Empfang eines neuen Wertes wird der neue Wert in Block 164 zum Host-System geschickt, das dann den gewählten Kanal auf den neuen Wert ändert und nach Sicherstellung, dass der gewählte Kanal auf den neuen Werte geändert wurde, den neuen Wert an das tragbare Computersystem 30 als aktuellen Wert des gewählten Kanals schickt. Der Bildschirm der HUD 40 wird dann in Block 166 aufgefrischt, um anzuzeigen, dass der aktuelle Wert auf den zuvor eingegebenen neuen Wert geändert worden ist, und das neue Feld 'aktueller Wert' wird gelöscht, damit der Träger einen anderen neuen Wert eingeben kann. Zu diesem Zeitpunkt kann der Träger das Signal auf dem gewählten Kanal mittels des handgeführten Messgeräts messen, um zu prüfen, ob das Signal auf den eingegebenen neuen Wert geändert worden ist. Falls ja, ist der Kommunikationskanal mit größter Wahrscheinlichkeit korrekt angeschlossen und arbeitet innerhalb des Prozesssteuerungssystem einwandfrei. Falls nicht, liegt ein Problem vor, das zu identifizieren und zu beseitigen ist. Der Träger kann natürlich weitere Änderungen des Wertes des Kommunikationskanals vornehmen und diese Änderungen messen, oder zu den Kanal- oder Geräteanwahlbildschirmen zurückgehen, um einen anderen zu prüfenden Kanal oder ein anderes zu prüfendes Gerät zu wählen.
  • Bei Verwendung des oben beschriebenen Systems kann eine einzige Person den korrekten Anschluss und die korrekte Funktion verschiedener Kommunikationskanäle in einer Prozesssteuerungsumgebung prüfen, ohne mit einem Operator an der Host-Station zu sprechen oder dies mit ihm koordinieren zu müssen und ohne ein handgeführtes Funkgerät herumtragen zu müssen, was die Messungen und andere Aktivitäten vor Ort behindern würde.
  • Bei einer anderen Ausführungsform kann das tragbare Computersystem 30 dazu verwendet werden, Informationen zu jedem Gerät oder Objekt in der Prozesssteuerungsumgebung zu speichern und automatisch abzurufen, einschließlich von Geräten mit Geräteanhängern oder anderen erkennbaren Gerätemerkmalen und Objekten wie Gänge, Abfalltonnen, Gebäude etc., die typischerweise keine Geräteanhänger tragen. Bei Verwendung des tragbaren Computersystems 30 in dieser Weise kann ein Träger in einer Betriebsanlage oder einer anderen Prozesssteuerungsumgebung herumgehen und Sprachmeldungen (oder andere Informationen oder Daten) in Zusammenhang mit Geräten und Objekten in der Betriebsanlage zum späteren Abruf entweder durch den Träger oder eine andere Person aufzeichnen. Ebenso kann der Träger, wenn er ein Gerät oder Objekt sieht, bestimmen (indem er auf die Anzeige der HUD 40 schaut), ob für dieses Gerät schon früher Sprachmeldungen erstellt worden sind und diese abrufen.
  • Bei einer Ausführungsform enthält eine Softwareroutine zur Implementierung dieser Funktion (die im Prozessor der CPU 50 des tragbaren Computers 34 gespeichert und ausgeführt werden können) drei Basisroutinen, bei denen es sich um getrennte Routinen handeln kann oder die alle Subroutinen einer einzigen Routine sein können. Die erste Routine identifiziert ein oder mehrere Geräte im Gesichtsfeld des Trägers oder die für den Träger von Interesse sind. Diese Routine kann beispielsweise Spracheingaben (über das Mikrophon 44) in Form von Gerätebezeichnungen, Anhängern oder anderen Gerätekennungen, die Geräte kennzeichnen, die momentan für den Träger von Interesse sind, akzeptieren. Analog kann diese Routine dem Träger über die HUD 40 eine Geräteliste anzeigen, so dass der Träger eines der angezeigten Geräte mittels z. B. Sprachbefehlen oder anderen Eingaben wählen kann. Alternativ kann diese Routine Geräte mittels der oben in Zusammenhang mit 4 beschriebenen Videobildverarbeitungsroutine, die eines oder mehrere sichtbare Gerätemerkmale identifiziert, automatisch identifizieren. Anstelle der Gerätemerkmale kann die automatische Videoverarbeitungsroutine ein Gerät auf Basis von Kennungen, die am Gerät oder in der Nähe des Geräts zu dem spezifischen Zweck, das Gerät zu identifizieren, angebracht worden sind (z. B. optische Strichcodes), identifizieren. Andererseits können Sender am oder in der Nähe eines oder mehrere Geräte platziert werden, die ein Signal aussenden, das vom tragbaren Computer 34 empfangen und von der Routine decodiert wird, um das eine oder die mehreren Geräte zu identifizieren. Bei einer Ausführungsform kann ein einziger Sender für einen Raum oder einen anderen Bereich vorgesehen werden, und bei Empfang und Decodierung des gesendeten Signals kann die Routine auf einen Speicher zugreifen (der z. B. entweder im tragbaren Computer 34 oder im Host-Rechner 14 vorgesehen ist), der sämtliche Geräte innerhalb dieses Raums oder Bereiches speichert. Dem Träger kann dann über die HUD 40 eine Liste dieser Geräte zur Verfügung gestellt werden. In ähnlicher Weise können Geräte, die keine Anhänger oder andere automatisch erkennbaren Merkmale haben, (in einer Datenbank) Geräten, die solche automatisch erkennbaren Merkmale haben, zugeordnet werden. Typischerweise werden einander benachbarte Geräte in der Datenbank einander zugeordnet. Wird später eines dieser Geräte mit einem automatisch erkennbaren Merkmal (ein Gerät mit Anhänger) identifiziert, kann die Routine anhand der Datenbank andere Geräte ohne Anhänger bestimmen, die sich in der Nähe des Geräts mit Anhänger befinden oder diesem auf andere Weise zugeordnet sind, und dem Träger über die HUD 40 eine Liste aller dieser Geräte anzeigen. Natürlich können auch andere Verfahren zur Identifizierung von Geräten angewendet werden.
  • Nachdem eines oder mehrere Geräte identifiziert wurden und z. B. dem Träger über die HUD 40 angezeigt werden, kann der Träger mittels einer zweiten Routine eine einem der identifizierten Geräte zuzuordnende Sprachmeldung speichern. Der Träger kann eines der identifizierten Geräte wählen (indem er beispielsweise Sprachbefehle oder andere Eingaben verwendet) und dann bei Aufforderung über die HUD 40 in das Mikrophon 44 sprechen, um eine Sprachmeldung zu erzeugen. Die zweite Routine speichert dann die Sprachmeldung als dem identifizierten/gewählten Gerät zugeordnet. Dieser Speicher kann der Speicher 52 des tragbaren Computers 34 oder vorzugsweise ein Speicher im Host-System z. B. im Host-Rechner 14 sein. Bei einer Speicherung im Host-Rechner 14 steht die Sprachmeldung mehreren tragbaren Computern zur Verfügung.
  • Eine dritte Routine bestimmt, ob es schon eine der früher gespeicherten Sprachmeldungen für eines der von der ersten Routine identifizierten Geräte gibt und falls ja, liefert sie eine Anzeige z. B. ein Symbol zur HUD 40, um dem Träger zu melden, dass für das betreffende identifizierte Gerät eine bereits gespeicherte Meldung vorliegt. Wählt der Träger das Symbol beispielsweise mittels Sprachbefehlen an, ruft die dritte Routine die zuvor gespeicherte Sprachmeldung aus dem Speicher ab und spielt sie dem Träger über den Lautsprecher 42 ab.
  • Mittels dieser Datenspeicherungs-/Abrufeinheit kann der Träger (oder Operator) bei jeder manuellen oder automatischen Identifizierung eines Geräts durch den Träger (oder einen Operator des Host-Systems 14) eine dem Gerät zuzuordnende Sprachmeldung aufzeichnen und gleichermaßen zuvor aufgezeichnete diesem Gerät zugeordnete Sprachmeldungen abrufen und abhören. Auf diese Weise kann ein Träger (oder Operator) Anmerkungen machen oder Nachrichten zu einem Gerät oder einem anderen Objekt im Prozesssteuerungssystem hinterlassen, die später von ihm selbst oder einer anderen Person abgerufen werden können. Eine solche Meldung kann beispielsweise die nächste Person darüber informieren, dass das Gerät einer Instandsetzung unterzogen wird oder dass es eine Kalibrierung erfordert, oder irgendeine andere gewünschte Meldung in Zusammenhang mit dem Gerät oder Objekt sein. Ein einfaches Beispiel hierfür ist, dass ein Träger einen Gang in der Prozesssteuerungsumgebung entlang geht und bemerkt, dass dieser mit einem neuen Anstrich versehen oder repariert werden muss. (Der Gang kann aufgrund des Raums, in dem sich der Benutzer befindet, aufgrund der Nähe zu anderen Geräten, die anhand der Gerätemerkmale automatisch identifiziert werden können, aufgrund spezifischer Code oder anderer auf dem Gang angebrachter Merkmale zur automatischen Identifizierung, aufgrund vom Benutzer generierter Eingaben irgendeiner Art einschließlich Spracheingaben und Eingaben über manuell oder auf sonstige Weise zu betätigende Eingabegeräte automatisch identifiziert werden). Der Träger kann den Gang auf der HUD 40 wählen und dann mittels einer Sprachmeldung angeben, dass Reparaturen des Gangs erforderlich sind. Wird später der Gang als von Interesse oder als vom Träger eines tragbaren Computers (oder vom Operator des Host-Rechners 40) inspiziert erkannt, wird die Sprachmeldung dem Träger (oder Operator) automatisch bereitgestellt und durch ein Symbol (das auch eine Textmeldung sein kann), das diesem Gang auf der HUD 40 zugeordnet ist, als verfügbar markiert. Auf diese Weise können neue Informationen erstellt und als zu einem Gerät oder Objekt in einer Prozesssteuerungsumgebung zugehörig gespeichert werden, und diese Informationen können später einem Benutzer auf die gleiche Weise und/oder zur gleichen Zeit wie andere eher standardmäßige Informationen (wie Hilfetext) zur Verfügung gestellt werden.
  • Die hierin beschriebenen Routinen können selbstverständlich in einer Standard-Universal-CPU oder auf speziell konzipierter Hardware oder Firmware implementiert werden. Bei softwaremäßiger Implementierung kann die Software in jedem computerlesbaren Speicher, beispielsweise einer Magnetplatte, einer Laserplatte oder einem anderen Speichermedium, in einem RAM oder ROM eines Computerprozessors usw. gespeichert werden. Gleichermaßen kann diese Software einem Benutzer oder einem Gerät (wie der tragbare Computer) über jede bekannte oder gewünschte Übertragungsmethode, einschließlich z. B. auf einer computerlesbaren Platte oder einem anderen mobilen Computerspeichermechanismus oder über einen Kommunikationskanal, z. B. eine Telefonleitung das Internet etc. (was als identisch oder austauschbar mit der Bereitstellung solcher Software über ein mobiles Speichermedium gilt) geliefert werden.
  • Bezugszeichenliste
  • 10
    Prozesssteuerungssystem
    12
    Prozesssteuerung, Steuerung
    14
    Host-Workstation, Host-Rechner
    15, 16, 17, 18, 19
    Feldgeräte
    20, 22
    Eingangs-/Ausgangs-(E/A)-Karten
    30
    tragbares Computersystem
    32
    Sender/Empfänger
    34
    tragbarer Computer
    36
    Sender/Empfänger, Fern-Kommunikationsgerät
    38
    Bildgebungsgerät, Videokamera
    40
    HUD, (head-up display – Anzeigeneinspiegelung)
    42
    Lautsprecher
    44
    Mikrophon
    46
    Eingabegerät
    50
    CPU (central processing unit – Zentraleinheit), Prozessor
    52
    Speicher
    54
    Steuerung
    56
    Spracherkennungseinheit
    60
    optische Zeichenerkennungs-(optical character recognition – OCR)-Einheit
    62
    Lautsprechertreiber
    64
    HUD-Treiber
    68
    Video-Einzelbild-Grabber
    80
    Software-Routine
    100
    Routine
    116
    Software-Routine
    118
    Software-Routine
    150
    Routine

Claims (11)

  1. Tragbarer Computer (34) zur Verwendung in einem Prozesssteuerungssystem, der Folgendes aufweist: – einen Prozessor (50); – mindestens ein Eingabegerät (46); – eine Anzeigeeinrichtung (40); – einen computerlesbaren Speicher (52); – eine erste Software-Routine, die auf dem computerlesbaren Speicher (52) abgelegt und auf dem Prozessor (50) ausführbar ist, um ein Prozesssteuerungsgerät des Prozesssteuerungssystems (10) basierend auf einem Eingangssignal zu identifizieren, das unter Verwendung eines des mindestens einen Eingabegeräts (46) erzeugt wird; – eine zweite Software-Routine, die auf dem computerlesbaren Speicher (52) abgelegt und auf dem Prozessor (50) ausführbar ist, (i) um eine Anzeige über die Anzeigeeinrichtung (40) zu liefern, dass eine zugreifbare benutzererzeugte Nachricht zur Verfügung steht, wobei die Nachricht sich auf das identifizierte Prozesssteuerungsgerät bezieht, wobei die Nachricht vorher durch einen Benutzer erzeugt und gespeichert wurde, damit diese für eine zukünftige Kommunikation bereit steht, (ii) und die benutzererzeugte Nachricht als Reaktion auf eine Benutzereingabe bereitstellt, die die benutzererzeugte Nachricht auswählt.
  2. Tragbarer Computer (34) nach Anspruch 1, bei dem das Eingangssignal ein Videobild ist und die erste Software-Routine eine Bildverarbeitungsroutine umfaßt, die das Videobild zur Identifizierung des Prozesssteuerungsgeräts verarbeitet.
  3. Tragbarer Computer (34) nach Anspruch 2, bei dem die Bildverarbeitungsroutine eine Routine zur optischen Zeichenerkennung aufweist, die alphanumerische Zeichen im Videobild erkennt, und die Bildverarbeitungsroutine das Prozesssteuerungsgerät auf Basis der alphanumerischen Zeichen identifiziert.
  4. Tragbarer Computer (34) nach Anspruch 1, bei dem das Eingangssignal ein Sprachsignal ist und die erste Software-Routine eine Spracherkennungseinheit (56) umfasst, die das Sprachsignal zur Identifizierung des Prozesssteuerungsgeräts verarbeitet.
  5. Tragbarer Computer (34) nach Anspruch 1, bei dem das mindestens eine Eingabegerät (46) ein Mikrofon (44) umfasst, das ein Sprachsignal als Eingangssignal erzeugt, wobei die erste Software-Routine des Weiteren auf dem Prozessor (50) ausführbar ist, um ein Bild mit einer Liste von Prozesssteuerungsgeräten des Prozesssteuerungssystems (10) auf der Anzeigeeinrichtung (40) zu erzeugen, und wobei die erste Software-Routine eine Spracherkennungseinheit (56) enthält, die das Sprachsignal verarbeitet, um das Prozesssteuerungsgerät aus der Liste von Prozesssteuerungsgeräten zu identifizieren.
  6. Tragbarer Computer (34) nach Anspruch 1, umfassend: – ein Fern-Kommunikationsgerät (36), das mit dem Prozesssteuerungssystem (10) kommuniziert, – einen weiteren Speicher, der die zuvor gespeicherte benutzererzeugte Nachrichtinnerhalb des Prozesssteuerungssystems (10) speichert, und – eine dritte Software-Routine, die in dem computerlesbaren Speicher (52) gespeichert und auf dem Prozessor (50) ausführbar ist, um mit dem weiteren Speicher über das Fern-Kommunikationsgerät (36) zu kommunizieren.
  7. Tragbarer Computer (34) nach Anspruch 1, bei dem die zweite Software-Routine über die Anzeigeeinrichtung (40) ein Symbol als Anzeige- anzeigt.
  8. Tragbarer Computer (34) nach Anspruch 7, bei dem die Benutzereingabe ein erstes Sprachsignal ist, wobei die benutzererzeugte Nachricht ein zweites Sprachsignal ist, und wobei die zweite Software-Routine eine Spracherkennungseinrichtung (56) umfasst, die das erste Sprachsignal verarbeitet, um einen Benutzerbefehl zu identifizieren, um ein Symbol auszuwählen und die zweite Software-Routine das zuvor gespeicherte zweite Sprachsignal für das identifizierte Prozesssteuerungsgerät wiedergibt, wenn das Symbol ausgewählt ist.
  9. Tragbarer Computer (34) nach Anspruch 1, bei dem das zuvor die benutzererzeugte Nachricht ein Sprachsignal ist.
  10. Tragbarer Computer (34) nach Anspruch 1, bei dem das mindestens eine Eingabegerät (46) ein Mikrofon (44) umfasst, und weiter eine dritte Software-Routine, die in dem computerlesbaren Speicher (52) gespeichert und auf dem Prozessor (50) ausführbar ist, die ein Sprachsignal vom Mikrofon (44) empfängt, und das empfangene Sprachsignal, das mit einem identifizierten Prozesssteuerungsgerät verknüpft ist, in einem weiteren Speicher als Reaktion einer Benutzereingabe zum Speichern des empfangenden Sprachsignals speichert.
  11. Datenspeicherungs-/Abrufeinheit die dazu ausgelegt ist, in einem tragbaren Computer (34) nach einem der Ansprüche 1 bis 10 verwendet zu werden.
DE10066477.6A 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung Expired - Lifetime DE10066477B3 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/249,597 US7230582B1 (en) 1999-02-12 1999-02-12 Wearable computer in a process control environment
US09/249,597 1999-02-12

Publications (1)

Publication Number Publication Date
DE10066477B3 true DE10066477B3 (de) 2016-06-30

Family

ID=22944182

Family Applications (3)

Application Number Title Priority Date Filing Date
DE10066477.6A Expired - Lifetime DE10066477B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10006126A Expired - Lifetime DE10006126B4 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10006126A Expired - Lifetime DE10006126B4 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Country Status (4)

Country Link
US (2) US7230582B1 (de)
JP (1) JP3801406B2 (de)
DE (3) DE10066477B3 (de)
GB (1) GB2346720B (de)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384736B1 (en) * 1998-04-30 2002-05-07 Dave Gothard Remote control electronic display system
US7230582B1 (en) * 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US6806847B2 (en) * 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7565294B2 (en) * 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
JP3883775B2 (ja) * 2000-03-17 2007-02-21 株式会社デジタル 制御システム用サーバ装置、制御システム、制御システム用サーバ装置の通信方法、および、そのプログラムが記録された記録媒体
DE60139431D1 (de) * 2000-03-17 2009-09-10 Digital Electronics Corp Steuerungsserver, Steuerungsendgerät, Steuerungssystem und Speichersteuerungskommunikationsprogramm für Aufzeichnungsmedien
DE10021619A1 (de) * 2000-05-04 2001-11-08 Focke & Co Mobile, rechnergestützte Wartungseinheit
US7437293B1 (en) * 2000-06-09 2008-10-14 Videa, Llc Data transmission system with enhancement data
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
DE10063089C1 (de) * 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
US7506256B2 (en) * 2001-03-02 2009-03-17 Semantic Compaction Systems Device and method for previewing themes and categories of sequenced symbols
DE10159610B4 (de) 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
DE10161401B4 (de) * 2001-12-13 2012-11-08 Endress + Hauser Gmbh + Co. Kg Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen
DE10203555A1 (de) * 2002-01-29 2003-08-07 Endress & Hauser Wetzer Gmbh Feldgerät
US6973508B2 (en) * 2002-02-12 2005-12-06 Fisher-Rosemount Systems, Inc. Highly versatile process control system controller
DE10317497B4 (de) * 2003-04-16 2013-10-17 Abb Ag System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät
DE10333214A1 (de) * 2003-07-22 2005-02-10 Sms Demag Ag Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme
US7561200B2 (en) 2004-07-26 2009-07-14 Csi Technology, Inc. Apparatus and method for automation of imaging and dynamic signal analyses
JP4669041B2 (ja) * 2006-02-28 2011-04-13 パナソニック株式会社 ウェアラブル端末
US7961851B2 (en) * 2006-07-26 2011-06-14 Cisco Technology, Inc. Method and system to select messages using voice commands and a telephone user interface
JP2008048076A (ja) * 2006-08-11 2008-02-28 Canon Inc 音声処理装置およびその制御方法
US7999818B2 (en) * 2007-09-07 2011-08-16 Mamoudis John T Hands-free, user-formatted instruction display system
DE102008009446A1 (de) * 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung
US8299938B2 (en) * 2009-09-08 2012-10-30 Rosemount Inc. Projected instrument displays for field mounted process instruments
EP2502410B1 (de) * 2009-11-19 2019-05-01 eSight Corporation Eine Methode zur Verbesserung des Sehvermögens
US8447070B1 (en) 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US8861310B1 (en) 2011-03-31 2014-10-14 Amazon Technologies, Inc. Surface-based sonic location determination
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
US9189465B2 (en) * 2012-09-28 2015-11-17 International Business Machines Corporation Documentation of system monitoring and analysis procedures
US9151953B2 (en) 2013-12-17 2015-10-06 Amazon Technologies, Inc. Pointer tracking for eye-level scanners and displays
EP2913730B1 (de) 2014-02-28 2019-10-30 ABB Schweiz AG Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem
WO2015160345A1 (en) * 2014-04-16 2015-10-22 Empire Technology Development Llc Computer-based safety control
DK201470277A1 (en) * 2014-05-08 2015-01-05 Vestas Wind Sys As A smart device with a screen for visualizing a wind turbine component
US10146330B2 (en) 2014-06-18 2018-12-04 Matthew Swan Lawrence Systems and methods for character and command input
DE102014109612B4 (de) * 2014-07-09 2016-09-01 Endress + Hauser Infoserve Gmbh + Co. Kg Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten
US9576329B2 (en) 2014-07-31 2017-02-21 Ciena Corporation Systems and methods for equipment installation, configuration, maintenance, and personnel training
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
CN105701965B (zh) * 2014-12-15 2020-06-30 朱保东 一种穿戴式安全设备及其方法
US10199041B2 (en) 2014-12-30 2019-02-05 Honeywell International Inc. Speech recognition systems and methods for maintenance repair and overhaul
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
CN106023578A (zh) * 2016-07-14 2016-10-12 广州视源电子科技股份有限公司 可穿戴设备及家居设备的控制方法
GB2568024A (en) * 2017-09-25 2019-05-08 Emotech Ltd Display device
EP3602272B1 (de) 2017-11-06 2023-11-22 Google LLC Verfahren und systeme zur bedienung eines präsentierenden benutzers
DE102017220438A1 (de) * 2017-11-16 2019-05-16 Vega Grieshaber Kg Prozessautomatisierungssystem mit einem Wearable Computer
JP6963881B2 (ja) * 2018-06-05 2021-11-10 東芝三菱電機産業システム株式会社 音声認識監視装置
US11135723B2 (en) * 2018-10-12 2021-10-05 Universal City Studios Llc Robotics for theme park wearable software testing
KR102229562B1 (ko) * 2019-07-25 2021-03-18 엘지전자 주식회사 음성 인식 서비스를 제공하는 인공 지능 장치 및 그의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0670537A1 (de) * 1992-04-06 1995-09-06 Edward George Newman Handfreies benützergestütztes tragbarer Rechner
US5598572A (en) * 1994-03-18 1997-01-28 Hitachi, Ltd. Information terminal system getting information based on a location and a direction of a portable terminal device
EP0862159A1 (de) * 1997-03-01 1998-09-02 Agfa-Gevaert N.V. Spracherkennungssystem für eine medizinische Röntgenapparatur
DE60031929T2 (de) * 1999-09-15 2007-03-15 Siemens Corporate Research, Inc. Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4303973A (en) 1976-10-29 1981-12-01 The Foxboro Company Industrial process control system
US4152760A (en) 1977-09-16 1979-05-01 The Foxboro Company Industrial process control system
US4149237A (en) 1977-09-16 1979-04-10 The Foxboro Company Industrial process control system
US4268822A (en) 1978-10-18 1981-05-19 The Foxboro Company Apparatus for determining the state of each of a plurality of bi-state devices
US4729091A (en) 1984-11-13 1988-03-01 International Business Machines Corporation Directing storage requests prior to address comparator initialization with a reference address range
GB8511691D0 (en) 1985-05-09 1985-06-19 British Telecomm Control system
US4726017A (en) 1985-05-21 1988-02-16 Fla. Multidrop data concentrator communication network
US4910658A (en) 1985-09-04 1990-03-20 Eaton Leonard Technologies, Inc. Real time process controller with serial I/O bus
US5239662A (en) 1986-09-15 1993-08-24 Norand Corporation System including multiple device communications controller which coverts data received from two different customer transaction devices each using different communications protocols into a single communications protocol
US4949299A (en) 1987-12-04 1990-08-14 Allen-Bradley Company, Inc. Industrial control communication network and method
EP0345337A4 (en) 1987-12-07 1991-12-18 Bt Telecom, Inc. System for interfacing an alarm reporting device with a cellular radio transceiver
US4916441A (en) 1988-09-19 1990-04-10 Clinicom Incorporated Portable handheld terminal
EP0369188B1 (de) 1988-10-27 1995-12-27 Texas Instruments Incorporated Kommunikations-, Informations-, Wartungsdiagnostik und Ausbildungssystem
US5309351A (en) * 1988-10-27 1994-05-03 Texas Instruments Incorporated Communications, information, maintenance diagnostic and training system
US5099444A (en) 1989-05-09 1992-03-24 Ansan Industries, Ltd. Peripheral data acquisition transmission and control device
US5400246A (en) 1989-05-09 1995-03-21 Ansan Industries, Ltd. Peripheral data acquisition, monitor, and adaptive control system via personal computer
US5142550A (en) 1989-06-29 1992-08-25 Symbol Technologies, Inc. Packet data communication system
US5150363A (en) 1989-08-11 1992-09-22 Digital Audio Disc Corporation Serial input/output multiplexing apparatus
US5088021A (en) 1989-09-07 1992-02-11 Honeywell, Inc. Apparatus and method for guaranteed data store in redundant controllers of a process control system
US5495482A (en) 1989-09-29 1996-02-27 Motorola Inc. Packet transmission system and method utilizing both a data bus and dedicated control lines
US5252967A (en) 1990-05-25 1993-10-12 Schlumberger Industries, Inc. Reader/programmer for two and three wire utility data communications system
CA2056897C (en) 1990-12-18 1996-11-26 Basil Obrist Automatically operable manufacturing and machining plant
JP2730810B2 (ja) 1991-05-10 1998-03-25 シャープ株式会社 情報処理装置
US5781913A (en) 1991-07-18 1998-07-14 Felsenstein; Lee Wearable hypermedium system
US5208449A (en) * 1991-09-09 1993-05-04 Psc, Inc. Portable transaction terminal
US5353331A (en) 1992-03-05 1994-10-04 Bell Atlantic Network Services, Inc. Personal communications service using wireline/wireless integration
US5491651A (en) 1992-05-15 1996-02-13 Key, Idea Development Flexible wearable computer
JP3391405B2 (ja) * 1992-05-29 2003-03-31 株式会社エフ・エフ・シー カメラ映像内の物体同定方法
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
CA2107519C (en) 1992-10-05 2002-04-09 Stephen George Seberger Communication system and method
US5666530A (en) 1992-12-02 1997-09-09 Compaq Computer Corporation System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between
US5402367A (en) * 1993-07-19 1995-03-28 Texas Instruments, Incorporated Apparatus and method for model based process control
US5495484A (en) 1993-10-12 1996-02-27 Dsc Communications Corporation Distributed telecommunications switching system
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
CA2135718A1 (en) 1993-11-15 1995-05-16 Mark A. Gilbertie Universal electrical system architecture for control applications
JP2873268B2 (ja) * 1994-02-24 1999-03-24 エドワード・ジョージ・ニューマン 手を使わずにユーザにより支持される携帯用計算機とその操作方法
ATE187824T1 (de) 1994-10-24 2000-01-15 Fisher Rosemount Systems Inc Vorrichtung, die einen zugang zu feldgeräten in einem verteilten steuerungssystem gestattet
CN1049052C (zh) 1995-07-07 2000-02-02 中国石化洛阳石油化工总厂 一种智能化炼油化工危险源事故预案和应急处理方法
JP3425276B2 (ja) 1995-08-11 2003-07-14 株式会社日立製作所 情報通知システム
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US6094600A (en) 1996-02-06 2000-07-25 Fisher-Rosemount Systems, Inc. System and method for managing a transaction database of records of changes to field device configurations
TW395121B (en) 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JPH09247180A (ja) 1996-03-12 1997-09-19 Toshiba Corp プロセスlan用タップ、携帯型コンピュータ及び統合制御システム
JPH10124178A (ja) * 1996-10-15 1998-05-15 Olympus Optical Co Ltd 電子メール端末、電子メール端末の処理方法、媒体
US5938721A (en) 1996-10-24 1999-08-17 Trimble Navigation Limited Position based personal digital assistant
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
DE19706614A1 (de) 1997-02-20 1998-08-27 Claas Ohg Situationsbezogene programmgesteuerte elektronische Kartenbilddarstellung in einem Kraftfahrzeug
JP3557467B2 (ja) * 1997-06-11 2004-08-25 株式会社日立製作所 音声データの認識方法及びその装置
US6262749B1 (en) * 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
US6226612B1 (en) * 1998-01-30 2001-05-01 Motorola, Inc. Method of evaluating an utterance in a speech recognition system
WO2000002344A2 (de) 1998-07-03 2000-01-13 Siemens Aktiengesellschaft Verfahren und system zum drahtlosen steuern von mindestens zwei unterschiedlichen einrichtungen
JP3964553B2 (ja) 1998-09-10 2007-08-22 株式会社東芝 情報配信システム
TW495710B (en) * 1998-10-15 2002-07-21 Primax Electronics Ltd Voice control module for control of game controller
JP4008611B2 (ja) 1999-02-09 2007-11-14 株式会社東芝 プラント作業監視装置および記憶媒体
US7230582B1 (en) 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US6806847B2 (en) 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7640007B2 (en) * 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US6633782B1 (en) * 1999-02-22 2003-10-14 Fisher-Rosemount Systems, Inc. Diagnostic expert in a process control system
US6298454B1 (en) 1999-02-22 2001-10-02 Fisher-Rosemount Systems, Inc. Diagnostics in a process control system
US6574672B1 (en) 1999-03-29 2003-06-03 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support computer communications system
JP2001051717A (ja) 1999-06-04 2001-02-23 Toshiba Corp プラント機器監視装置
JP2001034615A (ja) 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
JP2001125633A (ja) 1999-10-28 2001-05-11 Toshiba Corp プラント情報収集システム
JP3390806B2 (ja) 1999-12-28 2003-03-31 株式会社テイエルブイ 位置認識装置及びこの位置認識装置を備えた測定装置並びに測定システム
US6690351B1 (en) * 2000-04-06 2004-02-10 Xybernaut Corporation Computer display optimizer
JP2002171579A (ja) 2000-12-01 2002-06-14 Toyo Keiki Co Ltd 自動検針システム用無線装置
US8126276B2 (en) 2001-02-21 2012-02-28 International Business Machines Corporation Business method for selectable semantic codec pairs for very low data-rate video transmission
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
DE10124266A1 (de) 2001-05-18 2002-11-21 Abb Patent Gmbh System zur physischen Lokalisierung von Feldgeräten in verfahrenstechnischen Anlagen
US20030043070A1 (en) 2001-08-30 2003-03-06 Soliman Samir S. Wireless coordination and management system
US6633182B2 (en) 2001-09-05 2003-10-14 Carnegie Mellon University Programmable gate array based on configurable metal interconnect vias
US20030229472A1 (en) 2001-12-06 2003-12-11 Kantzes Christopher P. Field maintenance tool with improved device description communication and storage
US20030204373A1 (en) 2001-12-06 2003-10-30 Fisher-Rosemount Systems, Inc. Wireless communication method between handheld field maintenance tools
US7606938B2 (en) 2002-03-01 2009-10-20 Enterasys Networks, Inc. Verified device locations in a data network
US7085623B2 (en) 2002-08-15 2006-08-01 Asm International Nv Method and system for using short ranged wireless enabled computers as a service tool

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0670537A1 (de) * 1992-04-06 1995-09-06 Edward George Newman Handfreies benützergestütztes tragbarer Rechner
US5598572A (en) * 1994-03-18 1997-01-28 Hitachi, Ltd. Information terminal system getting information based on a location and a direction of a portable terminal device
EP0862159A1 (de) * 1997-03-01 1998-09-02 Agfa-Gevaert N.V. Spracherkennungssystem für eine medizinische Röntgenapparatur
DE60031929T2 (de) * 1999-09-15 2007-03-15 Siemens Corporate Research, Inc. Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern

Also Published As

Publication number Publication date
GB2346720B (en) 2003-12-31
JP2000242367A (ja) 2000-09-08
US8125405B2 (en) 2012-02-28
GB2346720A (en) 2000-08-16
GB0002157D0 (en) 2000-03-22
US7230582B1 (en) 2007-06-12
DE10006126A1 (de) 2000-08-17
JP3801406B2 (ja) 2006-07-26
DE10066478B3 (de) 2016-06-30
DE10006126B4 (de) 2011-11-17
US20070210983A1 (en) 2007-09-13

Similar Documents

Publication Publication Date Title
DE10066477B3 (de) Tragbarer Computer in einer Prozesssteuerungsumgebung
DE102005058564B4 (de) Drahtlose handgehaltene Kommunikationseinrichtung in einer Prozesssteuerungsumgebung
DE10242007A1 (de) Portabler Computer in einem Prozesssteuerungsumfeld
EP1986889B1 (de) Vorrichtung und verfahren zur interaktiven informationsausgabe und/oder hilfestellung für den benutzer eines kraftfahrzeugs
WO2000052542A1 (de) Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen
EP1462895A1 (de) Verfahren und Vorrichtung zum Steuern einer Mehrzahl von Handhabungsgeräten
DE10134717A1 (de) Konfiguration eines Informationssystems
DE102009056640A1 (de) Robotersystem mit einer Mehrzahl mechanischer Roboterteile
DE10006351A1 (de) Vorrichtung zum Abrufen von Informationen zur Funktion und Bedienung verschiedener Einrichtungen eines Kraftfahrzeugs
DE112015006714T5 (de) Vom nutzer konfigurierbares fahrzeug-einparkhilfesystem
DE112019002380T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102014019192A1 (de) Darstellung des Online-Status einer hypriden Sprachbedienung
EP1180674B1 (de) Datenkommunikationssystem für Kraftfahrzeug Prüfstände mit Prüfprogramm auf der Zentraleinheit
DE102013019563B4 (de) Verfahren zum Bereitstellen von Information über eine Umgebung an einem Smart-Gerät
EP1487616B1 (de) Automatische prozesskontrolle
DE60125597T2 (de) Vorrichtung für die Dienstleistungsvermittlung
WO2007006703A1 (de) Verfahren zur optimierung von kontrollvorgängen beim einsatz mobiler endgeräte
DE102012101916A1 (de) Darstellung von aktuellen Betriebsparametern eines Elements einer Solaranlage auf einer mobilen Datenverarbeitungseinrichtung
DE112008003763T5 (de) Kommunikationssystem zur Verwendung mit einem Fahrzeug
WO2020126376A1 (de) Verfahren und vorrichtung zum überwachen eines insassen eines fahrzeugs
DE102017216359A1 (de) Verfahren und System zur Kommunikation und Zugänglichmachung von Information
DE10135837A1 (de) Bedienen und Beobachten einer Anlage
DE102017212215B4 (de) Bedienverfahren für ein Gerät eines Kraftfahrzeugs, Bedienvorrichtung und Kraftfahrzeug
WO2023072481A1 (de) Steuern eines diensts an bord eines fahrzeugs
DE102023112331A1 (de) Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe

Legal Events

Date Code Title Description
R131 Declaration of division deemed not made
R409 Internal rectification of the legal status completed
R074 Re-establishment allowed
R409 Internal rectification of the legal status completed
R129 Divisional application from

Ref document number: 10006126

Country of ref document: DE

Effective date: 20110314

R074 Re-establishment allowed
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R129 Divisional application from

Ref document number: 10006126

Country of ref document: DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R071 Expiry of right